האלגוריתם שדופק את החלשים - מגזין TheMarker - TheMarker
 

טרם ביצעת אימות לכתובת הדוא"ל שלך. לאימות כתובת הדואל שלך  לחצו כאן

תיק מניות

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

לרשימת הקריאה המלאה לחצו כאן

האלגוריתם שדופק את החלשים

בשירותי הרווחה בארצות הברית תוכנות מחשוב מחליפות את בעלי המקצוע מתוך כוונה לייעל את השירות. ספר חדש מראה איך בדרך העניים נרמסים עוד קצת

תגובות

אינדיאנה היא אחת המדינות העניות בארצות הברית, עם שיעור עוני של כ־15%, אוכלוסייה כפרית גדולה ורמת הכנסה למשק בית מהנמוכות מבין 50 המדינות. היא גם אחת המדינות המאוכלסות בארצות הברית, עם כמעט 7 מיליון תושבים. מחלקת הרווחה של אינדיאנה מקבלת מדי שנה מיליוני פניות מתושבים – לסבסוד שירותי בריאות, למתן קצבאות והטבות מס ולאספקת תלושי מזון. אולם בשלוש השנים האחרונות דחתה המדינה לא פחות ממיליון בקשות כאלה. זה לא קרה בגלל שינוי במדיניות, ולא בגלל גידול חד בגירעון שמאלץ את המדינה לקצץ בתקציב הרווחה. זה קרה בגלל מערכת מחשוב חדשה, שהאלגוריתם שלה דוחה כל בקשה שיש בה טעות ולו הקטנה ביותר במילוי הדו"ח, בצירוף הודעת השגיאה Failure to cooperate.

מערכות מחשוב מתקדמות הוטמעו בשנים האחרונות ברחבי ארצות הברית ומחוצה לה כדי לייעל את השירות לציבור – אבל בינתיים נראה שהן בעיקר פוגעת בו. כך עולה מספר חדש של פרופ' וירג'יניה יובנקס מאוניברסיטת אלבני, שיצא לאור בתחילת השנה. יובנקס, מרצה למדע המדינה שעוסקת בקשר בין טכנולוגיה לצדק חברתי, חוקרת בספר "האוטומציה של אי השוויון" (Automating Inequality) את ההשלכות של הטמעת טכנולוגיה מתקדמת בשירות הציבורי על העניים ומעמד הפועלים בארצות הברית.

LUCY NICHOLSON/רויטרס

המערכות הללו מחליפות פקידי רווחה ומכריעות, ללא שיקול דעת אנושי, בשורה של החלטות שמשפיעות על חייהם של רבים, בעיקר מהשכבות החלשות של החברה. הן יכולות לקבוע מי יקבל תלושי מזון ומי ירעב, אילו משפחות יקבלו סיוע מהמדינה ואילו לא, ואילו שכונות יקבלו שירות מהמשטרה.

ההשלכות של ההכרעות הללו הן לעתים אכזריות: המערכת שהוטמעה באינדיאנה הפסיקה להעניק קצבאות לאישה שגססה למוות; מאם טרייה היא מנעה קבלת כיסוי רפואי; בפנסילבניה, מודלים סטטיסטיים גורמים להוצאת ילדים ממשפחות עניות, מאחר שהן נופלות מחוץ לפרופיל הנדרש; בלוס אנג'לס, אלגוריתמים קובעים אילו חסרי בית לא יקבלו סיוע בדיור אחרי שאלה נדרשים למלא שאלון ארוך ופולשני. שלוש המדינות האלה ניצבות במוקד ספרה של יובנקס.

יובנקס טוענת כי תהליך האוטומציה של מערכות הרווחה הוא בעל השלכות אתיות מטרידות, מאחר שהוא מפר את הערכים הלאומיים הבסיסיים ביותר – סולידריות ודאגה לחלש. אף מדינה אינה פטורה מהחובה לממש את הערכים האלה בשירות לאזרחיה, אך צריך להודות שארצות הברית מעולם לא ניסתה להצטיין בהם. פעמים רבות המדינה העדיפה לדחוק אותם לטובת קידוש האינדיבידואליות וחלום ההתעשרות שיגאל את האדם מהצורך להטריד את עצמו בעוני, בסולידריות חברתית ובמערכות רווחה. כעת, תוכנות מחשב פוטרות גם את עובדי הרווחה מהטרדה הזאת.

St. Martin's Press

הפתרון, לדעת יובנקס, משלב שינוי של התנהגות מערכות המחשוב לצד התערבות אנושית. את התוכנות ניתן לשנות כך שלא יוכלו לקבל החלטות שפוגעות בנזקקים; את ההחלטות האלה יש להעביר לידיהם של עובדים מקצועיים – דבר שיצריך הגדלת תקציבי מערכות רווחה, כדי לגייס עוד עובדים ולהשקיע בהכשרות מקצועיות.

יובנקס עצמה היתה קורבן לדראקוניות של האלגוריתם במצב של מצוקה. בן זוגה הותקף קשות ונזקק לניתוח מורכב ויקר, שעלה 60 אלף דולר. לזוג היה כיסוי רפואי, אולם כשיובנקס הפנתה את התשלום לחברה המבטחת, בקשתה נדחתה על ידי תוכנת מחשב מאחר שהתוכנה חשדה שמדובר בהונאה. כשהיא מצוידת בידע הרב שרכשה במהלך המחקר על ספרה, נדרשו ליובנקס שעות ארוכות של ויכוחים עם חברת הביטוח עד שההחלטה בוטלה – בהתערבות של עובד בדרג גבוה.

"לא כל אחד יכול להתמודד כך כשהוא נופל קורבן להחלטה של מערכות דיגיטליות שקובעות מדיניות", אמרה יובנקס בראיון ל"פייננשל טיימס". ספק אם אפשר לחשוב על מישהו שמסוגל להתמודד טוב יותר עם שרירותיות שכזו מאשר יובנקס, ואפילו היא נדרשה למאמץ מיוחד כדי לבטל את רוע הגזירה במקרה שלה. לרוב המוחלט של האנשים פשוט אין את הידע, המעמד, הכסף והיכולת שיש לה. כל עוד האדם לא ירסן את האלגוריתם, האנשים האלה יישארו קורבנות.



תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר TheMarker

סדר את התגובות

כתבות ראשיות באתר

כתבות שאולי פיספסתם

*#