היי גוגל, מה זו אתיקה? 4 סוגיות אתיות שכדאי להכיר בנוגע לבינה המלאכותית

מאמר שפירסמה ראש צוות האתיקה בבינה מלאכותית של גוגל הוביל לפיטוריה, אך הסוגיות שעולות מן המאמר - ובהן השפעות חברתיות, סביבתיות, כלכליות ומדעיות - נותרו רלוונטיות מתמיד

שתפו כתבה במיילשתפו כתבה במייל
שתפו כתבה במיילשתפו כתבה במייל
מעבר לטוקבקים
טימניט גברו
טימניט גברוצילום: Cody O'Laughlin/The New York Times
יונתן פפר
יונתן פפר

את המושג בינה מלאכותית רובנו מכירים כאחד מה-Buzzwords השגורות ביותר בעולם הטכנולוגיה והחדשנות. כולנו כבר שמענו כיצד החיים ייראו טובים יותר, קלים יותר, פשוטים יותר באמצעותה. כולנו מכירים לפחות בינה מלאכותית אחת מהסרטים, הסדרות והספרים האהובים עלינו (היי ג'וני 5!). אך מה שרובנו פחות מודעים אליו הן הדילמות האתיות המגיעות תמיד עם הקידמה הטכנולוגית.

עכשיו כדי שלא תחשבו שדילמות אתיות זה משהו הנוגע רק לפרופסורים.ות חמורי סבר באקדמיה, אדייק - במונח דילמות אתיות כוונתי להשפעות החברתיות, הסביבתיות, המדעיות והכלכליות של הטכנולוגיה על מציאות חיינו. אז אם אי פעם תהיתם מה ג'וני 5 או האל 9,000 מתכננים להמשך האנושות, המשיכו לקרוא.

מתוך הסרט "תקלה מופלאה"צילום: יחצ

פיטורים להמונים

לפני כחודשיים גוגל את ראש צוות האתיקה בבינה מלאכותית שלה - ד"ר טימניט גברו. זאת, לכאורה בעקבות מאמר מדעי שטימניט וחוקרות נוספות הגישו לפרסום אודות ההשלכות האתיות של פיתוח בינה מלאכותית המבינה שפה אנושית.

סביב פיטוריה של טימניט, אחת החוקרות המובילות בעולם בתחום חקר האתיקה בבינה מלאכותית, התעוררה סערה גדולה - הן על תזמון פיטוריה והן על האופן שבו פיטורים אלו משקפים את היחס של חברות הטכנולוגיה הגדולות להשפעה של הטכנולוגיה שהן מפתחות על החברה האנושית.

מאז, אגב, של מי שהקימה יחד עם טימניט את הצוות וכתבה יחד עמה את המאמר, לכאורה בתגובה לכך שזו חיפשה באימיילים שלה עדויות לכך שגוגל הפגינה יחס מפלה כנגד טימניט על רקע היותה אישה שחורה.

דילמות אתיות

המקרה של טימניט ושותפותיה הוא הזדמנות להתעכב על ההשפעות החברתיות, הסביבתיות, המדעיות והכלכליות של הטכנולוגיה. הרי כמה מאתנו רגילים לחשוב על טכנולוגיה במונחים של אתיקה?

לפני שנעמיק, מלה אחת - הנושא הכללי, אתיקה וטכנולוגיה, רחב הרבה מעבר להיקף של כל בלוג ופוסט אחד. לכן, אתעכב כאן על הסוגיות האתיות שטימניט והקולגות שלה על ההשלכות של פיתוח בינה מלאכותית המבינה שפה אנושית.

ארבע סוגיות אתיות עיקריות עולות ממחקרן: השפעותיה על החברה, הסביבה, הכלכלה, והמדע.

השפעות חברתיות

בניסיון לאמן מודלים של שפה יש צורך בכמויות אדירות של מידע. בחיפוש אחר כל חלקיק מידע שיאכיל את מפלצת הבינה המלאכותית, חלק ממסדי הנתונים ענקיים כל כך עד שלא ניתן לדעת לגמרי מה המידע שהם מכילים. מכיוון שכך, המידע שעליהם המודלים מתאמנים עלול להכיל גזענות וסקסיזם, וכך נמצא עצמנו עם מודלים הרואים בעמדות גזעניות, להט"בופוביות או מיזוגיניות כמשהו נורמטיבי.

אך גם ללא מידע כזה, המודלים, בגלל כמות המידע האדירה שעליה הם נסמכים, עלולים להתפתח הרחק מהנורמות החברתיות המתגבשות. זאת מכיוון שכשהמודלים עוברים על כמויות כ"כ גדולות של מידע, שינויים תרבותיים הנרקמים כעת (למשל תנועת MeToo) יישטפו בים המידע ולא יירשמו בכלל במודל.

נורמן "המחשב הפסיכופת", תוכנה שנחשפה ביוני 2018 על ידי צוות מחקר ב-MITצילום: צילום מסך מאתר norman-ai.mit.edu

באותה המידה, גם תרבויות בעלות גישה פחותה לאינטרנט יקבלו ייצוג מופחת במודל, וכך הוא ישקף בעיקר את הלך המחשבה והנורמות התרבותיות של התרבויות הגדולות והעשירות יותר. ואם כל זה לא מספיק, הרי שבשל גודל מסדי הנתונים הנדרשים - זה כמעט בלתי אפשרי לתעד את תוכנם כדי להבין כיצד המודל התפתח כפי שהתפתח וכדי לאתר את הבעיות ולתקנן.

לפי פרופ' קובי גל מהמחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן גוריון, הבעיה היא אף יותר חמורה, שכן אלגוריתמים של בינה מלאכותית מבוססים על איתור דפוסים מתוך הנתונים, ומכלילים מתוך אותם הדפוסים כדי לספק תחזיות. לכן, התחזיות האלו משקפות את אותן ההטיות הקיימות במציאות. אם החלטות מתקבלות על סמך תחזיות אלו, הרי שהמודל עוזר לנו לשחזר את אותם הדפוסים הבעייתיים הקיימים כבר כיום בחברה.

"הבעיה עם מסדי הנתונים היא לא שאינם יעילים, אלא שהנתונים הנאספים משקפים הטיות שכבר קיימות בחברה", הוא מדגיש. "לדוגמה, בחברה שלנו שחורים נכלאים יותר מלבנים, ונשים מקבלות שכר נמוך יותר מגברים. כך, האלגוריתם ימליץ לשופט לאשר בקשות של אנשים לבנים לשחרור על תנאי, אבל לא של אנשים שחורים. באותו האופן מנוע חיפוש יציע לנשים משרות בשכר נמוך יותר".

גל מוסיף שחווה באופן אישי את התופעה במסגרת מחקר שביצע: "בניסוי שביצענו בבית ספר בארץ, השתמשנו בבינה מלאכותית כדי להציג לתלמידי כיתה ח' בעיות מתמטיות המותאמות אישית לרמתם. הנתונים שעליהם המערכת התאמנה לפני כן היו של תלמידים בנים ממעמד בינוני-גבוה. מכיוון שכך, הרשת העריכה לא נכון את הרמה של אחת התלמידות הבנות, ונתנה לה בעיה קשה מאוד עבור רמתה. היא היתה כל כך בלחץ שפשוט נשברה והחלה לבכות. הדוגמה הזו השפיעה עליי רבות. האלגוריתם אמנם אמור לדייק ב-85% מהמקרים אז לא מדובר בשגיאה יוצאת דופן, אבל היתה לו השפעה שלילית על בנאדם אמיתי. בסופו של דבר לא מדובר רק בסטטיסטיקה".

משרדי גוגל בציריך, שווייץצילום: Arnd Wiegmann/רויטרס

השפעות סביבתיות

היות שהבינה המלאכותית המדוברת לומדת ומשתפרת בצורה לא יעילה דיה, תוך שימוש בכמויות בלתי נתפשות של מידע, כמות החשמל הנצרכת לתחזוק הכוח החישובי תורמת כמויות משמעותיות ביותר של זיהום סביבתי. כמה משמעותי? ובכן, לפי החישובים המצוטטים בטיוטת המאמר של טימניט ושותפיה, כתלות במודל הבינה, הכמות נעה בין כמות ה-CO2 הנפלט בטיסה הלוך וחזור בין ניו יורק לסן פרנסיסקו, לבין – שימו לב – לכמות שפולטים חמישה רכבים אמריקאיים ממוצעים במשך כל חייהם.

ואלו ההערכות רק לאימון יחיד של המודל, כשמודלים רבים עוברים אימונים חוזרים שוב ושוב. חיים שלמים של חמש לא יספיקו להדוף הרצה אחת של מודל כזה.

השפעות כלכליות

העלות הכלכלית של הרצת המודלים השונים משתנה בהתאם לגודלם (כמות הפרמטרים שלהם). כדוגמה החוקרות מביאות את העלות לאימון יחיד של מודל בן יותר מ-200 מיליון פרמטרים - 3 מיליון דולר!

בריאן קטנזארו, סגן נשיא בחברת אנבידיה, שבעוד כחמש שנים לא בלתי סביר שחברה תשקיע כמיליארד דולארים באימון מודל משלה.

המשמעות היא שמודלים כאלו זמינים בעיקר לארגונים ומדינות עשירות. סטארט-אפים לא יוכלו להשתמש בבינה מלאכותית כדי להתחרות בענקיות הטכנולוגיה. לא רק זאת, אם נחבר זאת להשפעות הסביבתיות הרי שטמונה כאן מלכודת אתית נוספת – בעוד את המחיר הכלכלי הענק חברות הענק ישלמו, הרי שאת המחיר הסביבתי הגלובלי יישאו בעיקר מדינות ואוכלוסיות העניות מכדי להפעיל מודלים כאלו לטובתן והחסרות יכולת להתמודד ביעילות עם שינוי מזג האוויר. במלים אחרות- עשירים יאמנו מודלי בוסר ואוכלוסיות עניות תסבולנה.

מטה גוגל בקליפורניהצילום: Michael Short / בלומברג

השפעות מדעיות

הבעיה הרביעית המתוארת היא בניגוד האינטרסים המובנה בין בעלי היכולת לממן מחקרים בתחום – חברות הענק הטכנולוגיות – לבין בעלי היכולת לקדם את התחום – החוקרים עצמם.

בעוד הראשונות מעוניינות לקדם את הטכנולוגיות שניתן למסחר בקלות הרבה ביותר תוך השאת הרווח הגדול ביותר, השניים מונעים על ידי רצון לרתום את הסקרנות האנושית לטובת הכלל. כך, מושקע מיטב הכסף והאינטלקט האנושי בפיתוח מדע הבינה המלאכותית למען תועלת כלכלית גרידא, על חשבון כל שימוש ותועלת חברתית אחרת.

מעניין לראות כיצד משהו שאולי נראה במבט ראשון כעניין לגאוני מחשב שאינו נוגע בנו, הוא למעשה בעל השלכות כה רחבות וחשובות לחיינו. אגב, שימו לב שעד כה לא הזכרתי את ההשלכה המוכרת ביותר לציבור הרחב – . עם השתפרות המודלים גם יכולת זו משתפרת. כך לדוגמה, נער בקולג' בארה"ב ליצור פוסטים מזויפים לחלוטין עם עצות לניהול זמן שנקראו עשרות אלפי פעמים.

רובוטים עם בינה מלאכותיתצילום: Sarah Holmlund / Shutterstock

מהשלכות אתיות למוסר השכל

לכל טכנולוגיה ישנן השלכות מרחיקות לכת, כאלו ההולכות הרבה מעבר למה שאפילו מפתחיה צפו בתחילת הדרך. מודעות לאותן השלכות היא הצעד הראשון והחשוב בהתמודדות האנושות איתן ובעיצוב הטכנולוגיה והרגולציה החברתית בהתאם.

אך אלו ההשלכות שאינן מדוברות שיש לחשוש מהן. מבחינה זאת, ללמד סטודנטים למדעי המחשב עקרונות של אתיקה ופילוסופיה הן בשורה משמחת. נקודת אור נוספת היא אתם.ן - העובדה שקראתם עד כאן, ואולי אף תחלקו מידע זה ותדברו עליו, היא מעין תעודת ביטוח מפני מדרון טכנולוגי חלקלק וסיבה לעוד קמצוץ אופטימיות עבור האנושות בעידן הבינה המלאכותית.

תודה מיוחדת מהמחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן גוריון על העזרה שהגיש בכתיבת מאמר זה

יונתן פפר

יונתן פפר | יונתן פפר

יונתן מסייע לחברות בינלאומיות וסטארט-אפים בישראל ובארה"ב לפתח ולהטמיע חדשנות ארגונית. בין לקוחותיו נמנים ענקיות ביוטק, פיננסים, היי-טק ומזון בינלאומיות, חדי קרן ידועים, חברות הזנק ועוד. כמו כן, הוא המפתח של מודל 4X4 למנטורינג משולב חדשנות. יונתן משמש מנטור לחדשנות באוניברסיטת הרווארד, חבר board החדשנות של חיל האוויר ומרצה לחדשנות במרכז הבינתחומי הרצליה.

יונתן בעל תואר שני במנהל עסקים מאוניברסיטת קולומביה, תואר שני בפיתוח ארגוני ואנושי, ובעל דוקטורט בתרבות ארגונית תומכת חדשנות.

תגובות

הזינו שם שיוצג באתר
משלוח תגובה מהווה הסכמה לתנאי השימוש של אתר TheMarker