באג הטיפשות והגזענות - מגזין TheMarker - TheMarker
 

אתם מחוברים לאתר דרך IP ארגוני, להתחברות דרך המינוי האישי

טרם ביצעת אימות לכתובת הדוא"ל שלך. לאימות כתובת הדואל שלך  לחצו כאן

תיק מניות

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

לרשימת הקריאה המלאה לחצו כאן
ניו מדיה

באג הטיפשות והגזענות

השגיאות שמבצעות המכונות מבטאות את העולם הערכי של מי שתכנת אותן, או את העולם הערכי של מי שהרכיבים האלה נועדו לקיים עמם קשרים

צילום מסך חשבון ה�

עם כל העוצמה שמיוחסת לה וכל הפחד שמגיע איתה, בינה מלאכותית יודעת לעשות לא מעט טעויות טיפשיות ולהביך את יוצריה.

יש מספיק דוגמאות, רובן משעשעות. חברה בשם Northpointe פיתחה מערכת בינה מלאכותית שמטרתה היתה לחזות אם העבריינים שפרטיהם הוזנו אליה יבצעו פשע שוב. בתוך זמן קצר התברר שהיא לא רק גזענית בצורה יוצאת דופן, אלא היא גם לא מאוד יעילה בהשגת המטרה שאומנה אליה. גם צ'טבוט של מיקרוסופט בשם Tay.ai העלה מופע גזענות משלו. הוא היה אמור ללמוד, באמצעות שיחות במדיה החברתית, לדבר כמו נערה בת עשרה – ומהר מאוד החל להשתמש בביטויים גזעניים. אפשר לשייך לקבוצה הזו גם את הנטייה של פוקימון גו לשלוח את ציידי הפוקימונים בעיקר לשכונות לבנות.

סוג אחר של מוצרי בינה מלאכותית שצובר במהירות פופולריות ולקוחות הוא רמקולים חכמים. אלקסה של אמזון, למשל לא רק מאומנת להבין טקסט מדובר – ועושה עבודה ממש טובה בזה – היא גם יודעת לקבל פקודות ולבצע. כולל אבסורדים. בינואר 2017 גילו בעלים רבים של מכשירי אלקסה שמתגוררים באזור סן דייגו שהמכשיר הזמין עבורם בתי בובות מבלי שביקשו. הפלא הזה קרה אחרי שקריין בתוכנית טלוויזיה אמר, בהקשר מסוים, את המשפט I love the little girl, saying "Alexa ordered me a dollhouse" – וגרם למכשירי אלקסה שהיו בקרבת מכשיר טלוויזיה ששידר את התוכנית לעשות בדיוק מה ששמעו ופירשו כפקודה.

לסיפורים כאלה יש לפחות שתי מסקנות. הראשונה היא שהשגיאות שמבצעות המכונות מבטאות את העולם הערכי של מי שתכנת את רכיבי הבינה המלאכותית שלהן או את העולם הערכי של מי שהרכיבים האלה נועדו לקיים עמם קשרים. במידה לא מבוטלת, לא רק שהרכיבים האלה לא מחמיצים את המציאות – הם מתארים אותה בצורה מדויקת מאוד. במלים אחרות, נדמה לנו שאנחנו ליברלים נאורים שלא מושפעים משום הטיה שמקורה בגזענות, דעה קדומה, פחד אפל או אולי הערצה עיוורת, אבל בפועל אנחנו גרועים כמו אלה שאנחנו מתעבים.

שתי הדוגמאות הבאות מחדדות את המסקנה השנייה. זמן קצר אחרי שאפל השיקה את סירי, כמה משתמשים שמו לב שאם מבקשים ממנה Siri, call me an ambulance, התשובה של סירי היתה Okay, from now on I’ll call you "an" ambulance. אפל תיקנה את הבאג הזה די מהר. הדוגמה השנייה היא ניסוי שבוצע בחודש שעבר באוניברסיטת סטנפורד ובו התחרו מערכות בינה מלאכותית בבני אנוש בהבנה של שאלות מבוססות מידע מכמה מאות ערכי ויקיפדיה. המערכות של עליבאבא ושל מיקרוסופט ניצחו את המשיבים האנושיים. במעט, אבל ניצחו.

מערכות AI יודעות להבין טקסטים ומסוגלות להשיב בצורה שלא מעוררת את החשד המיידי שבצד השני יש מחשב, לא אדם, כלומר מצליחות במה שנקרא "מבחן טיורינג". אבל עדיין חסרות להן לפחות שתי תכונות שיש רק לבני אדם. אחת מהן היא סולם ערכים – הכלי שבעזרתו אנחנו מחליטים מה "בסדר" ומה "לא בסדר". הכלי הזה כל כך חזק שהוא מונע מאיתנו להגיד או לעשות דברים שההיגיון שלהם נראה לא פגום. הצ'טבוט Tay.ai החזיר לחברה את מה שהחברה הזינה לו – גזענות. במובן הזה הוא צודק. אבל זה צדק של ילד. מה שהוא אמר הוא "לא בסדר" ואפילו גרם נזק גדול ל"הורה" שלו, מיקרוסופט. ככה לא מתנהגים.

התכונה השנייה היא מה שאפשר לכנות ההבדל בין הבנת טקסטים להבנת שפה. טקסט זה משהו פשוט כמו נוסחה מתמטית. המבנה המתמטי של אספרנטו מושלם ולכן קל להשתלט עליו. בכל שאר השפות זה מורכב יותר, אבל כנראה שלא מעבר ליכולתן של רשתות נוירונים ומעבדים מהירים. אבל שפה – ניואנסים, הקשרים, עוצמות, השפעות הדדיות בין מלים – זה משהו אחר. כשמכונה רואה מילים היא רואה מספרים ונוסחאות – טקסט. אבל כשבן אדם רואה מלים הוא רואה תמונה שיכולה להיות יפה, מכוערת, מעוררת השראה, מדכאת או משמחת. מחשב שיודע לשלוט במלים יודע להעביר את המידע. אדם שיודע לשלוט במלים יודע להעביר את הרגש.



תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר TheMarker

סדר את התגובות

כתבות ראשיות באתר

כתבות שאולי פיספסתם

*#