מאגר המידע המסוכן בתולדות האנושות - מגזין TheMarker - TheMarker
תיק מניות

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

לרשימת הקריאה המלאה לחצו כאן
בינה מלאכותית

מאגר המידע המסוכן בתולדות האנושות

אפשר להניח שראשי פייסבוק לא תיארו לעצמם לאן אינטליגנציה מלאכותית יכולה להתפתח. עכשיו כשהתמונה מתבהרת, ומתחדד הסיכון בהיקף העצום והזמין של תמונות פנים - פייסבוק נראית עוד יותר כמאגר המידע המסוכן ביותר אי פעם, שיהיה עוד יותר מסוכן

תגובות

מרצדס, אורבן אאוטפיטרס, בוסטון רד סוקס, יוניליבר, קרן סקויה – אם אתם רוצים לעבוד בהן, תצטרכו לעבור ראיון. תישאלו 11 שאלות, כמו "כיצד תתארו את תפקידכם בצוות האחרון שבו עבדתם" והוא יימשך כ־25 דקות. עד כאן, שגרתי. אבל יש גם טוויסט מפתיע ואולי מפחיד – בצד השני לא יהיה בן אנוש אלא תוכנה.

כל החברות האלה הן לקוחות של HireVue, שפיתחה טכנולוגיית AI שמסייעת ללקוחותיה לקבוע אם המועמדים שלפניה מתאימים לאב טיפוס האידיאלי שהם מחפשים. וכל זאת על ידי ראיון בווידיאו ניתוח שפת גוף, קול, מילות מפתח ועוד. הלקוחות משתמשים בטכנולוגיה כדי לחסוך בזמן וגם כדי להימנע מהטיות אפשריות של המראיינים.

בניגוד ליישומים אחרים של AI, היישום הזה ממוקד בגיוס אנשים, ולא בחיסול מקומות עבודה. ייתכן שיהיו כמה מראיינים שיאבדו את משרתם, אבל הטכנולוגיה של HireVue תעבוד כל עוד משרות ימולאו על ידי בני אדם.

הבדל נוסף הוא בכך שבעוד שטכנולוגיות AI משמשות בעיקר לביצוע משימות חישוביות, היישום הזה ממוקד בזיהוי תכונות אופי אנושיות ובסינון על פי התוצאות. האלגוריתמים של מובילאיי יודעים לנווט מכוניות, אלה של גוגל Photos יודעים לזהות פנים וסירי של אפל יודעת לזהות דיבור ושפה. אבל אלה של HireVue יקבעו אם יש לכם את המאפיינים האישיותיים המתאימים לתפקיד שאתם רוצים.

נכון לעכשיו, הטכנולוגיה של HireVue מאומצת על ידי חברות ענק, מועמדים לא מוחים באלפיהם והרגולטורים לא מתערבים. אבל אפשר לעבור את הגבול הטכנולוגי הזה מהר, לאזור שבו עולות שאלות אתיות עמוקות. כמו למשל במקרה של ד"ר מיכאל קוסינסקי מאוניברסיטת סטנפורד. בחודש שעבר הוא פרסם גרסה ראשונית של מחקר שביצע עם החוקר ילון וואנג. החוקרים טענו שניתוח פנים על ידי אלגוריתמים יכול לגלות נטייה מינית, שכן ביכולתם לזהות מידע רב יותר מזה שהמוח האנושי מסוגל.

המבחן שעמד למחקר היה זיהוי נטייה מינית של אנשים המופיעים בתצלומים שונים. כשהוצג לבני אדם ולמחשב תצלום אחד בלבד, שיעור הדיוק האנושי בזיהוי הומואים היה 61% ו־54% בזיהוי לסביות. שיעור הדיוק של האלגוריתמים של קוסינסקי ווואנג היה 81% ו־74% בהתאמה. כאשר הוצגו חמישה תצלומים קפץ שיעור הדיוק ל־91% ו־83%, בהתאמה. מה שסייע לאלגוריתמים ליצור את האבחנה אצל גברים היו בעיקר אף, עיניים, גבות, לחיים, קו השיער והסנטר; מה שסייע להם ליצור את האבחנה אצל נשים היו בעיקר אף, זוויות הפה, שיער וקו הצוואר.

זיהוי נטייה מינית עשוי להיות רק ההתחלה: קוסינסקי התראיין ל"גרדיאן" הבריטי והזהיר שאלגוריתמים שמנתחים פנים יוכלו לדעת גם מה ההעדפות הפוליטיות, מה מנת המשכל של המצולמים – ואם יש להם נטיות עברייניות. כצפוי, הפרסום עורר ביקורת, לא רק מצד ארגוני להט"ב אלא גם מכיוונם של חוקרי AI, והעיתון שבו התפרסמה הגרסה הראשונית של המחקר מתכוון לבחון מחדש את הפרסום.

גם אם אין בעיה מדעית עם הטכנולוגיות האלה וגם אם, איכשהו, הן יהיו מוגבלות ומפוקחות, השימוש בהן מסוכן כי הוא מאפשר גישה למידע שעשוי לקבוע גורלות תוך התעלמות מכללי מוסר ואף חוקים מקובלים, לפחות במערב. מעבר לכך, טכנולוגיות מהסוג שיכול למשל לזהות נטיות עברייניות, מתעלמות לחלוטין מהבחירות שבני אדם עושים חרף נטיותיהם, ומיכולתם לשנות את בחירתם. גם אם ניתן לזהות נטיות עברייניות מתמונות פנים, אי אפשר להתעלם מכך שבני אדם רבים מדחיקים תכונות שליליות כדי לא לפגוע באחרים או בעצמם וכדי להשתלב בחברה. הבחירה האולטימטיבית נעשית בכל פעם מחדש – ואת זה אלגוריתמים לא יכולים לנבא, פשוט כי בני אדם הם יצורים שאינם בהכרח עקביים. אלגוריתמים מקדשים ומניחים רציונליות קשיחה – ואילו בני אדם הם יצורים מלאי סתירות.

אפשר להניח שראשי פייסבוק לא תיארו לעצמם לאן אינטליגנציה מלאכותית יכולה להתפתח. עכשיו כשהתמונה מתבהרת, ומתחדד הסיכון בהיקף העצום והזמין של תמונות פנים – פייסבוק נראית עוד יותר כמאגר המידע המסוכן ביותר אי פעם, שיהיה עוד יותר מסוכן. זאת כיוון שהתמונות שלנו מגלות דברים שאפילו אנחנו לא יודעים על עצמנו.

בפייסבוק יש גם הרבה יותר מידע עלינו: קשרים חברתיים, מקומות בילוי מועדפים, עץ משפחתי, היסטוריה תעסוקתית, יעדים לבילוי חופשות ועוד – והכל מתעדכן בקצב גבוה, הודות לרצון שלנו לזכות בפרסום. וכל אלה מתחננים לניתוחי AI. לכן, ייתכן שמה שהחוקרים גילו הוא מרחיק לכת הרבה יותר מהיכולת לזהות העדפות מיניות באמצעות תמונות. הוא מגלה עד כמה אנחנו לא זהירים ומה הכוח של מי שמחזיקים במידע שלנו.



תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר הארץ

סדר את התגובות

כתבות ראשיות באתר

כתבות שאולי פיספסתם