איך באמת מייצרים חדשות מזויפות

העיתונות הכתובה נמצאת תחת מתקפה, עקב טענות לפברוק ידיעות והפצת "פייק ניוז" ■ אבל כיום גם סרטוני וידאו, הנחשבים אמינים יותר, עלולים לאבד את אמינותם — מפני שבעזרת הבינה המלאכותית, קל יותר לזייף אותם מבעבר

לוגו אקונומיסט
אקונומיסט
שתפו כתבה במיילשתפו כתבה במייל
מעבר לטוקבקים
באז אולדרין צועד על הירח. ניתוח קרני האור העלה שהתמונה אמיתית
באז אולדרין צועד על הירח. ניתוח קרני האור העלה שהתמונה אמיתיתצילום: אי־פי

המוזיקאית הצרפתייה פרנסואז ארדי הופיעה השנה בסרטון ביוטיוב. בסרטון היא נשאלה על ידי מראיין, שלא נראה על המסך, מדוע נשיא ארה"ב דונלד טראמפ שלח את דובר הבית הלבן שון ספייסר לשקר בנוגע למספר האנשים שנכחו בטקס ההשבעה של הנשיא. ארדי ענתה כי ספייסר סיפק "עובדות אלטרנטיביות" בנושא. הסרטון נראה קצת מוזר, בהתחשב בכך שארדי בת ה–73 נראית בו בת 20, והקול שיוצא מפיה הוא קולה של קליאן קונוויי, יועצת של הנשיא טראמפ.

הסרטון הוא עבודה של אמן גרמני בשם מריו קלינגמן. הפסקול לקוח מראיון של קונוויי ב–NBC. הווידאו מפוקסל ולא ברור, אפשר היה לשפר אותו, אולם קלינגמן לא התעסק עם תוכנות עריכה ליצירת הווידאו. במקום זה, הוא יצר אותו בתוך כמה ימים על המחשב האישי שלו בעזרת סוג של אלגוריתם למידת מכונה, הנקרא GAN (generative adversarial network). כלומר, המחשב יצר את הווידאו באופן אוטומטי, לאחר שבמשך כמה ימים הוזנו לתוכו סרטוני וידאו של ארדי. במלים אחרות, זו הקלטה של משהו שלא התרחש מעולם.

הניסוי של קלינגמן מבשר על שדה הקרב החדש של החדשות השקריות והחדשות האמיתיות. האמון במידע הכתוב נמצא תחת מתקפה, באופן חלקי בגלל התפשטות ה"פייק ניוז", חדשות מזויפות. אבל תיעוד ויזואלי וקולי עדיין נתפש על ידי רבים כאמין. מכונות למידה כמו GAN הן חלק מגל טכנולוגי שמאיים על האמינות הזאת.

קל יותר לזייף סאונד. בדרך כלל, מחשבים מייצרים דיבור באמצעות חיבור חלקי משפטים מוקלטים למשפט שלם. כך למשל פועלת סירי, העוזרת הדיגיטלית של אפל. ואולם קולות דיגיטליים כמו אלה מוגבלים, בגלל מאגר חלקי המשפטים הנמצא במאגר הנתונים שלהם. הם נשמעים מציאותיים רק כשהם מבטאים משפטים מסוימים שנקבעו מראש.

GAN עובדת בצורה אחרת ומשתמשת ברשתות עצביות וירטואליות כדי ללמוד את המאפיינים הסטטיסטיים של מקור האודיו הנבחן. כך ניתן לשכפל את המאפיינים האלה ישירות לכל תוכן. התוכנה בוחנת כיצד מודלים של דיבור משתנים לא רק בכל שנייה, אלא במאיות שנייה. כדי להכניס מלים לפיו של טראמפ, למשל, צריך להזין הקלטות שלו לתוך אלגוריתם, ואז לומר לתוכנה מה רוצים שטראמפ יגיד.

תוכנה, ציירי לי ציפור

הניסוי של מריו קלינגמן. בישול סאונד ווידיאוצילום: מתוך ערוץ היוטיוב

המחשב DeepMind של אלפבית (גוגל) בבריטניה, המכון ללמידה עמוקה של באידו הסינית בעמק הסיליקון והמכון ללמידה אלגוריתמית במונטריאול (MILA) פירסמו אלגוריתמים ריאליסטיים שהופכים טקסט לדיבור על פי עקרונות אלה במהלך השנה האחרונה. נכון לעכשיו, אלגוריתמים אלה מצריכים כוח מחשוב רב, שזמין רק לחברות טכנולוגיה גדולות, אך זה עתיד להשתנות.

ייצור אלמנטים ויזואליים הוא עניין מסובך יותר. אלגוריתמים מסוג GAN הוצגו ב–2014 על ידי איאן גודפלו, שהיה אז סטודנט ב–MILA של יושואה בנג'ו, אחד מאבות הטכנולוגיה של הלמידה העמוקה. גודפלו הבחין כי אף שהלמידה העמוקה מאפשרת למכונות להבדיל בין סוגים שונים של מידע, למשל בין תמונה של חתול לתמונה של כלב, תוכנות שמנסות לייצר תמונות של כלבים או חתולים אינן מוצלחות באותה מידה.

גודפלו פנה לרעיון מוכר: תחרות. במקום לבקש מהתוכנה לייצר משהו שימושי מכלום, הוא נתן לה תוכנה נוספת — יריבה — כדי שתתחרה בה. התוכנה היריבה הסתכלה בתמונות ושפטה אם הן נראות אמיתיות, כלומר דומות לאלה שנמצאות במאגר הנתונים שלה. באמצעות אימון תוכנת הלמידה להט­עות את התוכנה היריבה, יכלה התוכנה ללמוד לייצר תמונות מזויפות באיכות שנראית אמיתית. התוכנה המתחרה, שיודעת כיצד נראה העולם האמיתי, מספקת משמעות וגבולות לתוכנת הלמידה.

כיום, GAN יכולה לייצר תמונות קטנות של ציפורים על פי פקודה של שורה אחת. למשל, אם אומרים לתוכנה לצייר ציפור בעלת ראש וכנפיים שחורות ומקור ארוך בצבע כתום, התוכנה תוכל לצייר זאת. התהליך עדיין אינו מושלם, אך במבט ראשון התמונה נראית אמיתית.

אף שתמונות קטנות של ציפורים אינן הולכות לשנות את פני החברה, התחום מתקדם במהירות. בחמש השנים האחרונות, טעויות בסיווג תמונות הצטמצמו מ–25% לכמה אחוזים בודדים. תחום ייצור התמונות צפוי להתפתח בקצב דומה. מייק טייקה, אמן מכונות למידה בגוגל, כבר הצליח להפיק תמונות של פרצופים דמיוניים ברזולוציה של 768 פיקסל, פי שניים מכל הישג קודם בתחום.

גודפלו עובד כיום ב–Google Brain, חברת מחקר בתחום הבינה המלאכותית של אלפבית. לדעתו, בתוך שלוש שנים יהיה אפשר לייצר סרטוני וידאו סינתטיים ביוטיוב. אחרים חושבים שזה ייקח יותר זמן, אבל כולם מסכימים שזו רק שאלה של זמן. "אנחנו חושבים שבינה מלאכותית הולכת לשנות את העדויות שעליהן אנו סומכים", אומר גודפלו.

הדרכים להילחם בתיעוד מזויף

ואולם אף שהטכנולוגיה מקדמת צורות חדשות של מלאכותיות, היא גם מציעה דרכים להילחם בכך. אחת הדרכים להילחם בתיעוד מזויף היא לדרוש שהוא יגיע עם מטא־דאטה — כלומר, הנתונים שמציגים מתי והיכן הוקלט או צולם הקובץ. ידיעה של נתונים אלה יכולה למנוע זיוף של תמונות, על רקע אי־התאמתן לתנאים במקום האירוע המתועד.

דוגמה משוכללת מגיעה מעבודה של NVIDIA, יצרנית שבבים שמכשיריה נמצאים בשימוש נרחב בתחום הבינה המלאכותית. החברה ניתחה ב–2014 תמונות מנחיתת אפולו 11 על הירח, ובאמצעות הדמיית הדרך שבה קרני השמש השתקפו בתמונות, היא הוכיחה כי הדרך המוזרה שבה הוארה חליפת החלל של באז אולדרין — בתמונה שבה אנשים השתמשו בעבר כראיה לטענה שהנחיתה על הירח זויפה — היא למעשה השתקפות של קרני השמש על הירח, ולא תאורה של אולפן הוליוודי.

אמנסטי אינטרנשיונל כבר מתמודדת עם חלק מהנושאים הללו. מעבדת הראיות שלה מאמתת סרטוני וידאו ותמונות של הפרות זכויות אדם לכאורה.

בארגון משתמשים בגוגל ארת' לבחינת הנוף, ומנסים לבדוק אם סרטון או תצלום אכן צולמו במקום ובזמן שהצלם טוען. באמנסטי משתמשים במנוע החיפוש וולפרם אלפא כדי להצליב נתוני מזג אוויר עם אלה הנראים בתמונות ובסרטונים. הארגון מוצא בעיקר סרטוני וידאו ישנים שמנסים להתחזות למעשי זוועה חדשים, אך אנשיו צריכים להיזהר גם מסרטונים מזויפים.

גם קריפטולוגיה — שמירת מידע בצורה מוצפנת — יכולה לסייע באימות תוכן שמגיע מארגון מוכר. למשל, מדיה יכולה להיות מוצפנת בחתימה ייחודית, כשרק לארגון התקשורת יש את מפתח ההצפנה.

חלק מהחוקרים הבינו מאז ומתמיד את הבעייתיות של השימוש במדיה מוקלטת כראיה. "למרות ההנחה שתמונות הן אמינות, העבודה של הצלם תמיד נעה בתחום האפור שבין אמנות לאמת", כתבה הסופרת, הבימאית והפילוסופית סוזן סונטג ב"על הצילום". מדיה מיוצרת הולכת צעד אחד קדימה: היא עוקפת את המעמסה של כיוון המצלמה והמיקרופון לאובייקט, שחייבת להיעשות בעולם האמיתי.

תגיות:

תגובות

הזינו שם שיוצג באתר
משלוח תגובה מהווה הסכמה לתנאי השימוש של אתר TheMarker