שנת 2024 מהווה שנת שיא בקיום מערכות בחירות ברחבי העולם, כשלמעלה משני מיליארד אזרחים בארה"ב, בריטניה, הודו ובמדינות נוספות הלכו או צפויים ללכת לקלפיות ולבחור את נציגיהם. בעידן המודרני, קיום הבחירות מלווה בחשש מתמיד מהפצת מידע כוזב ומתקיפות סייבר על התשתיות הטכנולוגיות הנחוצות לקיומן, שעלולות להשפיע על אופן ביצוען ועל תוצאותיהן. השנה, איומים אלו חמורים יותר בשל הופעתה של הבינה המלאכותית.
ראשית, בינה מלאכותית עלולה לאפשר לגורמים זדוניים שונים לייצר קטעי וידיאו, תמונות וטקסטים ברמת זיוף גבוהה מסוג דיפ פייק, deepfake. בעוד שהפייק ניוז המוכר לנו מבוסס בעיקרו על לקיחת מידע אמיתי והוצאתו מההקשר, קטעי ה-deepfake מאפשרים להציג כל אירוע מופרך, שמעולם לא התרחש, כאמת לאמיתה. דוגמה להשפעתם המזיקה של קטעי deepfake במערכות בחירות התרחשה בשנת 2023, כשיומיים לפני יום הבחירות בסלובקיה התפרסמה הקלטת אודיו מזויפת בה תועד, כביכול, מנהיג המפלגה הפרוגרסיבית, מיכל שימצ'קה, משוחח עם עיתונאית מקומית כיצד לקנות קולות בבחירות. שימצ'קה הפסיד בסופו של דבר לראש הממשלה לשעבר, רוברט פיצו, כשמומחים מעריכים כי השיחה המפוברקת תרמה לכך.
גניבת פרטיהם האישיים של הבוחרים
מחקרים שונים מהעולם מציגים עד כמה קטעי deepfake עלולים להיות משפיעים ומטעים יותר, ביחס לתכנים הנוצרים על ידי בני אדם: לא רק שבני אדם מתקשים להבחין בין סרטונים מהימנים לסרטוני deepfake, גם לאחר שקיבלו אזהרה מקדימה כי ייחשפו להם, אלא שגולשי X (טוויטר לשעבר) אינם מסוגלים להבחין בין ציוצים שפורסמו על ידי בני אדם לאלו שפורסמו על ידי מודל הבינה המלאכותית GPT-3.
יתרה מזאת, דו"ח שפרסמה מיקרוסופט בחודש ספטמבר האחרון חשף, כי פעילים סיניים השתמשו בבינה מלאכותית ליצירת תוכן חזותי בנושאים פוליטיים שנויים במחלוקת ולהפצתו ברשתות החברתיות, כחלק מקמפיין תעמולה נרחב נגד ארה"ב ומדינות נוספות. על פי החברה, הבינה המלאכותית אפשרה לפעילים ליצור תוכן חזותי איכותי יותר מאשר בעבר, המושך את עיני המשתמשים ומייצר תהודה רחבה ברשתות החברתיות.
שנית, בינה מלאכותית מעניקה להאקרים את היכולת לבצע תקיפות מתקדמות יותר נגד התשתיות הטכנולוגיות הנחוצות לקיומן. בינה מלאכותית, למשל, עלולה לסייע לתוקפים ממדינה מסוימת לבצע מתקפות דיוג (phishing) מתוחכמות יותר נגד עובדים בארגוני בחירות של מדינה אחרת. חלק מרכזי בהצלחת המתקפות הוא יכולתם של התוקפים להשתמש בניסוחים, שיפתו את הקורבנות להוריד קובץ מסוים או ללחוץ על קישור כלשהו, שיאפשרו להתקין נוזקה במחשבי היעד או לגנוב מהם מידע. בעוד שבעבר, אי שליטתם של ההאקרים בשפת האם של הקורבנות הובילה אותם לנסח הודעות דיוג בעלות שגיאות גסות, שחשפו במהרה את התרמית, הבינה המלאכותית מאפשרת כיום לכל תוקף לנסח הודעות דיוג בניסוח מושלם בכל שפה שיבחר ובכך להגדיל את סיכויי ההצלחה של ההונאה.
כמו כן, הבינה המלאכותית מאפשרת לתוקפים לקצר באופן מהותי את הזמן המוקדש לשלבים המקדימים לביצוע המתקפה, כגון איסוף מידע על הקורבנות המיועדים. בהקשר של מערכות בחירות, האקרים עלולים לבצע מתקפות דיוג, למשל לשם גניבת פרטיהם האישיים של הבוחרים, או לחסימת ערוצי התקשורת בין הגופים האחראיים על קיום הבחירות. בנוסף, בינה מלאכותית עלולה לאפשר לתוקפים לנצל טוב יותר חולשות אבטחה בתשתיות טכנולוגיות. במסגרת מחקר שהתפרסם לאחרונה על ידי חוקרים באילינוי, נמצא שהשימוש במודל השפה GPT-4 מאפשר לנצל 87% מחולשות האבטחה מסוג one-day שהוצגו לו, לרבות חולשות שזוהו לאחר תאריך העדכון האחרון של המודל. האקרים עלולים לנצל תכונה זו, למשל, על מנת למצוא ולנצל טוב יותר חולשות אבטחה בשרשראות אספקה טכנולוגיות לארגוני בחירות, כגון חברות המספקות מערכות לאיסוף נתוני הצבעה.
להטמיע ארכיטקטורת רשתמסוג "אפס אמון"
נכון להיום, לא צפויות להתקיים בישראל בחירות בקרוב, אך האיומים הייחודיים שמציבה הבינה המלאכותית על ההליך הדמוקרטי מצריכים את המגזר הציבורי, חברות פרטיות וארגוני חברה אזרחית בישראל להתכונן כבר כעת לאיומים אלו. זאת, לצד העובדה שישראל כבר שימשה בעבר יעד לתקיפות סייבר ומבצעי השפעה ממקורות זרים.
בתחום מבצעי ההשפעה התודעתיים, ניתן לחזק את האוריינות הדיגיטלית של אזרחי ישראל באמצעות מסעות הסברה ייחודיים. בתחילת מלחמת "חרבות ברזל", השיק מערך הסייבר הלאומי את קמפיין ה"שתפת" הידוע, שהסביר בהצלחה לאזרחים את הסכנות הגלומות בשיתוף מידע לא מהימן. על רשויות המדינה להשיק קמפיין הסברה דומה שיתמקד במאפייני קטעי ה-deepfake, לא רק בשל הסכנות הייחודיות הגלומות בו, אלא גם משום שדרכי ההפרכה של קטעים אלו שונה מהדרכים לגלות קטעי פייק ניוז "רגילים". תמונות deepfake, למשל, מתאפיינות לא פעם בהופעת מספר עודף או חסר של אצבעות או גפיים. בד בבד, מומלץ כי וועדת הבחירות המרכזית, מערך הסייבר הלאומי או גוף אחר יגבשו מבעוד מועד תוכנית להפרכה מהירה של קטעי deepfake המתפרסמים ברשתות החברתיות אודות הבחירות. תוכנית כזו מגדירה את בעלי התפקידים האחראיים, את ערוצי הקשר בהם יש להשתמש ואת סוג המידע שיש לפרסם לציבור. תוכנית פעולה טובה היא כזו שניתן להוציא לפעול בפרק זמן של עד 30 דקות.
בתחום אבטחת הסייבר, מומלץ כי מפלגות, מועמדים פוליטיים וגורמים רשמיים האחראיים על קיום הבחירות יישמו פעולות טכניות, שיצמצמו את יכולתם של גורמים עוינים לקבל גישה למידע ומערכות חיוניות. בהקשר הזה, מומלץ כי אותם ארגונים יגנו על מערכותיהם על ידי הטמעת ארכיטקטורת רשת מסוג אפס אמון (zero trust) - רשת אמצעי ביטחון, היוצאת מתוך נקודת הנחה כי אין לסמוך מראש על אף משתמש רשת ועל שום מכשיר המצוי בתוכה. הטמעה זו יכולה לבוא לידי ביטוי למשל ביישום עקרון אימות רב שלבי (MFA) לכל אדם המעוניין להיכנס לרשת ולהשתמש בה. כמו כן, כאמצעי התגוננות מפני מתקפות דיוג, מומלץ כי ארגונים אלו ישתמשו בפרוטוקולים לאימות הודעות דוא"ל, למשל על בסיס הדומיין השייך להן.
הכותב הוא חוקר בסדנת יובל נאמן למדע, טכנולוגיה ובטחון באוניברסיטת תל אביב





