הבינה המלאכותית היא ברכה גדולה, אבל גם סיבה לדאגה. בעולם הסייבר, היא יכולה לשים אותנו תחת מתקפות מתוחכמות, זמינות ופשוטות מאי פעם לביצוע, שאפילו לא נדע שהן קורות.
האזינו לפודקאסט:החדשנים
החדשנים 5 | פרק 4: כשסייבר פוגש AI
החדשנים 5 | פרק 4: כשסייבר פוגש AI
"ה-AI מעצים סיכונים קיימים ומוסיף עליהם חדשים", אומר ד"ר רוני אוחיון, מנכ"ל ומייסד הסטארט-אפ DeepKeep. "אם פעם, כדי לתקוף ארגון, היית צריך באופן ידני להשתיל נוזקות, היום יש בוטים שניתן להפעיל 24/7 מכל מקום עלי אדמות והם לא מתעייפים. אבל הסכנה היותר מהותית היא תקיפות והטעיות מסוג אחר לגמרי שעולם הסייבר הקלאסי לא היה רגיל אליהן, וממש ברמת בסיס הנתונים. כלומר, שהמידע שעליו ה-AI אפילו מתאמנת יהיה שגוי באופן זדוני".
ד"ר רן דובין, מהמחלקה להנדסת מחשבים ותוכנה באוניברסיטת אריאל, מוסיף עוד אלמנט חשוב: תקיפה דרך שרשרת האספקה. בעיקר תוכנות צד ג' שהארגון לא בהכרח מודע לקיומן, ושחלקן כבר לא נתמכות. "האתגר של מערכות הלמידה הוא לא רק באינפוט שהן מקבלות, אלא שהן עצמן הפכו להיות כלי נשק. במחקר שלנו אנחנו מראים שכבר בתוכן יש פגיעויות, נקודות תורפה, שברגע שמישהו טוען אותן לזיכרון, למעשה הפגיעות כבר משתחררת, וההתקפה חודרת את כל הארגון. כחלק מהמחקר פיתחנו מספר שכבות של הגנה, וברגע שהמערכת רואה את המודל, עוד בלי לפתוח אותו, היא יודעת להבחין אם יש בו איום. הטכנולוגיה הזאת יודעת לנקות את המודל, להוציא ממנו עוקצים שהוסוו ולשמור אותו בחזרה כמודל תקין".
נושא נוסף שביקשנו לחדד עם שני המומחים – נושא שבו עוסקת הסדרה שלנו כולה – הוא הקשר שבין אקדמיה לתעשייה, בין מו"פ לפרקטיקה. בתעשיית ה-AISEC, אבטחת מידע בעידן ה-AI, שמתעדכנת בקצב שיא – להפריה הדדית הזאת יש משמעות מיוחדת.
הירשמו לסדרת החדשנים באפליקציות הפודקאסטים:
Spotify >>
Apple Podcasts >>
בשיתוף אוניברסיטת אריאל




