חיפוש

SHADOW AI - הצל הסמוי של הענן

שימוש לא מבוקר בכלי בינה מלאכותית על ידי עובדים, חושף ארגונים לדליפת מידע רגיש, סיכונים רגולטוריים ויכולת השפעה זדונית על קבלת החלטות. מה צריך לעשות ובעיקר מה לא לעשות? רמז: לא לאסור, אלא לנהל

שיתוף בוואטסאפ

הדפסת כתבה זמינה למנויים בלבד

ללא פרסומות ותמונות, ובהגשה נוחה להדפסה

לרכישת מינוי
תגובות:

קריאת זן זמינה למנויים בלבד

ללא פרסומות ובהגשה נוחה לקריאה

לרכישת מינוי
Shutterstock
Shutterstock
Shutterstock
Shutterstock
שי נחום
תוכן שיווקי

החדירה של בינה מלאכותית גנרטיבית לכל שכבת עבודה ארגונית יצרה תופעה חדשה - Shadow AI. עובדים ומנהלים עושים שימוש בכלי AI בענן באופן עצמאי, ללא בקרה או פיקוח של מחלקות ה-IT והאבטחה. כתוצאה מכך מידע עסקי קריטי מוזן לשירותי צד שלישי, לעיתים בלי שהארגון מודע לכך ובלי כל מנגנון של הגנה או אחריות.

שי נחום | צילום: דנה תופר
שי נחום | צילום: דנה תופר
שי נחום | צילום: דנה תופר
שי נחום | צילום: דנה תופר

Shadow AI הוא השימוש בכלי בינה מלאכותית גנרטיבית שיושבים בענן, כמו DeepSeek, (Alibaba Cloud ,ChatGPT ,CoPilot (Microsoft Bard ,Gemini Cloud ועוד רבים אחרים, וזאת מצד עובדים או מנהלים ללא אישור, פיקוח או ידע של הארגון. התופעה גורמת לכך שמידע עסקי רגיש מוזן לשירותי צד שלישי ללא שליטה, ציות וחסינות.

האירועים האחרונים שהתרחשו, כמו המקרה שבו נחשפה פרצת אבטחה שאפשרה גישה לחשבונות משתמשים ב-ChatGPT ללא צורך בהזדהות, או 100,000 חשבונות שנפרצו, המחישו את גודל הבעיה. כלי AI בענן אינם חסינים וכאשר ארגון משתף דרכם קבצים, קוד או נתוני לקוחות, הוא מוותר בפועל על שליטה. דו"ח של IBM מעלה ש‑20% מהארגונים חוו פריצות כתוצאה מ‑Shadow AI והפריצות הללו יקרות בממוצע בכ‑670,000 דולר יותר מהרגיל. הכלי DeepSeek למשל זכה לפופולריות מהירה, אך התגלו בו פרצות אבטחה: מסד נתונים פתוח בפומבי (בהיקף של מיליון רשומות) שכלל שיחות, מפתחות API ונתונים פנימיים. בנוסף, מדינות כמו קוריאה והאיחוד האירופי החלו להגביל אותו בגלל העברה לא חוקית של מידע אישי לגורמים במדינות זרות.

כל אלו מעלים שאלה פשוטה, אך מטרידה מאוד: מה קורה אם מחר המידע הזה נחשף לגורם שאינו מורשה?
נתונים מצביעים על גידול משמעותי בשימוש בכלים אלה: בין מרץ 2023 למרץ 2024, כמויות הנתונים הארגוניים שהוזנו לכלי AI עלו ב-485% והחלק של נתונים רגישים עלה מ-10.7% ל-27.4%. ניתן לראות עלייה בשימוש בלתי מבוקר בכלי AI מתוך רצון להגביר יעילות, אבל ללא מודעות לסיכונים הקיימים. יתרה מכך, כל ארגון משתמש בעשרות כלי AI שונים כאשר רובם אינם מקבלים אישור רשמי של הארגון.

הסיכונים המרכזיים
החדירה של Shadow AI לתוך הארגון אינה רק תופעה טכנולוגית, היא סיפור על כיצד חדשנות יכולה להפוך בקלות למלכודת.

ראשית, ישנה סוגיית דליפת המידע הרגיש. כאשר עובד מזין טקסט, מסמך או קובץ לתוך כלי AI בענן, הוא לרוב אינו מודע לכך שהמידע הזה עשוי להישמר במערכות צד שלישי. במקרים מסוימים, אותו מידע עלול לשמש בעתיד לאימון המודל עצמו או להיחשף בפריצה חיצונית. כך, מידע עסקי פנימי, כמו חוזים עם לקוחות או קוד מקור רגיש, מוצא את דרכו למקומות שאין לארגון שליטה עליהם.

מכאן עולה היבט נוסף - חשיפה לרגולציה. ברגע שהמידע יוצא מגבולות השליטה של הארגון, מתעוררת בעיה משפטית. כללי GDPR באירופה, NIS2, וגם תקנות הפרטיות בישראל, אינם מסתפקים בהמלצות והם מטילים אחריות ישירה על הארגון. שימוש לא מבוקר ב-Shadow AI עלול להביא לקנסות כבדים, פגיעה במוניטין ואפילו סנקציות מצד רשויות רגולטוריות.

הסיכון השלישי נוגע ליכולת שלנו להבין מה באמת התרחש לאור חוסר השקיפות והבקרה. בניגוד לכלים ארגוניים רשמיים, פתרונות Shadow AI פועלים מחוץ לתשתית הפנימית. אין לוגים, אין רישום מסודר של פעולות, ולעיתים גם אין חיבור ל-SIEM. המשמעות היא שכאשר מתרחש אירוע - פריצה, דליפה או שימוש לרעה - לצוותי ה-IT והאבטחה פשוט אין כלים אמיתיים לחקור או לדעת מי הזין מה ומתי.

לבסוף, קיים סיכון חדשני ומדאיג במיוחד והוא ההשפעה על קבלת החלטות וההתנהגות האנושית. אם תוקף מצליח להשתלט על מודל AI בענן, הוא יכול "להרעיל את המודל" ולשנות את התשובות והפלטים. תארו לכם מנהל שמקבל החלטה אסטרטגית על סמך תשובה מוטה, או מפתח תוכנה שמשלב קוד פגום שהוזן אליו במכוון. זהו לא רק אובדן מידע, אלא שינוי ישיר באופן שבו עובדים חושבים, מתנהגים ומבצעים את עבודתם.

הגישה שלנו ב-CYGHT היא מאפשרת - לא למנוע או לאסור על שימוש בAI-, אלא לאפשר לעסק לרוץ, ובמקביל אבטחת המידע רצה איתו יד ביד, בהטמעה של שכבות בקרה שימנעו ויצמצמו את הסיכון לארגון.

שינוי תפיסתי

כיצד ניתן לתת מענה לסיכונים אלה?
הצעד הראשון הוא בניית מדיניות שימוש ברורה. ארגון שלא קובע מראש אילו כלים מאושרים, איזה מידע מותר להזין ואיזה אסור לחלוטין, למעשה משאיר את עובדיו להתנהל ללא מצפן. המדיניות הזו חייבת להיות חלק בלתי נפרד ממדיניות האבטחה הארגונית, ולא להישאר כמסמך צדדי או תוספת זמנית.

כדי שמדיניות כזו תעבוד, הארגון חייב להשיג נראות ושליטה. מערכות ניטור מתקדמות מסוגלות לזהות גם חיבורים מוצפנים אל שירותי AI בענן, ולדווח ל-CISO על כל פעילות חריגה. בלי יכולת זו, Shadow AI נשאר מתחת לרדאר והארגון מגלה את הבעיה רק בדיעבד, כשכבר מאוחר מדי.

במקביל, יש מקום להציע לעובדים חלופה בטוחה. הקמה של פלטפורמת AI פנימית, או אינטגרציה עם ספק אמין ומאושר, מאפשרת לארגון לשמור על שליטה מלאה: הצפנה, שמירת לוגים, אחריות על הדאטה ובעלות מלאה על הידע הארגוני. כך העובדים זוכים בחוויית שימוש מתקדמת, אבל המידע נשאר בפנים. כמו בכל תחום אבטחה מודרני, גם כאן חייבים ליישם את עקרון ה-Zero Trust. כל בקשה לשימוש ב-AI צריכה לעבור אימות, ההרשאות צריכות להיות מינימליות, וכל פלט חייב להיות מתועד ונגיש לביקורת. זהו שינוי תפיסתי: גם מול כלי חדשני כמו מודל שפה, האמון אינו ניתן מראש.

להכין תוכנית תגובה
אבל טכנולוגיה לבדה לא מספיקה. מערכות DLP מותאמות ל-AI נדרשות כדי לעצור בזמן אמת דליפה של תוכן רגיש. דמיינו עובד שמנסה להעתיק קובץ לקוח או קוד מקור לחלון של ChatGPT - מערכת חכמה צריכה להתריע או לחסום אותו לפני שהמידע יוצא החוצה. לצד זאת, יש צורך בהשקעה משמעותית בתרבות ארגונית והדרכה. העובדים חייבים להבין שהקלדת מידע עסקי בשירות AI חיצוני אינה פעולה תמימה, אלא סיכון ממשי. הדרכות, סימולציות והדגמות מעשיות הן הדרך להפוך את ההבנה הזו לחלק מהשגרה היום-יומית.

ולבסוף, כל ארגון חייב להכין תוכנית תגובה לאירועי Shadow AI. כאשר מתרחש אירוע, יש לדעת כיצד לזהות את מקור ההזנה, לאסוף ראיות, לשחזר את היקף החשיפה ולשמור על שרשרת אחריות מלאה. זה לא רק צורך מבצעי אלא גם דרישה רגולטורית ומשפטית.

כך נבנית הגישה הנכונה: שילוב בין מדיניות, טכנולוגיה, תרבות ותהליכים. לא חסימה טוטאלית שתעצור את הביזנס, אלא מסגרת מאובטחת שמאפשרת חדשנות ובו בזמן מגינה על המידע ועל הארגון.

העולם הארגוני לא יכול להרשות לעצמו לעצור את הבינה המלאכותית. היא כאן כדי להישאר והיא מניעה חדשנות, מייעלת תהליכים ופותחת הזדמנויות עסקיות חדשות. הגישה הנכונה איננה להטיל איסורים גורפים, אלא לאפשר שימוש ב-AI בצורה חכמה ומבוקרת.

הסיכון החדש: השפעה ישירה על עובדים
הדיון סביב Shadow AI אינו מסתכם רק באובדן מידע. ישנו סיכון מתהווה נוסף: יכולת ההשפעה על עובדים דרך שליטה במודלי AI. כאשר עובדים מתייעצים עם מודלים ברמה יום-יומית, לעיתים עד לרמת מחשבותיהם המקצועיות, התשובה שהם מקבלים עשויה לעצב את הפעולה הבאה שלהם. זהו מימד חדש של מתקפות - לא רק גניבה, אלא עיצוב התודעה הארגונית דרך הכלי שבו משתמשים העובדים מידי יום. גם כאן אני מאמין שהמפתח הוא לא לאסור אלא לנהל. להעניק לעובדים כלים מאושרים ובטוחים, לנטר שימוש לא מורשה, ולבנות אסטרטגיית Zero Trust והגנה בשכבות גם בעולם ה-AI.

הכותב הוא מנכ"ל חברת הסייבר Cyght ומומחה ללוחמת סייבר. זוכה פרס ביטחון ישראל

חזרה למדור

Labels

תוכן שיווקי

    כתבות שאולי פספסתם

    אסי טוכמאייר (מימין) וברק רוזן, בעלי השליטה בישראל קנדה. התנהלותה העסקית של החברה מתאפיינת באגרסיביות יוצאת דופן

    10 מיליארד שקל: מפלצת הנדל"ן החדשה - והתוכניות שלה

    הדר חורש
    צחי ארבוב וברק רוזן

    הטיסה לפריז, הפגישה בהרצליה פיתוח — והאיש שיקבל 800 מיליון שקל

    מיכאל רוכוורגר
    אליצור נתניה הפועל ת"א

    בלעדיבלעדי

    עופר ינאי יקבל מיליארד שקל לרכישת שתי חברות; ואיך קפץ שווי נופר ל-6.6 מיליארד?

    מיכאל רוכוורגר
    חייל צה"ל בדרום לבנון ב-2024

    יחידת עילית בצה"ל סידרה לחברה הקטנה כרטיס כניסה. האם היא בדרך לתפנית?

    יוסף חרש
    Hyptec HT של יצרנית הרכב הסינית GAC

    המכוניות שתוכלו לקנות בהנחות עצומות ואלה שמחירן לא זז למרות הדולר שקרס

    דניאל שמיל
    משרד סופטליין רוסיה

    מלכודת ה-32 אלף שקל בחודש: מובטלי ההייטק מתקשים להחליף מקצוע