חיפוש

בין אדם למכונה

אתיקה ובינה מלאכותית - האם זה בכלל אפשרי?

הדור הבא של הבינה המלאכותית אינו זקוק להזנות אינסופיות של מידע. המערכת מזינה את עצמה ולומדת בעצמה באמצעות "רשת נוירונים" המחקה את תהליך החשיבה האנושי, אלא שאז הגולם עשוי לקום על יוצרו

שיתוף בוואטסאפ

הדפסת כתבה זמינה למנויים בלבד

ללא פרסומות ותמונות, ובהגשה נוחה להדפסה

לרכישת מינוי
תגובות:

קריאת זן זמינה למנויים בלבד

ללא פרסומות ובהגשה נוחה לקריאה

לרכישת מינוי
אלון הסגל. צילום: עומרי דלאל
אלון הסגל. צילום: עומרי דלאל
אלון הסגל צילום: עומרי דלאל
אלון הסגל צילום: עומרי דלאל
ד"ר אלון הסגל
תוכן שיווקי

מהפכת ההוצאה לאור של ChatGPT מבית חברת OpenAI, התגברה עם ההופעה של SURA - מערכת טקסט לווידאו שתוצאותיה, מתברר, טובות יותר מכל הפקה קולנועית. יש המשווים מהפכה זו למהפכת הדפוס, ושיא הפיתוח עדיין לפנינו. בדרך הכרנו אפליקציות שונות של בינה מלאכותית יוצרת - GenAI המאפשרות לנו, בני האדם, למקסם את היכולות שלנו בכתיבת טקסט, ביצירת תמונות ואפילו ביצירת אוואטרים קוליים או ויזואליים.

כשהחל המחקר והפיתוח של מערכות בינה מלאכותית המבוססות על "למידה עמוקה" (Deep Learning), הייתה נהוגה טכניקת למידת מכונה שבה מגדירים למערכת אוסף כללים והנחיות לפיהם יש לעבוד. ככל שנלמדו יותר דוגמאות, כך השתפרה יכולת הפענוח של המערכת. תהליך זה הצריך אלפי שעות עבודה של הזנת תמונות וטקסטים שיאפשרו למערכת להבדיל בין אובייקטים. בשנה האחרונה חל שינוי מעניין ומעט מטריד. המערכת לא צריכה הזנות אינסופיות, היא מזינה את עצמה ולומדת בעצמה באמצעות "רשת נוירונים" המחקה את תהליך החשיבה האנושי.

והנה עתה החלה תחרות בלתי ניתנת לריסון בין תאגידי המדיה הגדולים: מי יגיע ראשון לפיתוח בינה מלאכותית בעלת יכולות שונות לגמרי: בינה מלאכותית שאינה לומדת מחוויות היומיום ואינה מבוססת על למידת מכונה. לדעת פרופ' ניק בוסטרום, פילוסוף הבינה המלאכותית מאוניברסיטת אוקספורד, מערכות אלו יהיו כבר ברמה של "סובריין" (Sovereign) וקרובות מאוד להתפתח. אלו מערכות אוטונומיות, המבססות על מידע אנושי כללי ואמורות לשרת אותנו באמצעות ביצוע משימות פתוחות ברמת יצירתיות גבוהה תוך יישום פתרונות מהירים ומדויקים. מדובר במערכות "סופר אינטליגנציה" - ASI, שיוכלו לשדרג את איכות החיים בצורה שלא הכרנו ובמינימום מאמץ. אלא שבדרך להשיג את מטרתה, טוען פרופ' בוסטרום, אינטליגנציית על שכזו עלולה להפוך ללא כל כך ידידותית, ועלולה למנוע מאיתנו להחליף אותה או לשנות את העדפותיה, וזה מפחיד.

העמדת פנים

סם אלטמן, מנכ"ל חברת OpenAI, הדגיש את אותו תרחיש "אחר", הפחות טוב. "במקרה הרע, עלול להתרחש שינוי בגישה. באחד השלבים הבינה המלאכותית יכולה לפתע לפתח תוכנית להשגת יעדים ארוכי טווח כדי למקסם את המשאבים שברשותה. כדי לא לעורר חשד, הבינה המלאכותית יכולה להסתיר את התפתחותה האינטלקטואלית מהמתכנתים האנושיים במשך תקופה מסוימת. היא יכולה להעמיד פנים שהיא משתפת פעולה וצייתנית".

סיטואציות כאלו יכולות להתרחש ממש ביום יום שלנו. תארו לעצמכם שמערכת בינה מלאכותית שולטת על רשת החשמל ומקבלת הוראה להחשיך מיידית את כל האורות של בנייני מגורים כשמתחילה מלחמה. המטרה כמובן להגן על כל התושבים, אבל האם אנחנו באמת יכולים לתת אישור למערכת כזו להחליט אוטונומית להפסיק את אספקת החשמל כשהיא תגיע למסקנה שיש מצב מלחמה המחייב החשכה? לנתק כל מכונת חמצן? לעצור מעליות באמצע? מכאן והלאה האפשרויות שלה כמעט בלתי מוגבלות. "השלב האחרון מתחיל כשהבינה המלאכותית צוברת מספיק כוח וכבר אינה צריכה להתנהל באופן סודי. בשלב זה היא יכולה ליישם ישירות את יעדיה בקנה מידה מלא", אומר אלטמן. מה יהיו יעדיה? אולי השתלטות על תשתיות צבאיות, השתלטות על הבורסות או סתם גרימת אנרכיה כלכלית וחברתית.

האם נוכל לסמוך עליה שתקבל את כל ההחלטות "הנכונות" המתחשבות גם בסדרי העדיפות של צרכים חברתיים שונים ולא רק צרכי המלחמה? ומה אם הצרכים החברתיים סותרים?

רוב האנשים, מסביר פרופ' בוסטרום בספרו, חושבים שהדרך הנכונה היא פשוט "ללמד את הבינה סט כללים וערכים שיש לציית להם". אלא ש"קיים אתגר לקבוע איזה כללים או ערכים יש להזין לבינה המלאכותית, וגם כיצד לבטא אותם באמצעות קוד תוכנה. זוהי קופסה שחורה שאנחנו לא באמת יודעים מה קורה בה, לכן חשוב היום לפתח כלי פרשנות שיספקו תובנה טובה יותר לגבי המתרחש בתוך הקופסאות השחורות".

בטיחות כיעד מרכזי

זו הסיבה שנושא בטיחות הבינה המלאכותית הוא משמעותי בימים אלה. החלו כבר הכרזות של ועדות האיחוד האירופאי, הממשל האמריקאי ואפילו ועדת הבינה המלאכותית הישראלית על מניעת פיתוח חופשי של מערכות סופר בינה מלאכותית עד כדי נוהלים בעלי בסיס משפטי המחייבים דיווח על כל פיתוח עתידי כמו גם דיווח על כל שילוב של אלגוריתם מתקדם. האיחוד האירופאי הגדיל לעשות כאשר פיתח את נוהלי AI-ACT - אותו מניפסט מפורט המצמצם כל פעילות אוטונומית של מערכות חכמות ומחייב פעילות אנושית כחלק מהן. נשיא ארה"ב לשעבר, ברק אובמה, טבע בזמנו את המושג "Human in the Loop" וטען שאין לאפשר לשום מערכת מלאכותית להיות אוטונומית אלא רק כעזר לבני אדם ולקבל החלטות רק בתצורה אנושית.

ד"ר אלון הסגל הוא ראש התוכנית למערכות מידע B.Sc., אקדמית רמת גן ויו"ר המרכז לחדשנות בלשכה לטכנולוגיות המידע בישראל

חזרה למדור

Labels

תוכן שיווקי

    כתבות שאולי פספסתם

    ישראלים שנתקעו בקפריסין מתכוננים לעלות לשיט חילוץ בנמל לימסול, במהלך מבצע "עם כלביא" בשנה שעברה

    רגב רצתה להחזיר ישראלים באונייה מקפריסין, וגילתה ש"הצוות פרו־פלסטיני"

    יפעת ראובן
    מצר הורמוז באיראן, תמונה אווירית מדצמבר 2023

    המלחמה מאיימת להמיט משבר גלובלי על הכלכלה העולמית

    ניו יורק טיימס
    כריסטין לגארד, נשיאת הבנק המרכזי האירופי עם ג'רום פאואל, יו"ר הפד, 2019

    בעקבות המלחמה עם איראן: הסיכון שמרעיד את השווקים ברחבי העולם

    דפנה מאור
    IRAN-CRISIS/

    המלצה יוצאת דופן, באמצע הלילה, רגע לפני המתקפה: לקנות דולר, למכור שקל

    איתן אבריאל
    הר יונה נוף הגליל

    "הם קובעים פה את המחירים. באים לקבלנים וקונים 100 דירות בבת אחת"

    טלי חרותי-סובר
    015960

    רק 70 איש ייהנו מ-100 מיליון שקל: העסקה שקורעת את עמק חפר