תיק מניות

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

לרשימת הקריאה המלאה לחצו כאן

האם המחשב מתרגש כשאנה קרנינה משליכה את עצמה מתחת לגלגלי הרכבת

לכתבה

אפשר ללמד מחשבים לחקות את אופן הפעולה של המוח האנושי. זה עדיין לא אומר שהמחשבים "חושבים או שיש להם תודעה. לפני שנוכל ללמד אותם את הטריק הזה, נצטרך להשיב על שאלה שרק נשמעת פשוטה: מהי תבונה?

8תגובות

הבעיה הכי גדולה בקשר לבינה מלאכותית היא שכלל לא ברור מה זו בינה, ובפרט מהי בינה אנושית. לכאורה אין דבר פשוט מזה: אנו מאמינים כי בינה היא מילה נרדפת לחוכמה, ושבינה אנושית היא התכונה שמאפשרת לאדם להתנהל בחוכמה בעולם בצורה אחרת מאבן הכפופה לחוקי הפיזיקה, או חיית פרא הפועלת על פי החוקיות הדרווויניסטית.

אולם מהו טיבה של תבונה זו? האם היא אינה אלא סוג של תוכנה, שלמרות מורכבותה ניתנת לפירוק למרכיבים קטנים, ושניתן לשכפלה או לחקותה באמצעים מלאכותיים? או שאולי היא הרבה יותר מסך חלקיה, ולכן לא משנה כמה ננסה לפרק את המשימות התבוניות ואת החומרה לחלקים, לא נוכל להרכיב אותם מחדש לכלל אנושיות או תבונתיות כמו זו של האדם? והאם הבינה תלויה בחומרה שמחזיקה אותה (המוח הביולוגי) או שהיא ניתנת לנשיאה אל חומרים אחרים מעבר לגוף –למשל אל "מוח פוזיטרוני", בשפתו של סופר המדע הבדיוני אייזק אסימוב?

אף אחד לא יודע באמת מהן תודעה ותבונה, איך הן פועלות וממה הן מורכבות, וממילא גם לא ברור מהו הדבר שהופך סתם זיכרון למחשבה ולמניע לפעולה, ושבלעדיו לא ניתן לדבר על אדם חי וחושב אלא רק על זומבי (אדם ללא רוח). גם אם התודעה יודעת להסביר את מרכיביה הרוחניים או החומריים באופן ספרותי או מדעי (הנה זיכרון, והנה חשיבה, וזו הדמיה של פעולות אלה כפי שהן מתבטאות בפעילות החשמלית במוח), בוודאי זה לא אומר שהיא יודעת להסביר מהי התוצאה השלמה של סך כל הפעולות המוחיות, או מהי תודעה תבונית המודעת לעצמה (כלומר, תודעה המכילה את כוליותה שלה בתוך עצמה וקוראת לזה "אני"). מכאן שבוודאי גם לא ניתן לנסח הסבר כיצד עובדת התודעה, לא לגבש איזה מודל שיתאר את הפעולה שלה ובטח לא לחקות אותה במקום אחר. הגענו למבוי סתום.

אבל אולי הבעיה היא בדיוק בנקודה הזו של ניסיון להבין מהי בינה אנושית כדי להבין מהי בינה מלאכותית. אולי אפשר אחרת. מעבר לשאלות הפילוסופיות הנ"ל, אנו מקשרים את המושג תבונה ליכולת ללמוד. אנו אומרים שמשהו הוא תבוני אם הוא לומד ומשנה את התנהגותו בהתאם לדברים שהוא חווה. כך לדוגמה, אנחנו אומרים על חיות שניתן לאלף, שהן חיות תבוניות – הן לומדות להתנהג בהתאם לדרישות שלנו מהן: בהינתן שריקה הכלב יבוא אלינו, גם אם זה נוגד את טבעו הכלבי; כשנגיד לסוס "עצור" הוא אכן יעצור, גם אם הוא מאוד רוצה להמשיך לדהור. אצל בעלי חיים, די בכך כדי שנחשיב אותם כבעלי תבונה, ואף נתייחס אליהם בהתאם. אך מה קורה בתחום המחשב?

גם אם מחשבים ייצאו מאותו מפעל, הם יתנסו בעולם באופן שונה ויפתחו מבנה מוחי שונה המבוסס על מה שלמדו ועל קובצי הזיכרון שיצרו לעצמם. אז נוכל לומר על מכונות מסוימות שהן חכמות יותר ממכונות אחרות שנשארו "טיפשות". אולי נצטרך גם כאן לדבר בשפה נקייה ולומר רק שהן "שונות", כדי לא להעליב אותן

GLEB GARANICH/רויטרס

גם המחשב הוא מעין חיה מאולפת, וליתר דיוק חומר מאולף. תוכנה היא רצף של פקודות שניתנות לחומר (אלקטרונים), ושמטרתן לגרום לו לבצע פעולות בהתאם לדרישות שלנו: חישוב ערכן של מניות או של סחורות; חישוב הצבעים הנכונים על המסך כדי להציג חתול; או חישוב מסלול של טיל כדי לנחות בים השלווה שבירח. אלה חישובים מסובכים מאוד לבני אדם רגילים, ובכל זאת, למכונה שמסוגלת לבצעם לא נייחס את התכונה שאנו מכנים "תבונה". אנו נגיד בסך הכל שהיא "מכונה מחשבת". אמנם יש לה כוח חישוב עצום, שהיכולות שלו חורגות מכל מה שאי פעם האדם יהיה מסוגל לו, אך אין זו תבונה שכן מכונה זו לא יכולה ללמוד את מה שלא הוכנס לה קודם. כעת, תחום הבינה המלאכותית שהתפתח בשנים האחרונות מבקש להעניק לאותה חומרת חישוב בדיוק את הממד הנוסף החסר לה כדי להיחשב לתבונית – את ממד הלמידה. כלומר, מעבר לשאלות הפילוסופית, יצירת הבינה המלאכותית היא בעצם אתגר טכנולוגי של יצירת מכונות לומדות.

אבל איך מכונה יכולה ללמוד?

הנה חתול

יש שתי גישות ללימוד: למידה "מלמעלה למטה" או למידה "מלמטה למעלה". למידה מהסוג של "מלמעלה למטה" היא למידה דדוקטיבית. ההנחה הראשונית היא שלדברים בעולם יש תבנית ברורה וידועה ושבעזרת אוסף תבניות שיש לנו אנו מסתכלים על העולם ומבינים את הדברים שבו ואף לומדים להתנהג בהתאם לתבניות קבועות מראש. גישה זו יכולה להיקרא גם "גישת האידיאות", על פי משל המערה של אפלטון – אותן צורות נצחיות של כל הדברים הטבועים בזיכרוננו והמתגשמות במציאות האמפירית שלנו באופנים שונים. לפי גישה זו, כדי ללמד מחשב לזהות חתול יש תחילה לחבר נוסחה שמגדירה מהו חתול, ואז להזין אותה למחשב. כעת נראה למחשב תמונה ונבקש ממנו לומר לנו אם זה חתול. אם התמונה של החתול תתאים לנוסחה, המחשב יגיד "הנה חתול". אם היא תסטה ממנה, המחשב יסיק שאין זה חתול. אם המחשב צודק, נוכל לומר – הנה, המחשב למד לזהות חתול, וכך נעשה לכל הדברים בעולם – איך נראה תמרור "עצור" ומה צריך לעשות בהתאם לכך, מה הסימפטומים של מחלות ואיזה תרופות יתאימו, מה המאפיינים של דואר זבל והונאות פישינג וכיצד ניתן להתגונן מפניהם, מהם המאפיינים של התנגשויות בין מטוסים ומה צריך לעשות בכדי להימנע מהן. נזין הכל למחשב, וניתן לו לנהל את העניינים שלנו.

הבעיה בגישה זו היא שכל הלמידה הממוחשבת תלויה בעצם באדם וביכולתו לפשט את הניסיון הנצבר שלו לכללים. ברור שאין לאף אדם את האפשרות לנסח בצורה כזו את כל מה שצריך בכדי להסתדר בעולם לבד ולקבל החלטות תבוניות אמיתיות – שהרי לא באמת ניתן לקבוע מהי הנוסחה של חתול. יתר על כן, אין זו באמת למידה של מחשב אלא היזכרות, כפי שהגדיר זאת אפלטון. המחשב לא לומד דברים חדשים אלא מתאים את מה שהוא חווה לכללי בסיס שניתנו לו על ידי יוצרו.

כדי לפתור את הבעיה הזו פונים החוקרים כיום ליישם למידה ממוחשבת בגישת "מלמטה למעלה", כלומר בגישת ההכללה. על פי גישה זו, כדי ללמוד על העולם יש לאסוף כמה שיותר דוגמאות, לסווג אותן, לראות את היחסים ביניהן וללמוד מהם הדברים הנסתרים שלא נתגלו בהן קודם. זוהי גישתו של הפילוסוף אריסטו, שפעל כך בכדי לקבוע את החוקים של הטבע באופן אמפירי. מדעני המחשב הפועלים מתוך גישה זו מאמינים כי האדם לומד מהמקרים שהוא חווה על ידי סיווגם ובאמצעות יצירת כללים המקשרים בין סוגי הידע המצטבר. את הפעולה הזאת אפשר לחקות באמצעות מודלים מתמטיים המשמשים לביצוע פעולות דומות של איסוף וסיווג מידע, ושל מציאת דפוסים וכללים במידע המצטבר.

המחשב לא מודע לזמן שהוא מציג בשעון, לא מתרגש כשהוא מציג סרט אימה ולא חש חמלה כשהוא רואה תמונות מלחמה. הוא לא מודע למשמעויות של מה שהוא "זוכר". אם נגיד שאין צורך באותן משמעויות כדי לומר על משהו שהוא בעל תבונה, לא נהפוך את המחשב לאנושי, אלא את האדם למחשב

אי־אף־פי
Jeff Chiu / AP

לגישה זו מתלווה הנחה די מדכאת בדבר האדם: בכדי להעניק למחשב את היכולת האנושית שנקראת תבונה, קודם כל יש לראות באדם מעין מחשב, כלומר יצור שמורכב מחומרה ותוכנה שניתן לעקוב אחר התהליכים המתרחשים בהן (תזוזת נוירונים ואותות חשמליים בתאי העצב), ואז לחקותם באמצעות חומרה ותוכנה אחרים. כל שאר רכיבי הרוח שהאדם מייחס לתבונתו אינם נחשבים, אלא אם נצליח לנסח ולחקות את פעולת המוח הקשורה אליהם.

הדוגמה המפורסמת ביותר בתחום זה של למידה היא של זיהוי אובייקטים בעולם הממשי. רשת נוירונים מלאכותית, שבנויה משכבות רבות של רמות חישוב שונות, בודקת בכל שכבה מאפיין אחד של תמונות המוצגות לה – שכבה ראשונה, לדוגמה, תבדוק את הצבעים ותסווג אותם, שכבה שנייה את הצורה, שכבה שלישית את עוצמות האור, שכבה רביעית את החדות וכן הלאה. בסוף התהליך יתגבשו ברשת, כמו אצל האדם, מעצמם וללא כל תכנות מוקדם, ידע על אודות התמונה לצד מידע סטטיסטי – לדוגמה, צבע מסוים בדרך כלל מלווה צורה מסוימת ומשמיע קול מסוג אחד. והנה צבע אחר מלווה צורה אחרת ומשמיע קול אחר והתגובה של הסביבה אליו היא מסוג מסוים. אוסף התכונות הראשון, תסיק המכונה, שונה מהשני. זה חתול וזה כלב.

בהתחלה אמנם אנו נראה למחשב 100 תמונות של חתולים ו־100 תמונות של כלבים (ונגיד לו שזה חתול וזה כלב – בדיוק כמו שאנחנו עושים עם תינוקות), אך עם הזמן רשת הנוירונים תמצא בעצמה את הכללים שמאפיינים חתול ושמאפיינים כלב, ו"תלמד" מה שונה ביניהם מעבר למה שאנחנו הענקנו לה. ככל שלמכונה הלומדת יהיו יותר התנסויות, כך יהיו אוספי התכונות האלו מדויקים יותר, עד שלבסוף היא תוכל לומר בוודאות שהדבר שהיא רואה מול עיניה הממוחשבות הוא חתול בר שחי בערבות אפריקה, שהוא בן ארבע שנים ושהוא לא אכל כבר כמה ימים.

אבל למידה זו לא נגמרת בזיהוי חתולים וכלבים. היכולת לזהות תבניות שהאדם לא חשב עליהן מנוצלת כבר כיום במסגרת מחקרי ביג דאטה. תוכנות לומדות מוטמעות בסמארטפונים ומנסות להתאים לנו בני זוג או מזון על סמך מידע שהן אוספות, מציעות לנו תוכניות אימון לשמירה על הכושר הגופני ומייעצות לנו מה לעשות עם הכסף שלנו כדי להרוויח בבורסה. בעתיד, לא מן הנמנע שמכונה כזו תשמש גם רופא לכל דבר. לאחר שתבחן מיליוני דיווחים על כאבי רגליים היא בהחלט תוכל לקבוע, למשל, שכאבים שמהם סובל אדם מסוים לא נגרמים מדלקת בגיד, כמו שאבחן רופא המשפחה, אלא תואמים לתבנית שהיא גילתה בעצמה ושבה כאבי רגליים מסוג מסוים, בזמן מסוים, בגיל מסוים ובאזור מסוים, נגרמים דווקא ממדרכה שבורה ברחוב הראשי שגורמת לאנשים האלה לעקם את הרגל בזמן הליכה, דבר שנסתר מעיני חוקרי הרפואה. יותר מכך: מכונה לומדת תוכל לקבוע כי סימפטומים מסוימים של נשימה מלמדים בוודאות שהמתלונן עומד לחלות בסרטן הריאות, עוד לפני שרופא אפילו התחיל לבדוק את העניין, ואף תמצא את התרופה המתאימה כדי לרפא את המחלה, כבר בשלבי הדגירה.

ייתכן גם שמנגנוני בינה מלאכותית כאלה שיוטמעו בחפצים דוממים (שייהפכו בכך למחשבים תבוניים) ויאספו אינסוף נתונים, יסיקו מתוכם מסקנות מפתיעות שאף אדם לא יכול להגיע אליהן בעצמו. יתר על כן, מאחר שמחשבים שונים, גם אם ייצאו מאותו מפעל, יתנסו בעולם באופן שונה, הם יפתחו מבנה מוחי שונה המבוסס על מה שלמדו ועל קובצי הזיכרון שיצרו לעצמם. אז נוכל לומר על מכונות מסוימות שהן חכמות יותר ממכונות אחרות שנשארו "טיפשות", ואולי נצטרך גם כאן לדבר בשפה נקייה ולומר רק שהן "שונות", כדי לא להעליבן. אם נמשיך בכיוון זה, הגיוני לומר גם שלמכונות אלה תהיה אישיות אינדיבידואלית, כמו לכל אחד מאיתנו, ונלמד להתייחס אליהן באופן מוסרי כמו שאנו מתייחסים לכל בעל אישיות אחרת (אסור להוציא את המחשב מהחשמל – זה יהרוג אותו!).

אולם בצורת למידה זו טמונה גם סכנה. אם לא נדע כיצד מתגבשת הידיעה התבונית בתוך המחשב – שהרי שכבות הביניים של הרשת הנוירונית אינן ידועות, מה שידוע זה רק הקלט והפלט – לא נוכל לדעת אם הוא צודק או לא. מה יקרה אם המחשב יגיע למסקנה מוטעית בקשר לתרופה שיש לתת לחולה מסוים? מה אם המכונות שמתכוננות לבצע פעולות לחימה חכמות, שלמדו עם הזמן להיות בעלות אישיות אגרסיבית במיוחד, יבינו ביום מן הימים שהדבר הנכון ביותר לעשות בעת מתיחות ביטחונית הוא לחסל את היריב בפצצת אטום, עוד לפני שהוא בכלל יודע מה הוא הולך לעשות, וכך יגרמו לחיסול האנושות כולה? כיצד נדע לעצור זאת? כבר כיום אנחנו בקושי יודעים מה לעשות עם בני אדם שחושבים כך, לא בטוח שבעתיד, עם מכונה חושבת, זה יהיה יותר קל.

 

איך להבין מה זה להבין

שאלת הטעות והסכנה קשורה לתפישות היסודיות ביותר בנוגע לאופיה של תבונה זו. האם היא באמת כמו תבונת האדם? כדי לבחון שאלה זו אפשר להציג שלושה מבחנים שונים שאולי ייתנו תשובות שונות, אבל יחדדו את הנושא.

ברור לכולם שככל שרמת המורכבות של רשתות הנוירונים תגדל, כך גם רמת הלמידה תגדל בהתאם, ולא מן הנמנע שמכונות כאלה יעברו בקלות יתרה את מבחן טיורינג – צופה חיצוני לא יוכל לדעת שמי שנותן לו תשובות ועצות לשאלות ושנמצא מעבר לקיר הוא מכונה ממוחשבת ולא אדם. לכך יש משמעות רבה, ולא רק מבחינה פילוסופית (שהרי איך אני, שמודע רק לעצמי, יודע שהאחר שלפני הוא אכן בעל תודעה?), אלא גם מבחינה מסחרית ושיווקית: רובוטים חושבים יוכלו להחליף עובדים במגוון רחב של תפקידים, לא רק כאלה שמצריכים כוח פיזי אלא גם של שירותים: החל בנותני שירות בסיסי (פקיד קבלה במלון), עבור במוכרים וסוחרים ממולחים וכלה בתפקידי מומחים כגון רופאים ומנתחים. אם נראה שמכונה ממוחשבת היא בעלת רמת למידה ומענה לשאילתות כמו בני אדם בתפקידים כאלה, לא תהיה מניעה מלעשות זאת. כשנראה שהמכונה טועה, נוכל לתקן אותה בהתאם; כשנראה שהיא צודקת ניתן לה חיזוקים, וכך עם הזמן מרחב הטעות שלה ילך ויקטן וכולנו נוכל לחיות בשלום עם כך. האמנם?

Deborah Lee Soltesz

כאן נכנס המבחן השני, מבחן המודעות העצמית, ושבו התמונה האידיאלית הזו מתחילה להיסדק. זהו מבחן החדר הסיני של הפילוסוף ג'ון סירל. משל זה של החדר הסיני מרחיב את מבחן טיורינג ואומר שגם אם המכונה תעבור את המבחן הראשון, לא בטוח שהיא תעמוד בתנאי אנושי נוסף – היכולת להיות מודעת למה שהיא עושה. אנו יודעים שבני אדם לא סתם אוספים נתונים, זוכרים, נזכרים, פועלים ונותנים תשובות. בני אדם עושים את כל הדברים תוך כדי מודעות עצמית לכך שזה מה שהם עושים. אדם שכותב ספר עושה זאת מתוך תכלית, ואדם שקורא את הספר חווה אותו ברמות שונות מעבר להסקה הסטטיסטית שאפשר למצוא בו. אם ניקח את כל המידע האינסופי שיש באוסף הספרים הסרוקים של גוגל ונזין אותו לרשת נוירונים, המכונה תוכל להפיק אינסוף מסקנות שאנחנו אפילו לא חשבנו לחפש, אבל ברור לכולם שהמכונה לא מבינה אף מילה אחת ממה שהיא "קוראת".

סירל טען שהמחשב, למרות יכולות הלמידה שלו, הוא עדיין מכונה שבסך הכל מטפלת בסימנים. הוא יכול לראות, לסווג, לתרגם, להסיק על קשרים, אך לא להבין אותם. עבור המחשב, גם יצירת מופת ספרותית כמו "אנה קרנינה" אינה אלא רצף של סימנים המתורגמים לאותות חשמליים, וללא כל משמעות מצטברת או הבנה סמנטית של הסיפור. המחשב לא יבין לעולם למה בני האדם מכנים את הרומאן הזה "היצירה הטובה ביותר שנכתבה". לעולם לא תהיה לו את הרגישות להבין את הדילמות שבהן מתחבטים הגיבורים, או למה "כל המשפחות המאושרות דומות זו לזו. אך המשפחות האומללות – אומללות הן כל אחת על פי דרכה". המחשב גם לא מודע לזמן שהוא מציג בשעון, לא מתרגש כשהוא מציג סרט אימה ולא חש חמלה כשהוא רואה תמונות מלחמה. הוא לא מודע למשמעויות של מה שהוא "זוכר". אם נגיד שאין צורך באותן משמעויות בכדי לומר על משהו שהוא בעל תבונה, אז זה לא שאנו נהפוך את המחשב לאנושי, אלא אנו נהפוך את האדם בעל כל היכולות האלה למחשב.

 

ברבורים שחורים ומגבלות התבונה

אם לא די בכך, ספק אם המכונה תוכל לעמוד במבחן השלישי והאחרון, מבחן האינדוקציה: אם המכונה הלומדת מחקה לכאורה את תהליכי הלמידה של האדם, היא גם מחקה את כשלי החשיבה שלו ואת יכולתו לטעות. אחד המשלים המפורסמים שמדגישים את כשל החשיבה האינדוקטיבית הוא משל הברבור השחור. באזור מסוים כל הברבורים אותם ראו בני המקום היו לבנים, עד כדי שהם הסיקו שכל הברבורים הם לבנים, כלומר שצבע לבן הוא אחת מהתכונות של ברבור. כשהם ראו ברבור שחור – הם לא זיהו אותו כברבור, שהרי הוא אינו לבן. זוהי בעיה בסיסית בכל סיווג: על פי איזה תכונות אני אמור לסווג את הדברים בעולם בכדי שאוכל לנבא את הדגימה הבאה ולפעול במציאות בתבונה? האם צבע היא תכונה מהותית לסיווג ברבורים? האם סביבת מים היא הכרחית ליצירת חיים? האם כל כוכבי הלכת חייבים להסתובב סביב שמש?

בעית האינדוקציה אומרת שלעולם לא נוכל לדעת בוודאות אם הכללים שיצרנו ושלפיהם אנו פועלים מתארים נאמנה את המציאות. גם אם הסקנו כלל כלשהו מתוך מקרים רבים מאוד, ייתכן שהכלל הזה לא נכון, שהרי מי מבטיח לנו שגם הנתון הבא יהיה תואם לתבנית ולכלל שגיבשנו? כל מה שנוכל לדעת הוא שעד כה, זה מה שלמדנו. מדעני המחשב טוענים שרשת נוירונים אמורה להתמודד עם בעיה זו בקלות – מאחר שהיא לומדת כל הזמן ולא מסכמת את הידע, ולכן לעולם לא תגבש כלל סופי. כל הכללים שלה יהיו נתונים כל הזמן לשינוי בהתאם למידע חדש שהיא תחווה. ואולם, התקדמות זו עשויה להיות בעצם שכלול הטעות ולא התקרבות לאיזושהי אמת, שמצריכה לעתים את החלפת הפרדיגמה כולה (כלומר את כל עץ ההחלטות של רשת הנוירונים).

כדי לחדד נקודה זו, נדמיין מכונה לומדת שנמצאת במדבר מול השמים וצופה בכוכבים (כלומר אוספת עליהם מידע). איזו תמונת עולם היא תגבש על פי תנועת הכוכבים – האם תהיה זו תמונת עולם גיאוצנטרית שבה כדור הארץ במרכז היקום, או שתהיה זו תמונת עולם הליוצנטרית, שבה השמש במרכז? ייתכן שהיא היתה משרטטת משהו אחר לגמרי, שחורג מההכרה שלנו. אך כדאי לזכור בהקשר זה, שחוויה זו של הבינה המלאכותית תהיה דומה לחווייתו של האדם במשך אלפי שנים. לאדם לא היתה כל סיבה לחשוב שכדור הארץ אינו מרכז היקום, שהוא סובב סביב השמש ושתנועת הכוכבים לא משפיעה על חייו, כל עוד התבניות שהוא יצר הסבירו לו יפה מאוד את מהלכי הכוכבים בשמים, יכלו לנבא במידה סבירה את זמני הזריחה והשקיעה ואת תאריכי ליקויי הירח והשמש, ולקבוע מתי לזרוע ומתי לקצור. באותה מידה, לא מן הנמנע שגם מכונה חושבת תסיק את אותן מסקנות גיאוצנטריות – אלו העובדות הוויזואליות, ולכן ברור שהשמש וכל צבא השמים סובבים סביב הארץ. הרי זה אך מתבקש על פי השכל הישר.

כאן אנו מגיעים אולי לנקודה המכרעת. מה גרם לתבונתו של האדם לשנות את הסקתו בדבר מבנה מערכת השמש? ברור שלא היו אלה התבניות שאותן ראה בשמים. לצורך כך נדרשה לאדם תכונה ייחודית – והיא יכולתו לדמיין דבר אחר מזה שהוא רואה, לחשוב אחרת ממה שהניסיון מלמד, ולברוא תבניות אחרות מאלה שעל פיהן הסתדרו הנוירונים במוחו.

תבונתו של האדם התבוני, הומו סאפיינס, טמונה ביכולתו להתעלות מעל לניסיון העבר, לסרב לקבל את התבניות הקודמות ולהחליט אחרת. לא הידע, ולא ביטויי הידע, לא הלמידה ולא המסקנות מכוננים את התבונה האנושית, אלא הדמיון, היכולת להחליט אחרת ממה שמתחייב, והיכולת לברוא יש מאין. ייתכן שיום אחד נוכל להעניק תכונות אלו למחשב. עד אז, אין לנו אלא להכיר שאלה הם בדיוק הדבריםשמבדילים את האדם מסתם מכונה חושבת. אך כשנצליח להעניק תכונות אלו למחשב, לא נוכל להתחמק מאחת משתי התובנות הקיצוניות: או שאנחנו בסך הכל מכונות חושבות והצלחנו לפענח את עצמנו עד תום, או שאנחנו אמנם ייחודיים אך בכל זאת הצלחנו לברוא מחשב עם אינטליגנציה בצלמנו ודמותנו.

במקרה הראשון ייסתם הגולל על תפישת האדם כיישות מיוחדת בעולם. במקרה השני, זו כבר לא תהיה בינה מלאכותית, זו כבר תהיה בינה אנושית. באותה עת, אנחנו נהיה אלוהים.

 

הכותב הוא ד"ר לפילוסופיה של העסקים והכלכלה ומרצה ויועץ לארגונים בנושאי אתיקה וכלכלה

הרשמה לניוזלטר

הירשמו עכשיו: הסיפורים החשובים של מגזין TheMarker ישירות למייל

ברצוני לקבל ניוזלטרים, מידע שיווקי והטבות


תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר הארץ

סדר את התגובות