למה למידת מכונה (עדיין) לא יכולה לעזור לנו במאבק בקורונה

הנתונים של מגפת הקורונה עדיין אינם חד-משמעיים ■ כל שיטות האבחון שמבוססות למידת מכונה דורשות לימוד מדוגמאות אמינות רבות שכרגע חסרות

יעקב רימר
יעקב רימר
שתפו כתבה במיילשתפו כתבה במייל
מעבר לטוקבקים
עובדי מעבדה בצרפת עובדים על חיסון נגד קורונה
עובדי מעבדה בצרפת עובדים על חיסון נגד קורונהצילום: Francois Mori/אי־פי

בד"כ הטור הזה עוסק בנושאי בינה מלאכותית (AI) וביג-דאטה. אך לאור המצב, אכתוב הפעם על מגפת הקורונה. הדוקטורט שלי הוא באימונולוגיה (תורת מערכת החיסון) ולצד עיסוק בנושאי היי-טק אני עוסק גם במחקר ביולוגי ורפואי. אבל מי שמצפה לשמוע מילות עידוד חסרות בסיס, או ביקורת על הצעדים של משרד הבריאות, מוזמן לעבור לטור אחר.

להבדיל מכל המומחים וה"מומחים" מטעם עצמם, אני לא יודע האם הצעדים הננקטים מוצדקים או מוגזמים ולאן המגפה תתגלגל. להבנתי, אף אחד לא באמת יודע, ולו רק מהסיבה שהעולם לא התמודד עם מגפה בהיקף הזה ב-100 שנה האחרונות.

רק בעתיד, לאחר שהמגפה תמוגר בכל העולם, נוכל לנתח לאחור ולהסיק מסקנות מבוססות ורציניות. ניסיונות בשלב הזה להשוות את הצעדים או המצב בישראל למדינות אחרות הוא שגוי ומטעה. אנחנו עוד לא מבינים את התנהגות הווירוס (SARS CoV-2), לא יודעים להגיד האם תתכן הדבקה חוזרת במחלה (COVID-19) וגם לא האם במדינות שבהן מדווחת בלימה, תיתכן התלקחות מחודשת. צריך לחכות ולראות, ולהישמע להנחיות משרד הבריאות.

האירוע הזה חושף גם כשלים שנוגעים בניתוח והבנת נתונים, כמו גם מגבלות של למידת מכונה. נתחיל בנתונים: ניתן למצוא באינטרנט ניתוחים שונים של אחוזי התמותה מהקורונה. הבעיה היא שכדי לחשב נכון, נדרש מידע מהימן שפשוט עדיין אין. יש לכך מספר סיבות, העיקריות הן השוני בשיטות אבחון החולים במדינות השונות (בסין החליפו את שיטת האבחון מספר פעמים), מידת האמינות של השיטות האלו, וכמובן במספר בדיקות האבחון שנעשות באוכלוסייה הכללית.

ברור לכולם שקיימים בעולם חולים או נשאים רבים שאינם נבדקים כלל. ולכן, לחלק את מספר המתים במספר החולים המדווח זה ממש לא רציני. מקובל לחשוב שהנתונים המהימנים ביותר כרגע מגיעים מדרום קוריאה, בשל מספר הבדיקות הגבוה שנעשו שם. ייתכן, ימים יגידו.

ונעבור למגבלות למידת מכונה ו-AI. כל השיטות של למידת המכונה והבינה המלאכותית משקפות ידע מוקדם של האנשים שמשתמשים בהן. אם זה ברמת חוקים, דוגמאות לימוד, החלטה על פידבק או הנדסת תכונות (תלוי בשיטה).

מגפת הקורונה מבליטה שוב את האמת הזאת, שרבים וטובים שוכחים לפעמים. חברות רבות מתיימרות לייצר אלגוריתמים אוטומטיים, שמאפשרים לאבחן חולים במקום רופא אנושי. בסוף פברואר פירסם הוול סטריט ג'ורנל שחברות אלו אינן מסוגלות לאבחן קורונה, ואף נמנעות מלנסות. ממש לא מפתיע. כל שיטות האבחון שמבוססות למידת מכונה, דורשות לימוד מדוגמאות אמינות רבות שכרגע חסרות. גם מערכות המומחה (הפעלת חוקים) דורשות ידע מגובש של רופאים, שגם הוא מוטל עדיין בספק.

לדוגמה, בתחילה סברו שכאב גרון הוא סימפטום למחלת הקורונה, אבל לפני מספר ימים פורסם שלא. אדגיש שאין בדברים האלו תלונות לרופאים שעושים את עבודתם נאמנה. הלקח לכולנו הוא שההסתמכות על AI בהקשר של אבחון מגפות שנגרמות מווירוסים לא מוכרים היא בעייתית, בלשון המעטה.

אבל כאמור, את מומחי ה-AI זה לא אמור להפתיע. בחודש דצמבר, פירסם הסיינטיפיק אמריקן כתבה שסקרה חלק מהסכנות האפשריות מאלגוריתמים של למידת מכונה בעולם הרפואה. הטענה המרכזית היא שחברות טכנולוגיה מזדרזות לצאת לשוק עם מוצרים שלא נבדקו מספיק ואינן עומדות בסטנדרטים הנדרשים למכשור רפואי. חלק מהחברות מתקשות להבין שלמידת מכונה בעולם הרפואי מאתגרת מאוד, לאור הקושי להשיג נתונים ואיכות הנתונים שהושגו, וגם בשל מורכבות הנושא.

לדוגמה, בבית חולים הר-סיני בניו יורק פותחה מערכת AI לאבחון חולים שנמצאים בסיכון גבוה לדלקת ריאות, על סמך צילומי רנטגן של החזה. למרות שביצועי המערכת היו טובים עבור צילומי הרנטגן של בית חולים זה, המודל נכשל כשנבדק על תמונות שצולמו בבתי חולים אחרים.

החוקרים הבינו לאחר בדיקה שמודל ה-AI רק למד בפועל להבדיל בין צילומים של מכשירי רנטגן ניידים של בית החולים (שצולמו ליד מיטתו של המטופל), לבין אלה שנלקחו במכונות של מחלקת הרדיולוגיה שלו. ומכיוון שרופאים נוטים להשתמש בצילומי חזה ניידים רק עבור אלו שחולים מכדי לעזוב את חדרם, אין זה מפתיע כי חולים אלה אכן היו בסיכון גבוה יותר לדלקת ריאות.

בכתבה מובאת גם דוגמה לאפליקציה מבוססת AI שפותחה על ידי חברה ששייכת לגוגל. מטרתה לחזות מראש אילו מאושפזים יפתחו אי ספיקת כליות חריפה. הבעיה היא שהאפליקציה טעתה עבור שני חולים (התרעות שווא), לכל ניבוי נכון שלה. חשש מוטעה לאי-ספיקת כליות עלול לגרום לשינוי בטיפול בחולה שיסכן אותו במקרים מסוימים.

אין בדברים האלו כדי לרפות את ידינו מלהמשיך לייצר פתרונות AI לטובת הרפואה. גם רופאים טועים כמובן וכבר יש מספר לא מבוטל של פתרונות AI מוצלחים מאוד. אבל מצד שני, תכנון יסודי, ענווה וזהירות מועילים באופן כללי, בטח כשעוסקים ברפואה. ושרק נהיה בריאים.

הערה לקוראי הבלוג הנאמנים: ניתן לגשת לכל הפוסטים מסודרים ע"פ נושאים, מאתר הבית שלי.

יעקב רימר

יעקב רימר | מיסטר ביג ומר דאטה

יועץ בכיר ומרצה בנושאי סייבר, ביג דאטה ומדעים, בעל דוקטורט ממכון ויצמן למדע. עוסק בעשור האחרון במחקר מדעי במקביל לייעוץ לחברות היי-טק ומשרדי ממשלה. בעבר שימש בתפקידים בכירים בהיי-טק ובמשרד ראש הממשלה. מרצה משופשף ומנוסה, שמתמחה בהמחשת נושאי מדע וטכנולוגיה "קשים לעיכול" בגובה העיניים. משלב בכתיבתו והרצאותיו את הניסיון ארוך השנים בתעשיית ההיי-טק ובאקדמיה, יחד עם העברת מסרים ברורה והומור.

הבלוג ינסה להמחיש לקורא המתעניין (וגם הלא-מקצועי) מה כוחם האמיתי של ניתוח נתונים, למידת מכונה או ביג דאטה. מה אפשר (או אי אפשר) לעשות באמצעות שיטות אלו ואיך כל זה נוגע לפרטיות שלנו.

בלוג זה הוא המשך לבלוג קודם של יעקב רימר ב-TheMarker. לטורים בבלוג הקודם לחצו כאן

הזינו שם שיוצג באתר
משלוח תגובה מהווה הסכמה לתנאי השימוש של אתר TheMarker