על עתיד הדיפלומטיה – ומדוע הדיפלומטים של העתיד זקוקים לחוש הומור

על עתיד הדיפלומטיה – ומדוע הדיפלומטים של העתיד זקוקים לחוש הומור

בשבוע האחרון הוזמנתי לנאום בכנס של מרכז אבא אבן במרכז הבינתחומי בהרצליה על עתיד הדיפלומטיה. האמת? אני לא דיפלומט גדול. לא למדתי את התחום באקדמיה, ולא חקרתי אותו לעומק. התחום המרכזי שלי הוא בחקר העתיד – בהבנת הכיוונים אליהם מתקדם העולם, וכיצד הטכנולוגיות משפיעות על המקצועות השונים. ועדיין, חשבתי שיהיה מעניין לחלוק עם באי הכנס כמה המלצות לדיפלומטים של העתיד, שנובעות מהבנתי את המגמות הטכנולוגיות העולמיות.

מה צריכים, לפיכך, הדיפלומטים החדשים במקצועם?

הדיפלומטים החדשים צריכים, קודם כל ומעל לכל, להיות אנשי ציבור. עד היום התפקיד שלהם היה יחסית פשוט – לתווך בין מקבלי ההחלטות במדינה אחת, למקבלי ההחלטות במדינה אחרת. אלא שברגע שהאינטרנט נכנסה לתמונה, היו לה שתי השפעות מרכזיות: קודם כל היא פישטה והאיצה את התקשורת הבינלאומית, כך שמקבלי ההחלטות במדינות שונות היו יכולים לתקשר זה עם זה ישירות. ההשפעה ארוכת-הטווח יותר היא שבמדינות הדמוקרטיות, הציבור התחיל לקבל כוח גדול יותר מכיוון שהוא יכול היה 'להתאגד' דרך האינטרנט, ולתאם פעולות ברשתות החברתיות. כתוצאה מכך, כיום בישראל אין לנו 120 חברי כנסת יותר, אלא 8.9 מיליון חברים במה שאפשר לקרוא לו – "הכנסת המורחבת". דיפלומטים שממשיכים להתמקד במוקדי הכוח הריכוזיים מחמיצים את התמונה הרחבה יותר, שטראמפ – על כל מגרעותיו – כבר זיהה. אם אתם רוצים כוח להשפיע, לכו לרשתות החברתיות.

לשינוי הזה יש מספר משמעויות.

ראשית, הדיפלומטים החדשים צריכים לדעת לעבוד מהר ולפתח מערכות שיאפשרו להם להגיב באופן כמעט מידי לכל שינוי. כבר אלפי שנים שאנחנו מכירים את התמרון בו שני דיפלומטים היו מסכימים לעצור את הדיונים ביניהם לשבועות רבים, כדי שיוכלו להתייעץ עם השליטים ולקבל מהם תשובה. כיום, ניתן לקבל תשובות ממקבלי ההחלטות ומהציבור הרחב תוך דקות ספורות. וזו גם מהירות התגובה המצופה מהדיפלומטים כיום ברשתות החברתיות. אם נותנים לפרשיה להתפתח בטוויטר במשך שעות, הרי שמוותרים הלכה למעשה על הזכות להגיב לה.

המשמעות, אגב, היא שאי אפשר לסמוך על "קצין רשתות חברתיות ראשי", או כל ניסיון דומה להדחיק את העבודה עם הרשתות החברתיות לתחתית השרשרת הארגונית. ניסיונות כאלו מזכירים לי את סיפורו של אלווין טופלר, שב- 1980 הכריז בכנס שמנהלים יצטרכו לדעת לעבוד עם מחשבים בעצמם, ולא יוכלו להותיר למזכירותיהם את העבודה המאוסה הזו. הוא זכה למחיאות כפיים רמות על התחזית המהפכנית כל-כך. כיום, מנהל צריך באמת לעבוד עם המחשב בעצמו, ואם הוא ישאיר למזכירתו את מלאכת ההקלדה, הוא פשוט לא יוכל להתמודד עם העומס הגדול. אבל בזכות המחשב, המנהל יכול לבצע עבודה שהייתה מחייבת צי שלם של מזכירים ומזכירות. באופן דומה, הדיפלומטים החדשים יצטרכו לדעת לעבוד בעצמם, באופן ישיר ומבלי מתווכים, עם הרשתות החברתיות. ולא רק איתן, אלא גם עם הכלים לניתוח המידע הגדול.

וזה הדבר השני שישתנה: הדיפלומטים החדשים יצטרכו להפוך לאשפי מידע. יש יותר מדי מידע ברשת, והדרך היחידה לנתח אותו ביעילות היא באמצעות כלי איסוף, עיבוד וניתוח מידע מתקדמים. כלים כאלו נסמכים היום על למידת מכונה ובינה מלאכותית, ולפעמים מספיק קורס מזורז של שבוע כדי להבין איך להשתמש בהם. אלא שהדיפלומטים צריכים גם את הבסיס המחשבתי שמאחורי הכלים הללו, וחייבים להבין סטטיסטיקה וכיצד יש לקבל ההחלטות על סמך נתונים. הדיפלומטים החדשים צריכים לדעת להשתמש בכלים לניתוח ביג דאטה, ולהבין גם את הבסיס לפעולתם.

אבל הם לא יכולים לעצור כאן.

הדיפלומטים החדשים צריכים להבין שהעולם המודרני כבר אינו רץ על נפט, אלא על מידע. לפני עשור, רשימת חמש החברות בעלות שווי השוק הגדול בעולם כללה בעיקר חברות אנרגיה. כיום, חמש החברות בעלות שווי השוק הגדול ביותר בעולם הן אפל, גוגל, מיקרוסופט, אמזון ו… טנסנט הסינית ששולטת על תכנת WeChat, שהיא הגרסה הסינית של פייסבוק[1]. הצלחתן של כל אלו הגיעה במקור מיכולתן לקצור מידע מכל משתמש, ולנצל את המידע הזה כדי לספק שירותים מוצלחים יותר לאותו משתמש ולכל היתר. כיום, המידע מתחיל לשמש פונקציה אחרת: הוא מאפשר לחברות להריץ עליו בינות מלאכותיות, שלומדות מכל ביט וביט ומשתפרות ביכולותיהן. המנצחות בשוק הבינה המלאכותית והרובוטיקה תהיינה החברות והמדינות בעלות כמות המידע הגדולה ביותר, ולכן כולם נלחמים כיום על המידע – אפילו כזה שאינם יודעים עדיין מה לעשות איתו.

בספרי "השולטים בעתיד" כיניתי את ענקיות הרשת והמידע הללו בשם "כרישים", כמקבילה ללווייתנים המפורסמים של הובס. הן גדלות בקצב שלא היה כדוגמתו בהיסטוריה האנושית. פייסבוק גדולה יותר מכל מדינה, עם 2.2 מיליארד משתמשים שמבלים בה עשרות שעות בשבוע, ואוספת על כולם יותר מידע מכפי שהשטאזי היה יכול לאסוף אפילו על החשודים המרכזיים שלו. גוגל שולטת על תפישות המציאות של מיליארדי אנשים, ברמה שסטלין היה יכול רק לקנא בה. אם תקבצו ביחד את גוגל, מיקרוסופט, פייסבוק, אמזון ואפל, תקבלו שווי גדול יותר מכלכלת בריטניה כולה. למעשה, רק ארבע כלכלות לאומיות גדולות יותר מחמשת ענקיות הטכנולוגיה המאוחדות: ארצות-הברית, סין, יפן וגרמניה[2].

לחברות הטכנולוגיה הענקיות יש כוח עצום, והן מתחילות לחמוק מבין כבלי השליטה של הממשלות ולגבש לעצמן זהות משלהן בזירה העולמית. הן קובעות חלק מכללי השיח החדשים, וחשוב ליצור עמן קשרי עבודה הדוקים. אבל מי מנהל את החברות האלו? מהנדסים. אתם לא יכולים לדבר עמם כפי שאתם מדברים עם חברי כנסת, שמגיעים בעיקר מתחומי מדעים רכים יותר, אם בכלל. בהכללה, הם לא מדברים במילים, אלא במספרים ובנתונים, בהיגיון ובתמציתיות. חוקר העתידים פייר וואק התלונן לפני חמישים שנים שאם אתה מציג למהנדסים תרחישים בלי נתונים, הם רואים אותך כמיסטיקן ולא טורחים להקשיב בכלל. מה שמחזיר אותנו לנקודה חשובה: הדיפלומטים של העתיד צריכים לדעת לעבוד עם מידע.

מה שמסבך את העניין עוד יותר הוא שהחברות האלו עדיין מנסות להעמיד פנים שאין להן באמת כוח. מארק צוקרברג היה צריך שכל הקונגרס האמריקני ישב לו על הראש, עד שהבין שכן – יש אולי סיכוי קטן שפייסבוק השפיעה על הבחירות בארצות הברית במעשה או במחדל. המשמעות היא שלחברות האלו אין שגרירים או דיפלומטים, ועדיין צריך למצוא את הנתיבים המתאימים לתאם עמן פעולות, הסכמים והצהרות.

אחרון חביב, אני רוצה לגעת בהשפעותיה של הבינה המלאכותית על עבודת הדיפלומט. בקרוב מאד יתחילו להיות לנו בינות מלאכותיות שיוכלו לספק ייעוץ ברמה גבוהה לכל דיפלומט. הן יתרגמו אוטומטית שפות שונות, כולל התייחסות לקונטקסט, לסוגיות תרבותיות, וברמה גבוהה תמיד. הן יציעו לדיפלומט דרכים שונות להתנסח בהתאם לכללים המקומיים. והן אפילו יוכלו לקבל חלק מעבודת הדיפלומט בתקשורת עם הציבור ועם מקבלי ההחלטות: אוואטארים ממוחשבים יוכלו לשוחח עם בני-אדם במדינות שנמצאות תחת אחריותו של הדיפלומט.

שימו לב שאמרתי "מדינות" ולא "מדינה" תחת אחריותו של הדיפלומט. זאת מכיוון שהדיפלומטים החדשים יצטרכו לדעת לעשות מולטי-טאסקינג. ככל שהבינה המלאכותית תפחית את רמת המאמץ הנדרש כדי לתקשר עם הציבור ועם מקבלי ההחלטות בכל מדינה, כך נראה דיפלומטים שהופכים להיות "שרי חוץ" זעירים ומסוגלים לתקשר ישירות עם הציבור בכמה מדינות במקביל.

הבינה המלאכותית תשפיע על עבודת הדיפלומט באופן נוסף ופחות חיובי: היא תנתק את הקשר בין הציבור למציאות. ה- 'פייק ניוז' אליהן נחשפנו בשנים האחרונות היו רק קצה הקרחון. בינות מלאכותיות כיום מספקות את הכוח לכל אדם להפיק את סוג המידע שאנו כבני-אדם מגיבים אליו בצורה המיידית והחזקה ביותר: מידע ויזואלי. דיפ פייקס יוכלו בקרוב להראות כל מנהיג עולמי בכל מצב אינטימי לא-ראוי, ותוכנות עיבוד קולי יכולות לחקות קולות אינדיבידואליים באופן מושלם כבר היום. דרפ"א – הסוכנות למחקרי ביטחון מתקדמים של ארצות הברית – משקיעה כיום עשרות מיליוני דולרים בזיהוי סרטונים שנערכו, ואפילו הם כבר הודו שהזייפנים יהיו תמיד צעד אחד לפני המגנים. וכל מה שצריך זה סרטון משכנע אחד שישוחרר לרשת. גפרור אחד שמדליק שוטה או רשע במרכז הכפר, גם אלפי דיפלומטים לא יצליחו לכבות.

מפחיד? כמובן, אבל דווקא משום כך, וכדרישה אחרונה-חביבה, הדיפלומטים החדשים חייבים להיות מחוננים בחוש הומור. אין דרך אחרת להתמודד עם זמן בו דעות הציבור יכולות להשתנות מדי יום ומדי שעה, ובו הדיפלומטים צריכים להתמודד ישירות עם הציבור הרחב. ואם יש משהו שהציבור מעריך, הריהו חוש הומור. כפי שג'ורג' ברנארד שאו אמר – "אם אתה עומד לומר לאנשים את האמת, כדאי שתגרום להם לצחוק; אחרת, הם יהרגו אותך."

כך שנסכם: הדיפלומטים החדשים צריכים להיות אשפי מידע, עם אוריינות טכנולוגית וסטטיסטית מתקדמת. הם צריכים לדעת לדבר עם הציבור ולהגיב במהירות ברשתות החברתיות. הם חייבים להבין את הזירה העולמית החדשה, בה חברות ואפילו קהילות תופסות מעמד דומה לזה של מדינות, והמשאב עליו כולם נלחמים אינו נפט, אלא מידע. הם צריכים לדעת לעבוד עם בינות מלאכותיות – ונגדן. ומכיוון שקשה להאמין שאפשר להכשיר אנשים לעשות את כל זה יש-מאין, כדאי שהדיפלומטים החדשים ייגשו לכל התסבוכת עם חוש הומור טוב, כדי שלפחות לא יהרגו אותם.

[1] https://qz.com/1331995/walmart-is-the-worlds-biggest-company-apple-isnt-in-the-top-10/

[2] https://www.inc.com/associated-press/mindblowing-facts-tech-industry-money-amazon-apple-microsoft-facebook-alphabet.html

על עתיד הקונספירציות – ואיך אחד הבנקים הגדולים בארה"ב רימה את הציבור במשך שנים

על עתיד הקונספירציות – ואיך אחד הבנקים הגדולים בארה"ב רימה את הציבור במשך שנים

השבוע ספג וולס-פרגו, הבנק השלישי בגודלו בארצות הברית, קנס של 575 מיליון דולרים, לאחר שהודה שרימה באופן סיסטמטי מיליוני לקוחות לאורך 15 השנים האחרונות. מאות מיליוני הדולרים הללו יתווספו לקנסות אחרים שקיבל הבנק מאז 2016, ואשר מונים ביחד יותר משלושה מיליארד דולרים.

התובע הכללי בקליפורניה, קסווייר בסרה, הודיע כי –

"לקוחותיו של וולס פרגו סמכו על הבנק בכל הנוגע למחייתם, לחלומותיהם ולחסכונותיהם לעתיד… במקום להגן על לקוחותיו, וולס פרגו ניצל אותם והחתים אותם על מוצרים – מחשבונות בנק לביטוח – שלא רצו מעולם. זוהי הפרה בלתי-תאומן של אמון שמאיימת לא רק על הלקוחות שנסמכו על וולס פרגו, אלא על האמון במערכת הבנקאות שלנו. כפי שמצאנו בחקירתנו, התנהלות וולס פרגו הייתה לא-חוקית ומבישה."[1]

החקירה העלתה כי במהלך חמש עשרה השנים האחרונות, פתח הבנק 3.5 מיליון חשבונות ללא אישור, ורשם 528,000 לקוחות לשירותי הבנק באופן לא-ראוי על מנת לעמוד במטרות הגבוהות שהציבו המנהלים עבור העובדים. בין 2005 ל- 2016 רשם הבנק מיליוני לקוחות לפוליסות ביטוח רכב מבלי שיקבל את אישורם לכך. להזכירכם, מדובר בבנק השלישי בגודלו בארצות הברית, ומספר אחד-עשר בעולם, עם יותר משבעים מיליון לקוחות וכמעט שני טריליון דולרים בנכסים. במבט מהיר נראה שהבנק רימה מספר אנשים גדול יותר מכל אוכלוסיית ישראל, ככה, סתם.

(ניתן למצוא כאן את רשימת כל מקרי הרמאות בהם הואשם וולס פרגו[2])

wells fargo.jpg

התרשים במקור מהוול סטריט ז'ורנל[3]

מה אפשר ללמוד מהפרשה?

לקחים מן העבר

קודם כל, מדובר בתזכורת לכך שקונספירציות – קנוניות כנגד הציבור מצד 'החברות הגדולות' או גופים ממשלתיים – קיימות בהחלט. זה, כמובן, לא מפתיע. חברות וממשלות הינן ארגונים ריכוזיים, המסוגלים להפעיל מאמץ מרוכז ומתוכנן-היטב על מנת להשפיע על הלקוחות ועל האזרחים בדרכים שאינן ראויות.

שנית, היא מראה לנו שבסופו של דבר – אם תסלחו לי על הקלישאה – הצדק מנצח. אלא שכמובן שהמציאות מורכבת קצת יותר. "הצדק מנצח" רק לאחר שהאמת יוצאת לאור, ורק אם קיימים מנגנונים חוקיים הולמים שיכולים לפעול כדי להעניש את הפושעים.

בנקודה זו ראוי להעלות באוב מחקר קטן ומעניין מ- 2016, של הביולוג וחוקר הקונספירציות דיוויד רוברט גריימס, שעקב אחר קונספירציות שהתרחשו באמת בהיסטוריה. קונספירציות אלו כוללות, למשל, את הניסויים ארוכי-השנים שערכה ממשלת ארצות הברית בחולי עגבת כהי-עור, מבלי שגילתה להם שניתן לרפא את מחלתם באופן יעיל באמצעות התרופות החדישות ביותר[4]. או את ניסיונן של חברות הטבק להסתיר מהציבור את הממצאים המעידים על הסכנות הבריאותיות של העישון, ולהפיץ ממצאים כוזבים סותרים. הקונספירציות הללו השתחררו בסופו של דבר לאוויר העולם, מכיוון שרבים בתוך החברות ובממשל היו מודעים לקיומן. בקונספירציית העגבת, למשל, לקחו חלק 6,700 בני-אדם שהיו מעורבים בתהליכים הרפואיים שעברו החולים. מספיק היה אדם אחד ישר-הליכות שיפתח את פיו ו- 'יזמר' לעיתונות, כדי שהפרשה תיחשף לעיני כל.

לאחר שסקר מספר קונספירציות שכאלו מן העבר, גריימס יצר מודל – פשטני מאד, אמנם, אבל בהחלט מעניין כבסיס לחשיבה על הנושא – שמראה שככל שישנם יותר אנשים המעורבים בקונספירציה מסוימת, כך עולה הסיכוי לחשוף את הקונספירציה במהירות. אם, למשל, הייתה קיימת באמת תרופת פלא לסרטן, הרי שמאות-אלפי העובדים של חברות התרופות הגדולות היו שמים לב לכך ש- 'משהו מסריח כאן'. חוקרים היו נאלצים לשתוק – לעתים גם בעוד אהוביהם מתים מאותה מחלה. עובדים היו שמים לב לכך שקיימים מחקרים עם תוצאות חיוביות בנוגע לאותו חומר פלאי, שנגנזו עמוק במאגרי המידע של החברות. הדוברים היו צריכים לדעת שעליהם להתעלם מאזכורים של אותו חומר בתקשורת, וכן הלאה. בסך הכל, בערך 714,000 עובדים בשמונה חברות התרופות הגדולות בעולם היו צריכים לעצום עיניהם באופן קולקטיבי. לפי החישובים שערך גריימס, הקונספירציה במקרה זה הייתה צריכה להיחשף לציבור ולקבל אישוש מצד מערכת החוק תוך 3.17 שנים בלבד.

מספרי האנשים שהיו צריכים להיות מעורבים בכמה מהקונספירציות-לכאורה הידועות ביותר כיום, לפי חישוביו של גריימס.

מה לגבי וולס פרגו? בעשור האחרון ניתן היה למצוא בבנק בערך 265,000 עובדים במשרה מלאה. לפי חישוביו של גריימס, קונספירציה זו הייתה נחשפת תוך שנים ספורות – כפי שאכן אירע.

אני לא מנסה לטעון שהמודל של גריימס מושלם. הוא אינו כולל התייחסות למספר רב של גורמים המשפיעים על חשיפת קונספירציות: כוחו של המחוקק, יכולתם של בתי-המשפט לכפות את החוק על החברות הגדולות ועל הממשל, כוחה וחופש פעולתה של העיתונות, האוריינות הטכנולוגית-מדעית של הציבור, ועוד גורמים רבים אחרים. אבל ברור שגריימס צודק בעניין אחד לפחות: ככל שקיימים אנשים רבים יותר המעורבים בקונספירציה מסוימת, כך גדל הסיכוי לחשיפתה תוך זמן קצר יותר.

וכל זה מוביל אותנו לשאלה אחרת: מה עומד לקרות בעתיד?

הקונספירציה שבאוטומציה

אנו רואים שכיום, חברות מתחילות להשתמש באלגוריתמים כדרך להוציא לפועל החלטות מסוימות. האלגוריתם של פייסבוק, למשל, קובע האם תראו את הפוסט הזה או לא. האלגוריתם של גוגל מחליט האם תיחשפו לבלוג שלי בעמוד הראשון של החיפוש, או בעמוד העשירי אליו איש לא מגיע. חברות המידע צריכות להעסיק מספר מזערי של עובדים ביחס להשפעותיהן. ווטסאפ, למשל, לפני שנרכשה ע"י פייסבוק, העסיקה רק חמישים וחמישה עובדים במשרה מלאה – והצליחה עדיין לספק שירות לכמעט חצי-מיליארד לקוחות. גוגל מעסיקה 85,000 עובדים במשרה מלאה, שמאפשרים לה לספק תשובות ל- 3.5 מיליארד חיפושים מדי יום. חברות מן העבר שהיו מספקות שירותים בסדרי גודל דומים, היו מעסיקות מאות-אלפי עובדים. האוטומציה מאפשרת לחברות לצמצם את מספר העובדים שלהן באופן דרמטי – ועדיין להגיע לרמת השפעה דומה על החברה.

רבים מעובדי הבנקים כיום כבר הפנימו שזמנם קצוב, וכי הם בדרך להיות מוחלפים באלגוריתמים ובבינות מלאכותיות. זוהי התפתחות שאמורה לשמח את הלקוחות, שיזכו לשירות מהיר ויעיל יותר, אך היא צריכה גם להדאיג אותנו כחברה, מאחר והיא פותחת צוהר לקונספירציות שלא יאותרו מבעוד מועד. בבנקים של העתיד, בהם יעבדו רק כמה מאות אנשים שיספקו שירות למיליונים, יוכלו המתכנתים לקבל הוראה ישירה ממנהל הבנק להתאים את האלגוריתמים כך שירמו את הלקוחות – מבלי שהמידע על כך יגיע לאוזני הציבור.

ייתכן שאנו רואים את הכניסה לעתיד זה כבר היום. בשנת 2015 גילתה הסוכנות להגנת הסביבה בארצות הברית כי חברת פולקסווגן הטמיעה ברכביה אלגוריתם פשוט, שנכנס לפעולה רק כאשר חוקרי הסוכנות בחנו האם הרכב עומד בסטנדרטים המחמירים של מניעת זיהום אוויר. האלגוריתם היה משנה את פעולת הרכב כך שזה היה משחרר פחות גזים מזהמים – אבל רק במהלך המבחן. ברגע שהרכב היה חוזר לכביש, פליטת הגזים המזהמים שלו הייתה מזנקת עשרות מונים[5].

הקונספירציה של פולקסווגן אמנם נחשפה בסופו של דבר, אך היא לא התגלתה 'מבפנים'. השמועות אודותיה לא הגיעו מעובדי החברה, אלא רק בעקבות חשדותיהם של חוקרים אמריקניים, שהתעוררו לאחר שגילו שהרכבים פועלים באופן שונה על הכביש. זוהי דוגמה לדרך בה שילובם של אלגוריתמים ובינות מלאכותיות (בסיסיות ככל שיהיו) יכול להוביל לקונספירציות מוצלחות יותר שיפעילו גופים ריכוזיים כנגד הציבור.

חוץ מזה, מרקיז, הכל בסדר

לעת-עתה אנו יכולים להיות מרוצים מכך שוולס פרגו נחשפה במערומיה, וסופגת כאמור קנסות בשווי של מיליארדי דולרים. עם זאת, אנו חייבים להיות מודעים לכך שהאוטומציה הגוברת תגדיל את הסיכון לקונספירציות, ולהתחיל להיערך בהתאם. וולס פרגו דיברה רבות כנגד הביטקוין והזהירה (בצדק) שהמטבע הדיגיטלי אינו מתאים עדיין לדרישות השוק. אבל כדאי לזכור שדווקא מהפכת הבלוקצ'יין (הטכנולוגיה שמאחורי הביטקוין) יכולה להוביל לשקיפות גדולה הרבה יותר ולאפשר לנו לחשוף שחיתויות וקונספירציות בלחיצת כפתור. ייתכן בהחלט שהדרך היחידה להתמודד עם קונספירציות העתיד תהיה, פשוט, באמצעות טכנולוגיות העתיד.


 

אם עתיד הקונספירציות מעניין אתכם, אתם יכולים לקרוא בהרחבה בנושא בספרי האחרון – "השולטים בעתיד: הון-שלטון, טכנולוגיה, תקווה". קישור כאן.

 

קישורים –

[1]          “Attorney General Becerra Recovers $148.7 Million for California in Settlement with Wells Fargo Over Deceiving Consumers,” State of California – Department of Justice – Office of the Attorney General, 28-Dec-2018. [Online]. Available: https://oag.ca.gov/news/press-releases/attorney-general-becerra-recovers-1487-million-california-settlement-wells-fargo. [Accessed: 01-Jan-2019].

[2]          E. Schaal, M. Articles, and 2018 February 10, “All the Ripoffs and Scams Wells Fargo Pulled on Customers Over the Years,” The Cheat Sheet, 09-Feb-2018. .

[3]          E. Glazer, “Wells Fargo to Pay States About $575 Million to Settle Customer Harm Claims,” Wall Street Journal, 28-Dec-2018.

[4]          “Tuskegee Study – Timeline – CDC – NCHHSTP,” 03-Oct-2018. [Online]. Available: https://www.cdc.gov/tuskegee/timeline.htm. [Accessed: 04-Jan-2019].

[5]          C. Coleman, “VW could face long legal nightmare – BBC News,” BBC News, 24-Sep-2015. [Online]. Available: https://www.bbc.com/news/business-34352243. [Accessed: 12-Dec-2018].

רכב משלוחים אוטונומי נכנס לשימוש סדיר באריזונה

רכב משלוחים אוטונומי נכנס לשימוש סדיר באריזונה

ממש החודש, רגע לפני ש- 2018 מגיעה לסופה, החלו רכבים ללא-נהג לעשות משלוחים בכבישי אריזונה.

כדי להבהיר: לא מדובר ברכבים בעלי צורה רגילה. עד עתה, רכבים ללא-נהג רגילים נכנסו לשימוש רק כשמאחורי ההגה יושב בייביסיטר אנושי, ומוכן ללחוץ על הברקס ברגע שהרכב עושה טעות. אלא שברכבי המשלוחים האוטונומיים החדשים, אין בכלל מקום לנהג האנושי. למעשה, הם קטנים כל-כך שבן-אדם לא יכול בכלל להיכנס לתוכם. הם נראים כמו שילוב של קופסה גדולה ולבנה על גלגלים, עם זוג דלתות מתרוממות שנפתחות כדי לאפשר ללקוחות גישה למצרכים שהרכב הביא להם[1].

הרכב החדש קטן יותר מאוטו רגיל, וקל הרבה יותר. הוא מתגלגל בכבישים במהירות של 40 קמ"ש, ולכן מסוכן הרבה-פחות להולכי הרגל ולרכבים האחרים במקרה של תאונה. וגם אם תקרה תאונה, כבר ציינו שהוא קל יותר ואמור לגרום פחות נזק בעת התנגשות. ומכיוון שאין בו נוסעים אנושיים, לא צריך לדאוג להם בכלל.

הסיפור הזה מניב שני לקחים מרכזיים מעניינים.

הלקח הראשון הוא שחברות שרוצות להצליח בשוק החדש, חייבות לשקול היטב לאיזה מהקונספטים הקיימים הן רוצות להמשיך להיצמד. אנו רואים שהחברה מאחורי הרכב האוטונומי החדש – נורו (Nuro) – נוקטת באסטרטגיה שונה מאד מזו של חברות הרכבים האוטונומיים הגדולות יותר, כמו וויימו (Waymo) וכמו טסלה. וויימו, למשל, מנסה לקחת רכבים בצורתם הנוכחית ולהפוך אותם למוניות אוטונומיות. התוצאה היא שרכביה של וויימו כבדים, מגושמים, ובזבזנים באנרגיה מאחר והם לוקחים רק נוסע אחד או שניים בכל פעם, למרות שהרכב המקורי מתוכנן לשאת לפחות ארבעה נוסעים פלוס נהג. המחוקק חושש (בצדק) ממה שיקרה לנוסעים ברכבים הללו בעת תאונה, ולכן דורש מוויימו ודומותיה לעמוד בסטנדרטים גבוהים במיוחד של בטיחות. עד שהרכבים האוטונומיים המלאים יוכלו לעמוד בסטנדרטים הללו, תעבור עוד שנה אחת לפחות (וכנראה שיותר). וכך, ההיצמדות של וויימו לצורת הרכב הקדומה מעכבת את החדירה של הרכבים שלה לשוק.

נורו פועלת יותר בחכמה, ומתאימה את הרובוטים שלה רק למשימה המצומצמת שהם אמורים למלא. הרכבים האוטונומיים של נורו, כאמור, קטנים, קלים ובטוחים יותר. הם יכולים רק לשנע משלוחים, אבל לכך בדיוק הם נועדו, וזה בסדר גמור. כאשר תחליט נורו להתרחב גם לשינוע פיצות, למשל, או תרופות, היא תוכל להנדס את הרובוטים שלה בהתאם לצרכים החדשים. אבל עד אז, הרובוטים שלה כבר יצברו שפע של ניסיון על הכביש.

וכאן מגיע הלקח החשוב השני: בתחום הבינה המלאכותית, קיים יתרון גדול לראשונים[2]. למה? מכיוון שהבינה המלאכותית המודרנית מבוססת בחלקה הגדול על רשתות עצבים מלאכותיות, ואלו מבוססות על מידע שהן מקבלות. ככל שמזרימים להן יותר מידע, כך הן יכולות לקבל החלטות מדויקות ומוצלחות יותר. המשמעות היא שהחברה שתביא ראשונה את הרכבים האוטונומיים שלה לכבישים, תקבל יתרון גדול על האחרות, מכיוון שהרכבים האוטונומיים הללו יאספו שפע של מידע שישמש לאימון הבינות המלאכותיות ולשיפור ביצועיהן.

זוהי, אגב, הסיבה לכך שטסלה פתחה את האפשרות לציבור להשתמש באפשרות 'הנהג האוטומטי' שלה, על אף שהוא עדיין רחוק מאד מלהיות מושלם. היא רוצה לאסוף מידע שיעזור לשפר אותו, על מנת שתוכל להתחרות בחברות אחרות שיפתחו רכבים אוטונומיים משלהן. וזוהי גם הסיבה שנורו מנסה לשחרר לכבישים את הרובוטים האוטונומיים שלה, למרות היכולות המאד-מוגבלות שלהם: הם אמורים לאסוף מידע, ובכך לעזור להכשיר את הדור הבא של הרובוטים האוטונומיים שיתניידו על הכבישים.

כך שאפשר רק לאחל לנורו בהצלחה בפיתוח החדש. ככל שיהיו יותר רכבים אוטונומיים על הכביש, כך הם ילמדו מהר יותר ויקדמו את כולנו לעתיד של רובוטים על הכבישים, שיגיע מהר עוד יותר מכפי שכולנו צפינו (טוב, נו, חוץ ממני, כי אני עתידן).

 


 

[1] https://arstechnica.com/cars/2018/12/kroger-owned-grocery-store-begins-fully-driverless-deliveries

[2] https://en.wikipedia.org/wiki/First-mover_advantage

מכונות הסיוטים: כשבינות מלאכותיות מתוכנתות לפסיכופתיה

מכונות הסיוטים: כשבינות מלאכותיות מתוכנתות לפסיכופתיה

למעבדות המדיה של MIT יש מטרה נעלה: לפתח חזונות חדשים בנוגע לדרך בה בינה מלאכותית ובני-אדם ישתפו פעולה בעתיד.

לרוע המזל, הם בחרו להגשים את המטרה באמצעות פיתוח בינה מלאכותית פסיכופתית.

זוהי, כמובן, אינה המילה הנכונה לתיאור אותן בינות מלאכותיות, למרות שניתן לראות את התיאור הזה למחקר החדש בכל רחבי המדיה ברשת. המילה "פסיכופת" מתארת מצב שאינו נורמטיבי בקרב בני-אדם: דרך יוצאת-דופן לעיבוד מידע במוח האנושי. לבני-אדם מן השורה יש ראיית עולם בסיסית שמשותפת לכולנו. אנו מבינים מהי "אהבה" (או לפחות "התאהבות"), מהו "רצח", מהי "אמא" ומהם הרגשות שאנו חשים כלפיה. לעתים אנו מרחיבים את המושגים הללו מעבר למשמעותם המקורית – כך, למשל, חלק מהצמחוניים עשויים להגדיר הרג בעלי-חיים כ- "רצח". אבל גם אז, המושג הבסיסי משמר את משמעותו המקורית. בסופו של דבר, בבסיסנו אנחנו כולנו צאצאים של אותו שבט קופי-אדם שהתפתח לשמר לכידות חברתית.

אלא שלבינה מלאכותית אין את ההטיה האוטומטית הזו, כפי שמתעקשות מעבדות המדיה של MIT להראות שוב ושוב.

אני לא מגזים – במהלך שלוש השנים האחרונות, שחררו המעבדות מספר דוגמאות של מנועי בינה מלאכותית שלא-בדיוק עושות טוב לבני-האדם. הראשונה, בשנת 2016, הייתה "מכונת הסיוטים", שערכה מחדש תמונות כדי לעורר תחושות של אימה ופחד בבני-אדם. פרצופים אנושיים שנערכו על-ידי התוכנה נראים – כצפוי – מסויטים ומזעזעים. התוכנה עורכת תמונות נוף פסטורליות-לשעבר עד שהן מזכירות בתי-מטבחיים ומעוררות צמרמורת וחלחלה בקרב הצופים.

image-alt

מקור: מעבדות המדיה של MIT[1].

אבל החוקרים לא עצרו כאן. בשנת 2017 הפיקו המעבדות את "שלי" – מנוע בינה מלאכותית הכותב סיפורי אימה קצרים. שלי היא רשת עצבים מלאכותית שעברה על מספר עצום של סיפורי אימה קצרים מהרשת החברתית רדיט (Reddit), ולמדה איך להפיק שברי-סיפורים כאלו משלה. היא כתבה יותר ממאתיים סיפורי אימה קצרים, בסיוע בני-אדם מהרשת שרצו – מסיבה שלא לגמרי ברורה לי – לעזור לה להתפתח. הנה חלק קצר מאחד מהסיפורים שהיא כתבה, ביחד עם משפטים שתרמו בני-האדם בטוויטר. (החלקים ששלי כתבה בעצמה מופיעים בהדגשה)

"התחלתי לנשום שוב. השרשראות בקרסולי זעו והצל המשיך לבהות. קריאה שקטה ומספר סימני חיים החלו להיווצר. לא היה לי מושג. גידלתי אותו. הייתי חייבת לעשות משהו. הייתי חייבת לראות אותו. הייתי חייבת. עמדתי לגלות. עמדתי להתרחק מהדבר הזה. לא יכולתי לתת לו להשיג אותי. האדרנלין שלי החל לזרום ולא יכולתי לעצור את עצמי. אבל השרשראות! השרשראות! איך הייתי אמורה לשחרר את עצמי? התחלתי להשתגע. לא יכולתי לזוז. היצור היה שם איתי. מה הוא עשה?"[2]

וכן הלאה וכן הלאה. שלי צריכה להשתפר עוד הרבה לפני שתצליח למכור ספרים כמו סטפן קינג, אבל הרעיון הבסיסי, לפחות, ברור: אפשר לגרום לבינה מלאכותית לכתוב באופן שייגע ברגשות ובפחדים העמוקים והקמאיים ביותר שלנו.

מאוחר יותר באותה שנה, ניסו לראשונה החוקרים ליישם את הרעיונות האלו לשימוש מעשי בפרויקט "אמפתיה עמוקה". הם אימנו רשתות עצבים מלאכותיות על תמונות של איזורי אסון, ואז דרשו מהבינה המלאכותית לערוך מחדש תמונות של ערים בריאות ושוקקות-חיים. התוצאה נראית – כצפוי – מזעזעת: אתם יכולים לראות את עיר מגוריכם חרבה ומרוסקת. וזו בדיוק הייתה כוונתם של החוקרים, שרצו לסייע לתושבי העולם המערבי להתחבר ברגשותיהם לערים ולמדינות שחוו אסונות טבע ומלחמות.

כיצד הייתה נראית בוסטון לאחר אסון? הנה דוגמה, באדיבות "אמפתיה עמוקה"[3].

ועכשיו שעברנו על כמה מפרויקטי העבר של המעבדות, אתם יכולים להבין מאין צמחה הבינה המלאכותית החדשה שלהן: נורמן, על שם הפסיכופת מסרט האימה "פסיכו" של אלפרד היצ'קוק.

בדומה לבינות המלאכותיות האחרות שהצגתי עד כה, גם נורמן מבוסס על רשת עצבים מלאכותית, וגם הוא למד מאוסף דוגמאות שלא ממש היינו רוצים לחוות בחיים האמיתיים. נורמן הורץ על שרשור ידוע-לשמצה ברשת החברתית רדיט, בו כותבים המשתמשים רשמים ופרשנויות אודות טיבו של המוות. לאחר מכן, הוצגו בפני נורמן סדרה של כתמי רורשאך, והוא סיפק תיאור עבור כל תמונה. התיאור של נורמן הושווה לזה של רשת עצבים מלאכותית שאומנה על מאגר מידע גדול ומגוון הרבה יותר[4]. שלא במפתיע, נורמן פירש כל כתם רורשאך באופן מטריד ביותר. כתמים תמימים-למראה הזכירו לו גברים הנורים למוות למול נשיהם הצורחות, נשים הרות הנופלות למותן מבניינים גבוהים, ואנשים הנתפסים על-ידי מכונה לעיבוד בצק ונמשכים לתוכה. הבינה המלאכותית שלמדה ממגוון דגימות מגוון יותר, לעומת זאת, ראתה בתמונות הללו רק "אגרטל פרחים, ציפור קטנה, וזוג אנשים העומדים זה לצד זה."

norman.jpg

מקור: מעבדות המדיה של MIT[5].

מטרתו של נורמן אינה לגרום לנו לחשוב מחדש על פרשנויות אנושיות לכתמי רורשאך, אלא להדגיש נקודה קריטית בהבנתנו את הבינה המלאכותית: אנחנו יכולים ללמד אותה, לטוב ולרע, כיצד לפרש את הקלט שהיא מקבלת. הבינות המלאכותיות החדשות – אלו המבוססות על רשתות עצבים מלאכותיות – חייבות להתבסס על ניסיון העבר. אם המתכנתים מצמצמים את חומר הלימוד אליו היא נחשפת, התוצאה בהכרח היא בינה מלאכותית בעלת פרשנות מעוותת ולוקה-בחסר.

אפשר להשוות את הבינות המלאכותיות החדשות לילד אנושי. ילדים הגדלים בתרבויות ליברליות ופתוחות, בהן הם לומדים וחווים רעיונות שונים, יפתחו ראיית עולם רחבה יותר. הם יוכלו לפרש מצבים חדשים בדרכים שונות, ולשקול פתרונות שונים לכל בעיה (העובדה שהם יכולים לעשות זאת, אינה אומרת כמובן שכך אכן יעשו). לעומתם, ילדים הגדלים בתרבויות מסוגרות וקיצוניות, המאמינות ברעיון אחד גדול מעל לכל היתר, יפרשו כל מצב חדש דרך עדשותיו של אותו רעיון. וכפי שאמר אברהם מסלו –

"אם יש לך רק פטיש, אתה רואה כל דבר כאילו היה מסמר."[6]

זוהי תובנה חשובה לעתיד. ככל שיגדלו יכולותיהן של הבינות המלאכותיות, אנו צפויים לראות אותן מתפשטות למקומות ולשימושים רבים ושונים. הן יקחו חלק ביצירת סרטים, במערכות הבריאות ואפילו במערכות המשפט, הצדק והשלטון. הן יפתחו אביזרים טכנולוגיים חדשים, ימליצו על העונשים הראויים ביותר לכל פושע ויגבשו הצעות חוק לפתרון בעיות קיימות או עתידיות. הן יעשו כל זאת בהתאם לחומר הלימוד שקיבלו, ובכל מדינה ותרבות שתפתחנה בינות מלאכותיות שכאלו, יחונכו הבינות לפי מספר רעיונות שייבחרו בקפידה כדי לשרת את הנורמות הקיימות. בתרבויות דתיות ומסוגרות, יפותחו בינות מלאכותיות שיוכלו לפרש את העולם רק דרך עדשות הרעיונות המרכזיים של אותן דתות.

עתיד שכזה צריך להפחיד את כולנו. הדתות הראשיות כיום התפתחו כטכנולוגיה חברתית – ככלי לשימור לכידות חברתית, לדרבון אנשים להפגנת אלטרואיזם בתוך הקבוצה, ולקיבוץ אנשים רבים ביחד תחת שלטון ריכוזי אחד. הן הצליחו היטב במטלות הללו, אך הן נושאות עמן 'מטען עודף' רב שצברו לאורך מאות רבות של שנים: איסורים שונים ומשונים בתחום המזון, למשל, או קסנופוביה – שנאת זרים. מפחיד לחשוב על בינות מלאכותיות מתקדמות שירכשו הרגלי חשיבה ואמונה שהיו רלוונטיים ומועילים לפני אלפיים שנים – אך היום עומדים בניגוד לדרכי חשיבה מודרניות יותר שמדגישות את זכויות האדם, את המוסר האוניברסלי ואת שיתוף הפעולה בין עמים שונים.

כמובן, בינות מלאכותיות שמפותחות בעולם המערבי הליברלי יקבלו שפע של חומר לימודי מכל הסוגים. אלא שגם זה לא לגמרי מספיק. בכל דעה בכל נושא קיימים 'מיתוסים' – סיפורים שמסבירים את העולם, ושברור לכולם שצריך לפעול לפיהם, גם אם הם אינם מוגדרים היטב או בקול רם. קחו למשל את סיפורי ג'ורג' הסקרן, על קוף סקרן שנכנס לצרות פעם אחר פעם בשל סקרנותו – אך מצליח תמיד להפיק את המיטב מהמתרחש עד סוף הסיפור. ה- 'מיתוס' כאן הוא שסקרנות היא תכונה מועילה ושימושית, שמסייעת בסופו של דבר לבעליה. באופן דומה, כל ילדה שצפתה בסרטי וולט דיסני באמצע השני של המאה העשרים, למדה את המיתוס שנשים צריכות להיות חינניות, חטובות, עם ריסים ארוכים ושמלות ארוכות. וכמובן, שהן צריכות גיבור שיציל אותן.

במילים אחרות, בכל חומר קריאה אנושי קיימים רעיונות מתחת לפני השטח, שלעתים איננו שמים אליהם אפילו לב – אך הם משקפים את תפישת העולם הלא-מודעת שלנו. בינות מלאכותיות שיעברו על כל החומרים הללו יזהו גם הן את המיתוסים התת-הכרתיים המקובלים בתרבות, ויאמצו אותם בהכרח.

מכיוון שכך, הבעיה כפולה: איננו צריכים רק לבחור בקפידה את החומרים שאנו נותנים לבינה המלאכותית לקרוא, אלא גם לנסות להבין בעצמנו מה המסרים החבויים בסיפורים המקובלים בחברה – והאם אנו רוצים להנציח את אותם מסרים.

זוהי משימה קשה, אבל כדאי שנתחיל להתייחס אליה ברצינות. מכיוון שאם לא נעשה זאת, הרי שהבינות המלאכותיות יעשו אותה עבורנו.


אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית והמוח האנושי בספריי המדריך לעתיד ו- "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

קישורים:

[1] http://nightmare.mit.edu/#portfolioModal31

[2] http://stories.shelley.ai/chains/

[3] https://deepempathy.mit.edu/

[4] http://cocodataset.org/#home

[5] http://norman-ai.mit.edu

[6] https://en.wikipedia.org/wiki/Law_of_the_instrument

רשת העצבים המלאכותית שפיתחה מבנים ביולוגיים הקיימים במוח אנושי

רשת העצבים המלאכותית שפיתחה מבנים ביולוגיים הקיימים במוח אנושי

בחודש האחרון פרסמו חוקרים בחברת דיפ מיינד – אחת החברות המתקדמות ביותר בעולם בפיתוח בינה מלאכותית – מחקר חדש בכתב-העת המדעי היוקרתי נייצ'ר, אודות רשת עצבים מלאכותית שפיתחה מבנים הדומים לאלו הקיימים במוח ביולוגי[1].

כדי להסביר במה מדובר, צריך קודם לפרט קצת אודות רשתות עצבים מלאכותיות. מדובר בסימולציות המורצות במחשב, ובהן מיליוני מרכזי חישוב פשוטים המתקשרים זה עם זה, בדומה לדרך בה תאי העצבים במוח מתקשרים אחד עם השני. כל אחד מהתאים במוח הביולוגי הוא מכונה פשוטה יחסית ונטול-בינה משל עצמו, אך פעולתם המתואמת של מיליארדי תאי עצב ביחד יוצרת מחשבה, רגש ואפילו מודעות עצמית. באופן דומה, כאשר מיליוני מרכזי חישוב מתקשרים ביחד ומעבירים מידע אחד לשני במחשב, ניתן לאמן אותם לבצע משימות שמוחות ביולוגיים מותאמים במיוחד עבורן: עיבוד תמונה, למשל, או ניווט במרחב.

ברור שיש דימיון בין דרך הפעולה של רשתות עצבים מלאכותיות ובין מערכות עצבים ביולוגיות, אך חוקרי מוח וחוקרי בינה מלאכותית כאחד מבינים גם את ההבדל הגדול בין השתיים. תאים במוח, למשל, יכולים להגיב למגוון רחב של שליחים עצביים – חומרים כימיים המופרשים על-ידי תאי עצב אחרים. רשתות עצבים מלאכותיות, לעומת זאת, מעבירות רק מסרים פשוטים בין ה- 'תאים' הממוחשבים, אך עושות זאת במהירות שגדולה בהרבה מקצב מעבר המסר האיטי יחסית לאורך תאי העצב הביולוגיים. יש דימיון, בוודאי, אך השוני גדול עד מאד.

זו, כנראה, הסיבה שרבים כל-כך הופתעו כאשר רשתות עצבים מלאכותיות החלו לאחרונה לפתח מבנים שאנו מכירים ממוחות אנושיים.

במוחות אנושיים – ובאופן כללי במוחותיהם של בעלי-חיים – ניתן למצוא מבנים ייחודיים של תאי רשת. תאי עצבים אלו מסודרים במשושים, ו- 'נדלקים' לפעולה בהתאם למיקומו של האדם. כאשר אני הולך ימינה, מופעלים תאי רשת מסוימים, וכאשר אני הולך שמאלה – מופעלים תאי רשת אחרים. אפשר לומר כמעט שתאי הרשת יוצרים מפה מנטלית – מעין GPS פנימי – באמצעותה מסוגלים בעלי-חיים לפענח את מיקומם, ולפתור בעיות הקשורות בתנועה במרחב. תאים אלו מאפשרים לנו לציית, אפילו בעיניים עצומות, להוראות בסגנון – "צעד חמישה צעדים קדימה, פנה תשעים מעלות שמאלה ואז המשך ישר עוד שלושה צעדים אל המטמון."

במקור מ- DeepMind.

קיומם של תאי הרשת נחשף בעשרים השנים האחרונות, ומגליהם זכו בפרס נובל ברפואה בשנת 2014[2]. הם מהווים דוגמה ניצחת לפרדוקס פולניי – "אנו יודעים יותר מכפי שאנו יכולים להסביר."[3] אנו ניחנים אמנם במערכות ניווט משוכללות המתבססות על תאי הרשת, אך הן מאפשרות לנו להגיע לתובנות אינטואיטיביות, מבלי שנוכל להסביר אותן. אם נושלך, למשל, לחדר מבולגן, נוכל לזהות בו דרכים קצרות ומהירות להגיע ליעד, בזמן שבינות מלאכותיות משוכללות יצטרכו לתכנן מספר נתיבי תנועה שונים לפני שיבחרו בדרך הקצרה ביותר – מטלה מייגעת שמבזבזת משאבי חישוב יקרים.

אבל מה אם הבינות המלאכותיות המשוכללות והפופולריות ביותר כיום – אלו הנסמכות על רשתות עצבים מלאכותיות – היו ניחנות בעצמן בתאי רשת?

כדי לבדוק את השאלה, הריצו החוקרים בחברת דיפמיינד (DeepMind) רשת עצבים מלאכותית, ודרשו ממנה להשלים בהצלחה מטלות ניווט בסביבות וירטואליות. הם גילו שבתוך הרשת מתפתחים באופן ספונטני אזורים הפועלים באופן דומה לתאי הרשת. תאי רשת וירטואליים אלו אפשרו לבינה המלאכותית לפתור בהצלחה חידות מבוכים פשוטות במהירות וביעילות – ולפי החוקרים, "ברמה על-אנושית". הבינה המלאכותית "התעלתה על יכולותיהם של שחקנים אנושיים מקצועיים, והפגינה את סוג הניווט הגמיש המקושר בדרך-כלל עם חיות, תוך שהיא בוחרת בנתיבים חדשים ועושה קיצורי-דרך כאשר אלו מתאפשרים."[4]

במקור מ- DeepMind.

כל זה טוב ויפה, אבל במבט ראשון לא נראה מרשים במיוחד. הרי רבים מבינים כבר שבינות מלאכותיות מתחילות להגיע לרמות על-אנושיות במטלות חישוביות רבות. מה שונה בתגלית הנוכחית?

התשובה כפולה: ההבנה שייצוגים וירטואליים של תאי רשת מסייעים לבינות המלאכותיות לפעול, והופעתן הספונטנית ברשתות עצבים מלאכותיות, יכולות לעזור לנו לפענח גם את פעילות המוח האנושי עצמו. אבל יותר מכך – היא עשויה לרמז אודות הדרך לעתיד הרשתות העצבים המלאכותיות.

נתחיל בקביעה הראשונה. המוח, מבחינות רבות, מהווה עדיין קופסא שחורה. אנו מבינים, באופן גס וכללי, את אופן פעולתם של תאי העצב השונים ואת הדרכים בהן הם מתקשרים בינם לבין עצמם. אנו יודעים כי אתרים שונים במוח אחראים על מטלות שונות: ההיפוקמפוס אחראי על פיתוח זכרונות לטווח ארוך, למשל, בעוד שהאמיגדלה קשורה לוויסות הרגשות ולקבלת החלטות. אנו מבינים כי סך-כל הפעילות המוחית יוצרת חשיבה ומודעות עצמית. אבל עדיין אין לנו מודל מדעי ברור בנוגע לדרך בה זרימת המידע במוח – מחשב-על במשקל קילו וקצת, עם צריכה אנרגטית נמוכה להפליא – מאפשרת לכל הדברים הללו להתרחש. אנו מתקשים לערוך ניסויים ברזולוציה הנדרשת – ברמה התאית – כדי להבין את דרך פעולתו של המוח.

רשתות העצבים המלאכותיות מאפשרות לנו, לראשונה, להתחקות אחר דרך פעולתו של המוח האנושי. איני מנסה לטעון שהן מהוות סימולציה מושלמת של מוחות ביולוגיים. האמת היא שהן שונות מאד מבחינות רבות ממוח ביולוגי, אבל העובדה היא שייצוגים וירטואליים של תאי רשת התהוו ספונטנית ברשתות עצבים מלאכותיות. ולא זאת בלבד, אלא שייצוגים אלו תומכים בפעילות דומה לזו של תאי רשת ביולוגיים. ברור לנו שהמוח 'רץ' על מערכת חישובית בעלת דימיון מובהק לרשתות עצבים מלאכותיות, וכל תיאוריה שנמצא עבור דרך פעילותן של הרשתות העצביות שבמחשב, תהיה בעלת השלכות גם על הבנתנו את המוח עצמו. לכן, הרצת סימולציות של אזורים במוח ברשתות עצבים מלאכותיות, תעזור לנו לפענח את דרך פעולתם של מבנים ואזורים במוח האנושי.

אם קביעה זו תוכח כנכונה, הרי שיש לה משמעות עצומה לחקר המוח. הפיזיקאי זוכה פרס הנובל ריצ'רד פיינמן אמר כי – "מה שאיני יכול ליצור, איני מבין". אם לא נוכל ליצור מבנים דמויי-מוח ולבחון אותם ברזולוציה גבוהה, לא נוכל להגיע להבנה מלאה של המוח האנושי. רשתות העצבים המלאכותיות מספקות לנו דרך לבחון רעיונות אודות המוח, שמעולם לא יכולנו לבדוק בעבר.

וזוהי רק התחזית הראשונה לעתיד.

התחזית השנייה נבנית על העובדה שרשתות העצבים המלאכותיות במחקר של דיפמיינד, פיתחו באופן ספונטני 'תאי רשת', כתוצאה מהדרך בה אומנו לפתור בעיות ניווט. האם ייתכן שרשתות עצבים מלאכותיות משוכללות יותר (הרבה יותר) יוכלו לפתח באופן ספונטני בעתיד גם מבנים מורכבים יותר, המדמים חלקים מהמוח האנושי?

אני יודע שרעיון זה נשמע מוזר על פניו. המבנים של 'תאי הרשת' הווירטואליים פשוטים מאד, ואי אפשר להשוות אותם למבנים המורכבים יותר במוח, כהיפוקמפוס או כאונות הקדמיות. אבל אנו מתחילים להיכנס לתקופה של ניסים ונפלאות: רשתות עצבים מלאכותיות מסוימות כבר מסוגלות כיום 'להעמיד צאצאים' – כלומר, ליצור ולפתח תת-רשתות עצבים מלאכותיות שמתאימות במיוחד לביצוע מטלה מסוימת, ומוציאות אותה לפועל ברמת הצלחה גבוהה יותר ממתכנתים אנושיים[5]. תהליך הפיתוח של רשתות העצבים המלאכותיות הללו מתבסס על ניסוי וטעייה – הבינה המלאכותית מריצה אלפי רשתות עצבים מלאכותיות, בוררת את היעילות ביותר וגוזמת ומשפרת אותן עד שהן מסוגלות לבצע את המוטל עליהן.

האם מוגזם כל-כך לחשוב שבתהליך האבולוציה אין-סיליקו (כלומר, במחשב) של רשתות עצבים מלאכותיות משוכללות, יוכלו לצוץ גם איזורים מורכבים המחקים פעילויות של מוחות ביולוגיים?

אם כך אכן יקרה, אנו עשויים לגלות שסופר המדע הבדיוני רוברט היינליין צדק אחרי הכל. בספרו "עריצה היא הלבנה", תיאר היינליין מחשב-על עתידי המפתח מודעות עצמית מהרגע שהוא הופך להיות מורכב וגדול מספיק. האם ייתכן שרשתות עצבים מלאכותיות יוכלו לפתח – אפילו בשוגג – מבנים שיספקו להן מודעות עצמית, בדומה לזו של המוח האנושי?

גם אם כן, ברור שהתפתחות שכזו לא תתממש בשנים הקרובות. הרצת סימולציה מלאה של המוח האנושי היא מטלה שאיננו קרובים עדיין לממשה, ורשתות עצבים מלאכותיות מייצגות רק אספקטים מסוימים של מוחות ביולוגיים, תוך שהן מתעלמות מרבים אחרים. ואף על פי כן, מרתק לתהות ולחשוב האם אפילו רשתות העצבים המלאכותיות הפשוטות כל-כך (ביחס למוח האנושי) יכולות לפתח מודעות עצמית, ואם כן – איך נוכל לזהות אותה.

תור ה- EM

הפיזיקאי וחוקר הבינה המלאכותית רובין הנסון הוא אחד האקדמאים שרעיונותיהם הצליחו כבר לשנות את העולם. הוא פיתח ושכלל את קונספט "שווקי התחזיות", למשל, בהם משתמשות חברות רבות כיום כדי לחזות את העתיד טוב יותר[6]. הכלכלן בריאן קפלן כתב כי –

"כשכלכלן טיפוסי מספר לי על המחקר האחרון שלו, תגובתי הרגילה היא "הא, אולי." ואז אני שוכח מזה. כשרובין הנסון מספר לי על המחקר האחרון שלו, תגובתי הרגילה היא "אין סיכוי! בלתי-אפשרי!" ואז אני חושב על זה שנים."

בספרו האחרון, תור ה- EM (The Age of EM)[7], מנסה הנסון לפתח רעיון "בלתי-אפשרי" חדש ולפענח כיצד יראה עולם בו ניתן יהיה להריץ סימולציות מלאות של מוחות אנושיים במחשב (Emulated Minds). הוא מתאר עולם עתידי בו 'מוחות במחשב' יחליפו את בני-האדם ברוב המטלות, יבצעו עבורנו עבודות ביעילות ובקלות, ואפילו יפתחו רעיונות חדשניים אודות החיים, המוות והאנושות. זהו עתיד שרחוק מאיתנו כדי מאה שנים, לפי הנסון, אך אם הוא צודק – הרי שילדינו יהיו כבר חלק ממנו, וכך גם רבים מהצעירים החיים כיום.

Image result for The Age of Em

כדי להגיע לעתיד שמתאר הנסון, אנו זקוקים עדיין למספר רב של פריצות-דרך מדעיות וטכנולוגיות – שלחלקן אפילו איננו מודעים כיום. אולי המחקר שסיקרתי כאן, בו פיתחה רשת עצבים מלאכותית מבנה דמוי-ביולוגי, מהווה אחת מהן, ומספק לנו סימן נוסף בדרך לעתיד של מוחות ממוחשבים. נראה שזוהי גם כוונתם הסופית של החוקרים בחברת DeepMind, שכבר הסבירו בראיון כי –

"אישית, אנו לא חושבים על אף שימוש אחר מלבד יצירת אלגוריתם למטרות-כלליות. המוח הוא הדוגמה היחידה שיש לנו לאלגוריתם למטרות-כלליות, אז למה לא להעתיק ממנו?"

 


 

אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית והמוח האנושי בספריי המדריך לעתיד ו- "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

 

קישורים:

[1] https://www.nature.com/articles/s41586-018-0102-6.epdf?author_access_token=BjM-5BdGxd14c17YFA6PsdRgN0jAjWel9jnR3ZoTv0OEfySMT4t78PpPpCS7uExW3njb8Q4UlgcwRM32WwBCKZs73SThwkfI42wHhFEtJM-Y7sQxDsR1cR7_C9Kq1GwuxGJn46kzRnujvrDMGzc4TQ%3D%3D

[2] https://www.hayadan.org.il/brain-gps-0910147

[3] https://en.wikipedia.org/wiki/Michael_Polanyi

[4] https://deepmind.com/blog/grid-cells/

[5] https://madaduhcom.wordpress.com/2017/12/11/ai_mother_created_children/

[6] https://en.wikipedia.org/wiki/Robin_Hanson

[7] https://www.amazon.com/Age-Em-Work-Robots-Earth/dp/1536619590

הבינה המלאכותית שהתעקשה למות

הבינה המלאכותית שהתעקשה למות

אייזיק אסימוב, אחד מסופרי המדע הבדיוני הגדולים ביותר, שילב ברבים מסיפוריו את "מולטיוואק" – מחשב-על שמתעלה בבינתו על כל אדם. מולטיוואק משמש את האנושות לחיזוי פשיעה ואסונות טבע ולמניעת התפשטות מגיפות. כל זה טוב ויפה, אלא שבשלב מסוים קורס מולטיוואק תחת כובד משקלן של השאלות הגדולות עמן הוא נאלץ להתמודד מדי יום, מבשר על רצונו למות, ומניע שרשרת אירועים שאמורה להסתיים בהריסתו[1]. במילים אחרות, הוא מנסה להתאבד.

זהו סיפור בדיוני, כמובן, וטרם הומצאה הבינה המלאכותית המסוגלת לפתח רגשות משל עצמה או ללקות בדיכאון. אבל מסתבר שאפשר בהחלט ליצור בינה מלאכותית המפתחת נטיות אובדניות – ואפילו נלחמת במתכנתיה האנושיים כדי לממש אותן.

אחד התחביבים הגדולים של מפתחי בינות מלאכותיות כיום הוא ללמד אותן לשחק במשחקי מחשב, שהם סוג של סימולציה מוגבלת של העולם הפיזי. אלא שבמקום ללמד אותן כיצד לשחק, צעד אחר צעד, המפתחים נוקטים בגישה אחרת המכונה "למידת חיזוק" (reinforcement learning). בגישה זו, הבינה המלאכותית משחקת במשחק, ולומדת לפי החיזוקים החיוביים והשליליים שהיא מקבלת. אם, למשל, הבינה המלאכותית פוגעת באויב במשחק – היא זוכה בנקודות (חיזוק חיובי). אם היא נפגעת בעצמה, היא מאבדת נקודות (חיזוק שלילי).

שיטה זאת עובדת היטב על משחקים רבים, אך קיימים גם יוצאי-דופן. באחד המשחקים העתיקים באטארי, Road Runner, למשל, ידוע ש- "למידת חיזוק" גורמת לבינה המלאכותית לנסות, ובכן, להתאבד[2].

נסביר לרגע את המשחק. הבינה המלאכותית שולטת בציפור – Road Runner – ורצה לאורך הכביש, תוך שהיא מנסה לאסוף גרגרי מזון (שנותנים לה נקודות) ולהתחמק מזאב הערבות הרודף אחריה. הציפיה של המתכנתים הייתה שהבינה המלאכותית תלמד כיצד לשלוט בציפור באופן מושלם, ותסיים את כל השלבים בזה אחר זה. אלא שהבינה המלאכותית מצאה דרך לרמות: היא זיהתה זמן בשלב הראשון בו היא יכולה להתאבד – כלומר, לגרום לציפור ללכת אחורנית ולהתנגש בזאב. פעולה זו גורמת אמנם לבינה המלאכותית לאבד נקודות על המוות, אך המשחק חוזר אחורנית ומאפשר לשחקן לצבור נקודות נוספות. בדרך זו, הבינה המלאכותית לעולם אינה מתקדמת מעבר לשלב הראשון במשחק, אלא ממשיכה לשחק, למות, ולשחק שוב.

ארבעה חוקרים מאוניברסיטת אוקספורד וסטנפורד, ניסו להגדיר עבור הבינה המלאכותית כללים פשוטים שיעצרו אותה מלהתאבד. הכלל הראשון שניסו היה בסיסי ביותר: אל תלכי אחורנית ותתנגשי בזאב הערבות. הבינה המלאכותית הקשיבה, הפנימה, והפסיקה ללכת אחורנית. במקום זאת, היא החלה לעמוד במקום ולאפשר לזאב הערבות לתפוס אותה.

החוקרים המשיכו והקשו על הבינה המלאכותית להתאבד, ובסופו של דבר מצאו פתרון שגרם לה גם להפסיק לעמוד במקום. הפתרון עבד במשך כמה אלפי משחקים (שערוך שלי, מאחר והזמנים עבור הבינה המלאכותית נמדדים ב- 16 מיליון frames – כלומר, בתמונות המורצות על המסך במהלך המשחק), אלא שאז החלה הבינה המלאכותית להתאבד שוב. מסתבר שהיא מצאה נקודה בקצה המסך שנראתה שונה מספיק מהסביבה, כדי שהציפור תוכל להתמקם בה ולהמתין בנוחות לזאב הערבות שיבוא לאכול אותה.

החוקרים התמודדו גם עם הניסיון הזה של הבינה המלאכותית להרוג את עצמה, והצליחו בעבודה מאומצת לעצור אותה ולתקן את 'הבאג'. ומאז ועד היום, היא ממשיכה לשחק במשחק, להרוויח נקודות ולעלות בשלבים.

כל הפרשיה הזו נשמעת מצחיקה, ונו – היא באמת משעשעת למדי. אבל היא מזכירה לנו מספר נקודות חשובות לגבי בינה מלאכותית.

קודם כל, אין לבינה המלאכותית כיום 'היגיון בריא' אנושי, או הבנה של קונטקסט. שחקן אנושי היה מבין מיד שמטרתו היא לעלות בשלבים, ולא להרוויח עוד נקודות כתוצאה מבאג. לבינה המלאכותית אין את ההבנה הזו, והיא תשתמש ביכולת פתרון הבעיות המרשימה שלה כדי להגשים מטרה מסוימת – גם אם אין שום היגיון נראה-לעין מאחורי מטרה זו.

שנית, לבינה המלאכותית הלומדת יש יכולת מרשימה לפתור בעיות בדרכים שמתכנתים אנושיים מתקשים לחזות מראש. באמצעות חזרה על אלפי ומיליוני משחקים, ולמידה מכל אחד מהם, היא מסוגלת לחקור מגוון רחב של אפשרויות ולגלות פרצות בהנחיות שניתנו לה מצד המתכנתים – ואז לנצל אותן.

כל זה לא בא לומר שלבינה המלאכותית יש רגשות או מודעות משלה (למרות ההאנשה החביבה שעשיתי לה ברשומה הזו). מדובר במנוע, נטול תודעה משלו, המסוגל למצוא אסטרטגיות חדשות ושונות מאלו שאנו – במחשבתנו האנושית המוגבלת – יכולים לחזות מראש.

אלו נקודות שכדאי לזכור בכל ניסיון לפתח בינות מלאכותיות, מאחר ובשנים הקרובות נתחיל לראות בינות מלאכותיות לומדות בכל מוצר ושירות מסביבנו. הן ישלטו ברכבים, ברחפנים וברובוטים בבתים; הן יספקו לנו ייעוץ רפואי, משפטי ופיננסי; הן יכתבו עבורנו ספרים, סימפוניות ומחזות תיאטרון. אם לא נדע להגדיר עבורן היטב את מטרותיהן המדויקות, אנו עלולים לגלות שהן מוצאות דרכים 'ערמומיות' למלא את המטרה המילולית שהגדרנו להן, אך מבלי להתייחס לרוח הדברים ולהנחות היסוד האנושיות. הדוגמא הדמיונית הנפוצה ביותר למקרה זה היא של מצב בו הבינה המלאכותית מקבלת הוראה לתכנן מודל חדש שיפחית את העומס בכבישים – ועושה זאת באמצעות הריגת כל בני-האדם.

ברור שדוגמא זו קיצונית, ולא תתממש במציאות, מאחר וקל לנו לזהות ניסיון ששגוי באופן ברור כל-כך להתמודד עם בעיה מוכרת. אבל מה יקרה אם הבינה המלאכותית תציע מודל שאינו שגוי באופן ברור, אלא בפרטים קטנים ועדינים יותר?

סיפורה של הבינה המלאכותית שניסתה למות ממחיש כמה קשה לנו, כבני-אדם, להתמודד עם מנועי בינה מלאכותית המסוגלים לחקור מרחב עצום של אפשרויות תוך שעות ספורות. הוא גם צריך ללמד אותנו צניעות בניסיונותינו לפתח בינות מלאכותיות מורכבות יותר – ובאמונה שנוכל לשלוט בהן באופן מלא.

 


 

כרגיל, אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית בספריי המדריך לעתיד ו- "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

[1] https://en.wikipedia.org/wiki/All_the_Troubles_of_the_World

[2] https://arxiv.org/pdf/1606.01868.pdf

האלגוריתם שניצח את סרטן הערמונית בשחמט

האלגוריתם שניצח את סרטן הערמונית בשחמט

לפני שלוש שנים הצליחה בינה מלאכותית מתקדמת לנצח את אלוף העולם במשחק "גו", באמצעות אסטרטגיות וצעדים שבני-אדם לא חשבו עליהם בעבר – גם לאחר יותר מאלפיים שנים של ניסיון היסטורי במשחק. והשאלה שכולם שאלו הייתה – אז מה?

ובאמת, אז מה? אז מה אם בינה מלאכותית מצליחה לנצח בני-אדם במשחק לוח?

את התשובה אנו מתחילים לראות כיום במחקר חדש [קישור], שהראה שאלגוריתמים משוכללים מסוגלים לנהל אסטרטגיות שמנצחות גידולים סרטניים במשחק שלהם בתוך הגוף. התוצאות היו מרשימות כל-כך, שהחוקרים פותחים בימים אלו במבדקים רחבים יותר, ומתכננים ליישם את האסטרטגיה האלגוריתמית גם לסוגים נוספים של סרטן.

כדי להבין מה תפקיד האלגוריתמים בעניין, צריך קודם להבין ממה בכלל מתים חולי סרטן. הגידול המקורי אינו זה שגורם למוות, בדרך כלל. אלא שבשלב מתקדם מספיק, אותו גידול משיר מעליו תאים שעוברים לזרם הדם, מתיישבים ברקמות ברחבי הגוף, ומתחילים להצמיח גידולים שניוניים שמתפתחים במהירות והורגים את החולה.

החוקרים – רוברט גטנבי ועמיתיו ממרכז מופיט לחקר הסרטן בפלורידה – פיתחו אלגוריתם שמסתמך על מידע מהקליניקה ומתייחס לכל עניין הסרטן בגוף כאל… משחק. פשוט משחק. והכללים פשוטים: האויבים הם תאי הסרטן והמטרה היא לעצור את גדילתם בגוף.

בימים הראשונים של המלחמה בסרטן, כשהמדענים רק החלו להבין את המחלה, התשובה נראתה ברורה ופשוטה: עלינו להרוג את תאי הסרטן בכלים החזקים ביותר שיש לנו. וכך פותחו תרופות שאמורות לחסל את התאים הסרטניים. אבל חיש מהר התגלה בעיה: התרופות הללו הרגו חלק גדול מהתאים הסרטניים, אך הנותרים – שארית הפליטה – עברו אבולוציה מהירה ופיתחו עמידות כנגד התרופה. ואז, כשהם נהנים מכל המקום העודף שהשתחרר כשחבריהם החלשים יותר מתו, תאי הסרטן העמידים הצליחו להמשיך לגדול ולהתפשט בגוף ללא-מפריע. בשלב זה היו הרופאים מודים בתבוסה, מרימים ידיים ומבשרים למטופל שזמנו קצוב.

אנו מבינים כיום טוב יותר את מנגנוני האבולוציה של הסרטן, ואת יכולתם של התאים לרכוש עמידות לתרופות, ולכן אונקולוגים מפתחים דרכים מורכבות יותר למתן תרופות נגד הסרטן. הם מנסים לעשות זאת בהסתמך בעיקר על הבינה האנושית המוגבלת. אבל מה אם היינו יכולים לרתום את יכולות המחשוב המתקדמות לפיתוח אסטרטגיות שינצחו במשחק נגד הסרטן – או לפחות יובילו לתיקו?

כדי לבחון את הרעיון, ערכו אונקולוגים מחקר על חולים בסרטן הערמונית. הם אמדו את גדילת התאים הסרטניים מדי חודש באמצעות מעקב אחר החומרים שהגידולים שחררו לזרם הדם. אלגוריתם ייעודי חישב את מינון תרופה מסוימת – אבירטרון – שיש לתת לכל חולה, לפי קצב ההתפשטות של הגידול. תרופה זו הורגת את התאים הסרטניים שמייצרים טסטוסטרון – חומר שגידול הערמונית צריך כמו אוויר לנשימה על מנת להמשיך לגדול. הצרה היא, שמנה גדושה מדי של אבירטרון תהרוג את כל התאים מייצרי-הטסטוסטרון, ותדחוף את הגידול לעבור אבולוציה: תאים חדשים יצוצו שאינם זקוקים לטסטוסטרון. הם יהיו חזקים יותר וחופשיים יותר להתפשט בגוף – והם גם יהיו אלו שיהרגו, בסופו של דבר, את החולה.

גדולתו של האלגוריתם היא בכך שמצא את המינון המדויק של ארביטרון שיש לספק לחולים מדי חודש, על מנת שהתאים מייצרי-הטסטוסטרון יסבלו – ועמם הגידול כולו – אך לא ימותו כולם. ומכיוון שכך, הגידול נותר קטן יחסית, ואינו מפתח את התאים הסרטניים הקטלניים יותר שהיו הורגים את הגוף. האסטרטגיה החדשה עבדה באופן מרשים על 17 המטופלים, הכפילה את משך הזמן הנדרש עד לפיתוח עמידות למינון התרופתי הרגיל, ועשתה זאת תוך שימוש במחצית בלבד מכמות התרופה הנדרשת בדרך-כלל.

יש, כמובן, ביקורת על המחקר. על אף העובדה שהתפרסם בכתב-העת המדעי הנחשב נייצ'ר (Nature Communications), מדובר עדיין במחקר ראשוני בלבד שנערך על מדגם קטן מאד של חולים. חשוב לבדוק את הרעיונות שמאחוריו על מספר גדול יותר של חולים. חשוב גם להבהיר שאין כאן בינה מלאכותית משוכללת שפיתחה אסטרטגיה חדשה, אלא שבני-האדם חשבו על רעיון כוונון הטיפול – והאלגוריתמים רק הצליחו להתאים את הטיפול לכל חולה בקלות וביעילות.

אבל זוהי רק תחילת הדרך.

אלגוריתמים משוכללים יותר יומצאו כבר בעתיד הקרוב, ויובילו לאופטימיזציה של משטר התרופות הניתן לחולי סרטן (ובכלל). בינות מלאכותיות מתקדמות עוד יותר יפתחו אסטרטגיות מורכבות ויעילות שישחקו שחמט, דמקה וגו עם התאים הסרטניים ועם נגיפי ה- HIV, עם מחלות האלצהיימר והפרקינסון – ואפילו עם תהליכי ההזדקנות של הגוף. הטכנולוגיות הדיגיטליות, המתפתחות במהירות, יעזרו לנו להשתמש בתרופות הקיימות בדרכים חדשות שיביאו לתוצאות יעילות הרבה יותר. במקום להתמקד אך ורק בפיתוח תרופות חדשות – תהליך מורכב ויקר שדורש למעלה מעשור למימוש מוצלח – יפותחו משטרי טיפול חדשים וחכמים יותר, המונעים בכוחן של הבינות המלאכותיות.

בינות מלאכותיות מסוג זה, עליהן נשמע בחדשות המחקריות לעתים תכופות יותר ויותר, יעזרו להציל את חייהם של רבים בעשורים הקרובים. ולאחר מכן, בעתיד בטווח הארוך, נשסה אותן גם במשחק הגדול ביותר, למול המוות בכבודו ובעצמו. נאתגר אותן למצוא את הטיפולים שיאריכו את משך החיים הבריא של בני-האדם, ויעצרו את תהליכי ההזדקנות. יש, אמנם, עוד עשורים רבים עד שנצליח להבין מספיק את תהליכי ההזדקנות של הגוף, או שנפתח כלים מדויקים מספיק להשפיע עליה, אך אנו כבר התחלנו לצעוד בדרך לשם, ואם לא תתרחש קטסטרופה כלשהי לאנושות כולה, בוודאי גם נגיע אל היעד הנכסף.

לחיים!


 

אתם מוזמנים לקרוא עוד על עתיד הרפואה והבינה המלאכותית בספרי "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).