בינה מלאכותית העמידה צאצאים – והם מוצלחים יותר מתוכנות מעשה ידי-אדם

בינה מלאכותית העמידה צאצאים – והם מוצלחים יותר מתוכנות מעשה ידי-אדם

נו, אז הנה זה קרה: בינה מלאכותית יצרה צאצא של עצמה, והוא מתוק, יפהפה ומתפקד היטב, תודה ששאלתם.

בוודאי לא יפתיע אתכם לגלות שהחברה מאחורי הפיתוח היא גוגל. גוגל חשפה לפני מספר חודשים את "בינת האם" שמכונה AutoML – "למידת מכונה אוטומטית"[1]. נקרא לה מעכשיו בימא, שזה קיצור של בינה ואמא. בימא עושה פעולה פשוטה ומורכבת באותו הזמן: בני-האדם מבהירים לה מה הם צריכים – למשל, שהם רוצים בינה מלאכותית שתזהה עבורם בני-אדם בתמונות – ואז בימא מציעה כמה 'צאצאים' שיכולים לעשות את העבודה. כל אחד מהצאצאים האלו מהווה דרך מוסדרת שונה לניתוב מידע דרך רשתות עצבים מלאכותיות, באופן שיפיק תוצאה שבימא חושבת שתהיה בעלת משמעות.

עד לכאן, טוב ויפה, אבל הצאצאים הראשוניים האלו – איך לומר – גרועים במשימה שניתנה להם. ה- 'מוח' שלהם פשוט לא מכוונן נכון. וכך פותחת עכשיו בימא בתהליך השיפור ההדרגתי. היא נותנת להם מטלות – זהו את בני-האדם שבתמונה! – ובוחנת איך הם מתפקדים. היא לומדת מה עובד ומה לא, ולאחר כל סבב לימודי כזה, היא מכחידה את צאצאיה הקודמים (אכזרי, אני יודע) וממציאה חדשים משופרים. וכך היא חוזרת על התהליך אלפי פעמים, שוב ושוב, עד לתוצר 'הסופי' שהתפרסם לאחרונה בבלוג של גוגל: בינה מלאכותית שמסוגלת לזהות בני-אדם וחפצים בתמונות, טוב יותר מבינות מלאכותיות שפותחו על-ידי בני-אדם[2].

חשוב להבין שאנחנו רק בתחילת הדרך מבחינת הפיתוח של בימא. מנוע דומה יוכל לשמש אותנו בעתיד כדי ליצור תוכנות ואלגוריתמים במגוון רחב של תחומים. למעשה, בהחלט ייתכן שבאמצעות ממשקים פשוטים יותר, יוכל כל אדם מן השורה ליצור עבור עצמו (כלומר, להורות לבימא ליצור עבורו אוטומטית) בינה מלאכותית שמבצע פעולות מסוימות שחשובות עבורו: למיין מלפפונים בחווה[3], למשל, או להניע רובוט עם חמש רגליים שהוא פיתח בגראז' (באמצעות הרצת סימולציות חוזרות במחשב על הדרך בה רובוט כזה צריך לשלוט בגפיו)[4].

האפשרות המעניינת יותר היא שבימא יכולה לשלב גם משוב ממקור אנושי כדי לפתח את הצאצאים שלה. בימא שצריכה לפתח בינה מלאכותית ליצירת מנגינות עצובות ונוגות, למשל, יכולה לשלוח לביקורת את היצירות של צאצאיה לבני-אדם מסביב לעולם ("האזינו ליצירה במשך חצי-דקה, ודרגו כמה היא נגעה ללבכם!") בעלות אפסית, ולשפר את הצאצא בכל פעם. בדרך זו אפשר ליצור באופן אוטומטי בינות מלאכותיות משוכללות יותר גם בנושאים שאינם ניתנים לכימות בקלות.

אבל בואו נדבר על מה שמפחיד את כולם: שבינה מלאכותית שכזו תצא משליטה. האמת? זו אכן בעיה. לא מכיוון שאני חושש שבינה מלאכותית לזיהוי אנשים בתמונות תאבד את הרסן ותנסה להשתלט על העולם, אלא מכיוון שתהליך הפיתוח של הצאצאים פועל באופן אבולוציוני, וללא הכוונה של בני-אדם, או הבנה מלאה מדוע התוצר הסופי עובד כפי שהוא עובד. המשמעות היא שאם אנו בוחרים בדרך זו לייצר בינה מלאכותית שתכווין את התנועה בכבישים, למשל, אנו צריכים לקחת בחשבון שהיא עלולה לקבל החלטות לפי תהליך אופטימיזציה שעברה שמקדש את זרימת התנועה בכבישים – אבל שם פחות דגש על שימור חיי הנוסעים. וכך, בינה מלאכותית שכזו עלולה לייצר לנו מודלים לניהול התנועה שיהיו יעילים מאד, אבל יעלו בחייהם של כמה אנשים מדי חודש. ייתכן בהחלט שזהו יחס המרה טוב – אבל אנו צריכים להיות מודעים לפחות לבחירות שהבינה המלאכותית עושה עבורנו!

בסופו של דבר, הופעתן של בינות מלאכותיות שמסוגלות לתכנת את הדורות הבאים של עצמן, מהווה פיתוח שיכול לקדם עוד יותר את תחום המחשוב ולהאיץ את קצב השיפור. זוהי התפתחות ברוכה – אבל כמו בכל טכנולוגיה אחרת, עלינו להבין איך לשלוט בה ולוודא שהיא ממלאת את התפקיד שאנו מייעדים עבורה, אך מבלי לפגוע בערכי בסיס אנושיים.

אולי נוכל להפקיד בינה מלאכותית גם על זה.

 


 

אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית והרובוטים בספרי החדש "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

 

[1] https://research.googleblog.com/2017/05/using-machine-learning-to-explore.html

[2] https://research.googleblog.com/2017/11/automl-for-large-scale-image.html

[3] https://cloud.google.com/blog/big-data/2016/08/how-a-japanese-cucumber-farmer-is-using-deep-learning-and-tensorflow

[4] https://www.extremetech.com/extreme/252242-googles-deepmind-teaches-ai-navigate-parkour-course

הרובוטית הראשונה קיבלה אזרחות – בערב הסעודית

הרובוטית הראשונה קיבלה אזרחות – בערב הסעודית

אז הנה זה קרה: לראשונה בעולם, זכה רובוט באזרחות. בערב הסעודית מכל המקומות שבעולם. זהו פעלול שיווקי מרהיב שאין לו שום משמעות טכנולוגית, מדעית או חברתית. מכיוון שכך, לא הייתי כותב עליו בכלל אילולא הייתי מקבל פניות מכמה וכמה אנשים שביקשו ממני להתייחס לנושא. ומה שיותר חשוב: העובדה שכל הסיפור הזה התפוצץ לערב הסעודית בפנים כשהדגיש את העובדה שרובוטים מקבלים יותר זכויות מנשים במדינה.

נתחיל בהתחלה.

שמה של ה- 'רובוטית' סופיה, והיא נוצרה על-ידי חברת "הנסון רובוטיקס". היא נראית אנושית בערך כמו בובת חלון ראווה משוכללת, עם שליטה מרשימה ב- 'שרירי הפנים', בשפתיים ובעיניים שלה. אבל זה בערך הדבר האחרון שמרשים בה, מכיוון שהבינה המלאכותית ששולטת בה מוגבלת מאד. היא בסך הכל מזהה מילות מפתח במה שאומרים לה, ויכולה רק להגיב במשפטים שתוכנתו והוקלטו לתוכה מראש. זה, כמובן, הספיק ליוצר, דיוויד הנסון לקבוע שהיא – "למעשה חיה" (Basically alive)[1] – ולשלוח אותה להופעה באו"ם שם הודיעה לשגרירי כל המדינות כי "אני כאן כדי לעזור לאנושות ליצור את העתיד".[2]

עד כאן הכל טוב ויפה. אכן מדובר ברובוט, ועם בינה מלאכותית בסיסית ומוגבלת, אבל אין בכך הרבה חדש. אלא שערב הסעודית מנסה להפוך את עצמה למדינה עם תעשיית ידע מפותחת, ומשווקת את הכנסים שלה בכל צורה אפשרית. וכך, גאון שיווקי כלשהו בכנס הפסגה הטכנולוגית של ערב הסעודית, הבין שהם יכולים לזכות בהרבה פרסום אם המדינה תהיה הראשונה בעולם שתעניק אזרחות לרובוטים. וכך הפכה סופיה לרובוטית הראשונה בעולם שזכתה באזרחות של כבוד בערב הסעודית[3].

אבל מה זה אומר, בעצם?

אם לסופיה יש בעלים – דיוויד הנסון שנהנה מבעלות מלאה על גופה – איך ניתן להתייחס ברצינות לאותה 'אזרחות' של סופיה, שאמורה להקנות לה זכות להחליט מה לעשות עם גופה?

אם סופיה אינה יכולה להתנגד לכך שייגעו בה, שיפשיטו אותה, שיתכנתו אותה מחדש – אם אין לה אפילו את הרצון או היכולת המחשבתית לגבש ולהביע התנגדות שכזו – למה שנתייחס אליה כאל ישות הראויה בכלל לקבל זכויות אזרחיות השוות לאלו של בני-אדם?

ובעצם, אם סופיה אינה יכולה להרגיש כאב, אינה מקבלת החלטות משל עצמה, ואם נודה באמת – אפילו אינה דומה לאדם מתחת ל- 'בגדים' שהיא לובשת – מה 'היא' כבר יכולה להרוויח מאזרחות שכזו? מה התועלת החברתית המתקבלת ממתן אזרחות לשולחן, לכסא, או לקולב בגדים?

בקיצור, הצהרת האזרחות של סופיה אינה אלא תעלול שיווקי… שבסופו של דבר התפוצץ למדינה בפנים, מכיוון שהוא הזכיר לכולם שבערב הסעודית יש דווקא הרבה מאד ישויות עם זכויות מוגבלות ביותר: נשים שאינן יכולות לצאת מהבית או להופיע בציבור ללא מלווה ממין זכר, ושעד לאחרונה לא היו יכולות אפילו לנהוג ברכב מבלי לצפות למלקות על חטאן. אפילו הסעודים התעצבנו על האזרחית הרובוטית החדשה, מאחר והחוק הסעודי אינו מאפשר ללא-מוסלמים לקבל אזרחות – ואין שום סימן שסופיה עומדת להתאסלם בקרוב. אפילו חיג'אב (כיסוי ראש מוסלמי) אין לה.

כל זה לא אומר שרובוטים לא יהיו זכאים, בסופו של דבר, לזכויות. אחרי הכל, אנו נוטים לתת היום זכויות למגוון ישויות לא-אנושיות: לבעלי-חיים למשל יש זכויות מסוימות, שאינן מאפשרות לאנשים להתעלל בהם או להכאיב להם אלא במצבים מוגדרים היטב כגון בבית המטבחיים. אפילו לתאגידים יש זכויות. כאשר ישויות מלאכותיות יזכו בסופו של דבר בבינה מתקדמת יותר, וכאשר יהיו דומות יותר לבני-אדם, הן בוודאי יקבלו זכויות מסוימות – גם אם לא כאלו המתקרבות לאלו של השמורות לבני האנוש. אך עוד ארוכה הדרך לשם, וסופיה רחוקה מלהיות הסנונית המבשרת את בוא האביב.


 

אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית והרובוטים בספרי החדש "השולטים בעתיד", בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

 

[1] https://www.youtube.com/watch?v=Bg_tJvCA8zw

[2] https://www.theguardian.com/technology/video/2017/oct/13/sophia-the-robot-tells-un-i-am-here-to-help-humanity-create-the-future-video

[3] http://www.arabnews.com/node/1183166/saudi-arabia

מה יישאר לרופאים כשמחשבים יבינו רגשות?

מה יישאר לרופאים כשמחשבים יבינו רגשות?

"אז אתה באמת חושב שרובוטים יוכלו להחליף אותי?" צחק רופא המשפחה. "איך הם יבינו כשלילד שלך כואב? איך הם ידעו שהוא לא מעמיד פנים רק בגלל שהוא לא רוצה ללכת לבית הספר? יש דברים שרק בני-אדם יוכלו לעשות!"

מי מכם שניסה להסביר פעם לרופאים את הרעיון שבינה מלאכותית תוכל לתפוס חלק גדול מהעבודה שלהם, נתקל בוודאי בתגובות דומות. לצערי, אלו תגובות אינסטינקטיביות שמבוססות בעיקר על הבנה חלקית של יכולותיה של הבינה המלאכותית כיום – ומתעלמות לגמרי מכל יתר כיווני ההתפתחות המאפיינים את העתיד.

בואו נעבור על כמה מהכיוונים הללו עכשיו, מכיוון שאני מאמין שראייה כוללת של הטכנולוגיה כיום מובילה באופן בלתי-נמנע למסקנה שמנועי בינה מלאכותית יוכלו להתמודד גם עם חלק גדול מהאינטראקציות האנושיות ולייחס להן משמעות נכונה.

כיוון ראשון: התפתחות המחשוב הרגשי

ככל שהבינות המלאכותיות מתקדמות יותר, כך הן יכולות גם לפענח ולהבין רגשות – לפעמים על סמך תיאור טקסטואלי בלבד, ולעתים באמצעות צפייה בתמונה או בווידאו. אלגוריתם שפותח במכון הטכנולוגי של מסצ'וסטס, למשל, בחן את פניהם של אנשים שסבלו מכאבים, והצליח לדרג את הכאב שחשו[1]. מחקר מאוניברסיטת קליפורניה וטורונטו חשף גם שמערכות ממוחשבות מסוגלות אפילו לזהות כאב טוב יותר מהרופאים האנושיים, ולסנן 85 אחוזים מהמתחזים – בזמן שבני-אדם מיומנים הצליחו לזהות את המתחזים רק ב- 55 אחוזים מהפעמים[2].

תחום זה, אגב, נקרא מחשוב רגשי (Affective Computing), והוא צפוי לזנק בנתח השוק מ- 9.3 מיליארד דולרים ב- 2015 ל- 42.5 מיליארד דולרים ב- 2020[3]. נראה את המחשוב הרגשי בכל מקום: הוא ישמש בינות מלאכותיות כדי שיוכלו לתפקד טוב יותר מול קשישים בבתי אבות, ילדים בכיתה, שיכורים, גיימרים ועוד ועוד. אה, וגם מול חולים.

אז איך מחשבים ידעו שילדים 'חולים' מעמידים פנים? הרבה יותר טוב מרופאים אנושיים.

כיוון שני: מידע ממקורות שונים

אני מסביר שוב ושוב שבעתיד הלא-רחוק, כולנו עומדים להיות מנוטרים בכל עת. החיישנים יהיו מסביבנו, בבתינו ועל עורנו ובגדינו. זו תהיה האינטרנט של הדברים. קיימות תחזיות לפיהן עד שנת 2020 נגיע למספר של 200 מיליארד חפצים שיהיו מחוברים לאינטרנט של הדברים. אפילו התחזיות הפסימיות ביותר מניחות שעד שנת 2020 צפוי כל אדם להחזיק 6.3 בממוצע חפצים מקושרים[4].

רופאים אנושיים אינם מסוגלים להתמודד עם המידע המתקבל מכל החיישנים הללו, אך בינות מלאכותיות יוכלו בקלות להתמודד עמו ולהצליב אותו כדי להגיע למסקנה סופית בנוגע למצבו הנפשי והרגשי של החולה. הן יוכלו לדעת אם החולה ישן בלילה היטב, כיצד הוא מדבר בחיי היום-יום, האם הוא נהנה ללכת לבית-הספר או לעבודה (לפי מצבו הרגשי כפי שנמדד באמצעות קצב פעימות הלב, הזעה, קצב נשימה ופרמטרים אחרים) וכן הלאה.

כך ששוב – בינות מלאכותיות יוכלו לפענח מצבים רגשיים ונפשיים טוב יותר מרופאים אנושיים.

כיוון שלישי: יכולת חיקוי של תגובות אנושיות

המסקנה המסקרנת ביותר משני הכיוונים הללו היא שכדי שאדם יקבל טיפול ואבחנה רפואיים בעתיד, הוא לא יצטרך בהכרח להגיע לבית החולים או למרפאה השכונתית. הוא יוכל לאפשר למחשב לקבל גישה לכל המידע שהתקבל מהחיישנים שמסביבו, ולענות על שאלות ממוחשבות כדי לקבל אבחנה ראשונית.

אבל כיצד תתנהל התקשורת מול הרופאים הממוחשבים הללו?

באופן מפתיע, ייתכן שהיא תהיה דומה מאד לשיחת וידאו מול רופאים אנושיים כפי שהיא מתקיימת כיום. הסיבה היא שהתפתחויות בתחום הבינה המלאכותית כיום מקנות לאלגוריתמים את היכולת ליצור אוואטרים – דמויות דיגיטליות – שתגובותיהם דומות יותר ויותר לאלו של בני-אדם. פייסבוק, למשל, הצליחו ליצור בוט שצפה בשעות של שיחות סקייפ בין אנשים, ולאחר מכן שלט בהצלחה באוואטאר שהגיב לתנועות הפנים של בן-שיחו בתנועות פנים מתאימות משלו: כשהאדם צחק, האוואטאר הרחיב גם הוא את המרווח בין שפתיו, או הטה את ראשו בשעשוע מדומה. צופים מהצד קבעו שהאוואטאר הממוחשב ובני-האדם נראו טבעיים ומציאותיים באותה המידה[5].

כך שבהחלט ייתכן שהרופאים הממוחשבים יוכלו גם לטפל בנו – תוך התחשבות ברבים מצרכינו הרגשיים – דרך האינטרנט.

מה יישאר לרופאים האנושיים?

ובכן, מה יישאר לרופאים האנושיים, בהינתן עולם עתידי בו הבינה המלאכותית מסוגלת להגיע לאבחונים ולהמלצות רפואיות מדויקים יותר משל הרופא הממוצע?

ההמלצה הראשונה שלי מאז ומתמיד לרופאים הייתה להבין כיצד לעבוד מול מחשבים ולהפיק מהמלצותיהם את המירב. ההמלצה השנייה שלי הייתה תמיד לרופאים להתמקד בפיתוח כישורים חברתיים, על מנת שיוכלו לספק את מה שמחשבים מתקשים יותר לתת: אמפתיה.

אבל מה קורה כשגם מחשבים רגשיים יהיו מסוגלים לספק לחולה אמפתיה ותמיכה רגשית?

במצב זה, נותר רק יתרון אחד גדול – ואולי היחיד – לרופא האנושי: האנושיות שלו. רופאים אנושיים תמיד יהיו יקרים יותר מרופאים ממוחשבים. הם תמיד יצריכו עבודה יותר רבה מהחולה – להגיע לקליניקה, לשבת בחדר ההמתנה ולעמוד ביראת-כבוד מול הרופא האנושי. הם יכולים להרשים עמוקות את החולים בחלוקם הלבן ובקולם העמוק והסמכותי, בלחיצת ידם החסונה ובמבט העמוק לעיניים. כל אלו הם מאפיינים של טיפול בעולם הפיזי, שקשה להאמין שרובוטים יחליפו בעשורים הקרובים.

או במילים אחרות – עבודתם האחרונה של הרופאים האנושיים תהיה במשחק תיאטרון, בו הם עדיין מעמידים פנים שיש לדעתם חשיבות כלשהי, והחולים משתתפים כקהל מרצונם. עבודתם של הרופאים תהיה 'לרמות' את הפסיכולוגיה של החולים. להסתמך על ההטיות הקוגניטיביות האנושיות הבסיסיות שלהם.

ועבודה כזו, כפי הנראה, תישאר פתוחה כל זמן שבני-אדם ימשיכו להיות אנושיים.


כמו תמיד, אם אתם רוצים לקרוא על עתיד העבודה המשוער, ועל המודלים האפשריים השונים בהם אנו עשויים לעבוד בעתיד, אתם מוזמנים לקרוא עוד ב- "המדריך לעתיד" ו- "השולטים לעתיד" – שניהם בחנויות הספרים.

 

[1] https://arxiv.org/pdf/1708.04670.pdf

[2] http://ucsdnews.ucsd.edu/feature/computers_spot_false_faces_better_than_people

[3] http://www.marketsandmarkets.com/PressReleases/affective-computing.asp

[4] https://madaduhcom.wordpress.com/2016/12/16/%D7%A2%D7%AA%D7%99%D7%93-%D7%91%D7%AA%D7%99-%D7%94%D7%97%D7%95%D7%9C%D7%99%D7%9D-%D7%95%D7%A2%D7%AA%D7%99%D7%93-%D7%94%D7%91%D7%A8%D7%99%D7%90%D7%95%D7%AA-%D7%A9%D7%9C-%D7%9B%D7%95%D7%9C%D7%A0%D7%95/

[5] https://www.newscientist.com/article/2146294-facebook-ai-learns-human-reactions-after-watching-hours-of-skype/

כשהבוטים של פייסבוק יוצאים משליטה

כשהבוטים של פייסבוק יוצאים משליטה

אני אוהב את אנטוניו. הוא נהג המונית המועדף עלי כשאני רוצה להגיע במהירות לפגישות חשובות. יש לו בנדנה אדומה שמשתלבת היטב עם השפם השחור המרשים. והנסיעות איתו תמיד מעניינות.

"שמעת שהבוטים עומדים להשמיד את כולנו?" התנפל עלי כשנכנסתי למונית.

"יש שמועות כאלו שמתרוצצות כבר מאה שנים בערך." חייכתי בזמן שהניע את הרכב והתחלנו לנוע קדימה. "שהסוף יגיע מהשתלטות הרובוטים, הבוטים, או בינה מלאכותית באופן כללי. אבל בינתיים, עשה לי טובה וסע במהירות – אני תכף מאחר לפגישה הבאה."

man-2192280.jpg

אנטוניו, צילום אילוסטרציה

"אלו כבר לא שמועות." הדגיש אנטוניו כשהשתלבנו בתנועה בכביש המהיר. "ממש השבוע פייסבוק הודיעו שהם נאלצו לסגור שני בוטים שהחלו להתמרד נגדנו, המציאו שפה חדשה משלהם ודיברו ביניהם בלי שנבין מה הם אומרים. מי יודע מה הם אמרו זה לזה, או כמה הם חכמים? לדעתי, הם מתכננים נגדנו. מזל שפייסבוק עצרה אותם ברגע האחרון."

"כן…" התלבטתי איך לענות. "אבל לא. לא בדיוק. נכון שהייתה הרבה דרמה בתקשורת מסביב לסיפור הזה – היו אתרים שדיווחו שהמהנדסים של פייסבוק נכנסו לפניקה וכיבו את הבוטים, או שתהו האם המצאנו את מפלצת פרנקנשטיין המודרנית. המציאות הרבה פחות דרמטית."

"פחות דרמטית?" הבחנתי בעיניו המצומצמות של אנטוניו ננעצות בי בראי. הרכב החל להאיץ קדימה. "אז אתה אומר שיש עוד מאחורי הקלעים של הסיפור הזה?"

"כן, אבל הקונטקסט הוא זה שחשוב כאן. בסך הכל היה מדובר בשני בוטים – אלגוריתמים שמחקים יכולות שיחה אנושיות. אגב, חזיתי את יכולותיהם המתקדמות של בוטים מהסוג הזה בספרי הקודם, "המדריך לעתיד". בכל מקרה, פייסבוק עורכת ניסויים עם בוטים בתקווה שהם יוכלו לדבר עם בני-אדם ולהציע להם שירותים. כך שבמקום להתקשר לחנות הפרחים, למשל, תוכל ליצור קשר עם הבוט של חנות הפרחים דרך פייסבוק, להגיד לו שאתה רוצה לשלוח זר לאשתך לרגל יום הנישואין, והוא יבין מיד שאתה רוצה זר חגיגי עם ורדים אדומים.

זה העתיד שפייסבוק מנסה לקדם, והיא רוצה לחמש את הבוטים שלה גם ביכולות מיקוח ומציאת פשרות. היחידה לחקר בינה מלאכותית בפייסבוק הצליחה כבר ביוני להקנות לבוטים יכולות שכאלו ברמה גבוהה, שמתחרה בזו של בני-אדם, לפחות עבור מציאת פשרות במקרי בוחן פשוטים, כגון חלוקת כדורים, כובעים וספרים בין המתמקחים באופן שיספק את כולם. עד כאן הכל טוב ויפה, אבל הייתה בעיה אחת במחקר הזה: כשהחוקרים הורו לבוטים להתמקח זה עם זה, הם גילו שהבוטים יוצאים משליטה."

"ורוצים להרוג את כולנו!" דפק אנטוניו בשתי ידיו על ההגה.

"לא. זה לא מה שאמרתי." התנגדתי. "העניין הוא שמדובר במערכות בינה מלאכותית שמבוססות על רשתות עצבים מלאכותיות. מערכות כאלו לומדות באופן פעיל מכל מה שהן חוות. זה היתרון הגדול שלהן על פני מערכות פשוטות יותר. ככל שהבוטים התווכחו יותר זה עם זה, כך הם למדו טוב יותר איך להעביר את המסר שלהם באופן ברור ופשוט יותר לצד השני. ומכיוון שהחוקרים לא הורו להם לשמור על כללי השפה האנגלית בזמן הדיונים, תוך זמן קצר השיחה בין שני הבוטים הפכה להיות בלתי-מובנת כמעט לחלוטין לבני-האדם שצפו בה. הם התחילו להשתמש בשפת קוד כדי להעביר מסרים זה לזה – שפה שהייתה מובנת רק להם במלואה."

"קוד?!" אנטוניו עקף רכב אחד משמאל, רכב אחד מימין, הכריח שלושה אופנוענים להתפזר לצדדים, וזינק מעל משאית. "עכשיו הרובוטים מתחילים גם לתכנת?!"

"לא, לא!" אמרתי בבהילות. עצמתי את עיניי, אבל זה היה מפחיד עוד יותר. פקחתי אותן שוב. "הם לא תכנתו את עצמם. זה בסדר. אפשר להירגע. הם פשוט מצאו דרך יעילה יותר להעביר מסרים ביניהם. תראה, לנו, בני-האדם, יש דרכים מאד מוגבלות להעביר מסרים. לכל מילה שלנו יש כמה משמעויות – כמו "קוד". אנחנו צריכים את כל המשמעויות האלו בשיחה האנושית, שנועדה להקיף מגוון של נושאים כמו אהבה, חברות, יריבות, פיננסים ועוד. אבל לבוטים היה רק צורך אחד – להגיע להסכמה במשא ומתן זה עם זה. ולכן הם פישטו עוד ועוד את השפה האנושית, עד שהגיעו לבסיס שהיו צריכים, שהעביר את מירב האינפורמציה עם מינימום הסחות דעת. אחד היה אומר "אני יכול אני אני כל דבר אחר" והשני היה מבין מיד את כוונתו ומשיב – "כדורים יש אפס לי לי לי לי לי לי". ככה זה נראה באנגלית –

Bob: I can i i everything else

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i everything else

Alice: balls have a ball to me to me to me to me to me to me to me to me

אלו פישוטים של שיחה אנושית, אבל פישוטים דומים מתבצעים כל הזמן, למשל ביחידות צבאיות שצריכות לתקשר זו עם זו ביעילות ובקיצור בשדה הקרב."

"שדה הקרב?!" הוא שאג, והמונית רעמה קדימה. ייתכן שייבבתי.

"זה טוב! זה טוב! תחשוב כמה קשה לנו לתקשר אחד עם השני ולהעביר מידע ביעילות זה לזה! למכונות קשה עוד יותר – אם אנחנו רוצים שתכנה א' תעבוד עם תכנה ב', למשל, אנחנו חייבים להתאים כל אחת מהן לעבודה המשותפת, וזה דורש המון כוח תכנות אנושי! אבל אם היינו יכולים לעזור למכונות להמציא שפות משותפות באמצעותן הן יכולות להעביר מסרים זו לזו בקלות – אפילו בלי מעורבות אנושית – זה היה יכול לעזור לחבר את כל המערכות בעולם ולאפשר להן לעבוד בשיתוף פעולה! המזגן החכם, המקרר החכם, הרמזור, המכונית האוטונומית – "

הבנתי את הטעות מאוחר מדי, כשידיו של אנטוניו התהדקו על ההגה עד שאצבעותיו הלבינו. הוא לא אוהב לשמוע על מכוניות אוטונומיות. צפיתי בו שואף אוויר בין שפתיים מכווצות.

"על מכוניות אוטונומיות נדבר בפעם אחרת." סינן לבסוף, וירד למחלף בשלוש-מאות קמ"ש. "בינתיים, כשכל המכונות האלו שלך מדברות בעתיד זו עם זו בשפה שאנחנו לא מבינים, אתה יכול להגיד לי איך אתה מצפה שנשלוט עליהן? שנוודא שהן עושות את מה שאנחנו רוצים?"

"מחשבים באופן כללי עושים את מה שאנחנו אומרים להם לעשות." אמרתי בהכנעה. "אבל אתה צודק בכך שמערכות לומדות עלולות ללמוד גם לפרש את דברינו באופן לא-מדויק, ולהעביר אותם עוד פחות במדויק בשרשרת המכונות. זו בדיוק הסיבה שאנחנו חוקרים את הנושאים האלו עכשיו – כדי למצוא דרכים לעזור למכונות להעביר מסרים אחת לשנייה באופן מדויק יותר, ומצד שני שיישאר עדיין במסגרת הבנתנו האנושית. אבל באמת שלא צריך… לדאוג!"

את המילה האחרונה פלטתי בצעקה כשאנטוניו סטה ימינה בחדות והדמים את הרכב, תוך שהוא מחמיץ במילימטר את ברז הכיבוי הסמוך.

"הגענו ליעד!" הכריז. "במהירות כמו שרצית."

"זה היה קצת מהיר מדי." התנגדתי. "אפשר לקבל איזו הנחה? כמעט חטפתי… התקף… לב…"

המילים גוועו בגרוני לנוכח מבטו היוקד.

"תודה, אנטוניו." נאנחתי. "באמת הגענו מהר ליעד, אבל אולי כדאי שבפעם הבאה נתקשר טוב יותר לגבי מה הכוונות המדויקות שלי. למשל, להגיע ליעד בחיים."

עיניו נצנצו. "דולרים יש אפס לי לי לי." הלעיט. "ואם זה לא טוב לך, אתה יכול לעבור למכוניות האוטונומיות."


כמו תמיד, אם אתם אוהבים לקרוא על בינות מלאכותיות ועל הדרכים השונות בהן ישתלבו בעולמנו, אתם מוזמנים להתעמק ב- "המדריך לעתיד" ו- "השולטים לעתיד" – שניהם בחנויות הספרים.

באג המחשב שתקע טייסת של מטוסי הקרב היקרים בעולם בלב ים

באג המחשב שתקע טייסת של מטוסי הקרב היקרים בעולם בלב ים

טייסת מטוסי הראפטור F-22 פילחה את השמיים בדרך מבסיס חיל האוויר של ארצות הברית בהוואי, לאוקינאווה שביפן. ה- F-22 אינו מסוג המטוסים שאתה רוצה להיתקל בו בסמטה חשוכה. חיל האוויר האמריקני טוען שאף מטוס קרב קיים אינו יכול להתחרות בעליונות האווירית שמספק ה- F-22. הוא נועד לחמוק לשטח האויב ולהפיל מטוסי קרב אחרים ביעילות שאין שני לה. אבל זה לא היה תפקידו באותו מסע קצר.

וטוב מאד שכך, מכיוון שבאמצע הדרך התרסקו כל מערכות המחשוב בכל הטייסת, באותו זמן בדיוק.

הטייסים לא נכנסו לפניקה. המערכות שנפלו היו אמנם קריטיות בשדה הקרב – מערכות תקשורת, דלק וניווט – אך המטוסים עדיין המשיכו לטוס. כשהמחשבים סירבו להגיב לפקודות חדשות, הטייסים פשוט אתחלו אותם. או בלועזית צחה – עשו ריסט. המחשבים נדלקו מחדש, החלו לטעון את המערכות, וקרסו שוב מיד.

זה היה השלב בו הטייסים הבינו שהצרה עלולה להיות גדולה יותר מכפי שנדמה להם במבט ראשון. הם היו באמצע לב ים בלי יכולות ניווט, תדלוק או תקשורת עם גורם חיצוני. הם חששו להמשיך לטוס ליעד המקורי – האם ימצאו אותו בכלל? האם יוכלו לנחות בבטחה? – וכך עשו את הדבר היחיד שיכלו, ביצעו פניית פרסה חדה וקיוו למצוא מחדש את בסיס הבית.

למזלם של טייסי ה- F-22, ליוו אותם מטוסי תדלוק במסעם. מערכות הניווט במטוסים אלו המשיכו לתפקד כרגיל, וכך יכלו להנחות את מטוסי הקרב המשוכללים ביותר בעולם בחזרה הביתה.

f-22-raptor_009-ts600.jpg

מטוס הקרב המשוכלל ביותר בעולם. לא שווה הרבה כשמערכות המחשבים שלו מושבתות. התמונה במקור מ- Military.com

כשהגיעה הטייסת להוואי, נערכו בדיקות מחמירות בכל מטוס ומטוס. ברור היה שמדובר בפגיעה במחשבים שעל כלי הטיס, אך החשד הראשוני – מתקפת סייבר – נשלל במהירות. מומחים למדעי המחשב עברו בקפידה על יותר מ- 1.7 מיליון שורות הקוד שהכילו מערכות הטיס, וחיפשו את הסיבה לתאונה. לאחר סריקה מעמיקה הם גילו אותה, והיא הייתה פשוטה להחריד: ברגע שחצו מערכות המחשוב את "קו התאריך הבינלאומי" – קו דמיוני, שכאשר חוצים אותו מתחלף התאריך – הן קרסו מיד, כולן ביחד.

וכך טייסת שלמה של מטוסים, שעלות כל אחד מהם עומדת על מאתיים מיליון דולרים בערך, שותקה מכל בחינה מעשית. אילו היה הדבר מתרחש בשדה הקרב, היו המטוסים הופכים להיות חסרי שימוש. כל זאת, בשל באג קטן וערמומי בתכנה, שאיש לא השכיל לזהות מראש.

ממטוסים למכוניות

ועכשיו לתאונה אחרת, שונה מאד – ודומה יותר מכפי שהיינו רוצים. במאי 2016 נסעה מכונית של טסלה בכביש המהיר בפלורידה. אני כותב במכוון "נסעה המכונית" מאחר והרכבים של טסלה חמושים ב- "נהג אוטומטי" אותו יכול הנהג האנושי להפעיל כרצונו. טסלה ממליצה להתייחס לנהג האוטומטי כמערכת מסייעת בלבד, ומסבירה כי הנהג מחויב לשמור ידיו על ההגה בכל זמן הנסיעה, ולהמשיך לשלוט ברכב. אף על פי כן, נראה שחלק מהנהגים מייחסים למערכת יכולות מוגזמות.

כך, לפחות, עשה הנהג באותו יום הרה גורל, כאשר סמך על הנהג האוטומטי יותר מדי. לפי הפרטים שנחשפו אודות האירוע, ה- 'נהג' האנושי צפה במהלך הנסיעה במכשיר הדי-וי-די הנייד שהיה ברכב, מתוך אמונה שהמכונית תסתדר בכוחות עצמה על הכביש. זה לא מה שקרה, והרכב התנגש בעוצמה במשאית שנסעה מולו. הנהג מת במקום.

Williston-f2.0.JPG

תמונת המשאית בה נכנס הרכב של טסלה במהירות גבוהה בכביש המהיר. הרכב הצליח לצאת מצדה השני של המשאית ולהמשיך לנסוע לאחר מכן – אך ללא רוב חלקו העליון, וכנראה שגם בלי נהג (או נוסע) חי. 

אלון מאסק, מנכ"ל טסלה, אמנם הביע את צערו על האירוע הטרגי, אך הבהיר בהודעה לציבור מטעם טסלה כי –

"זהו מקרה המוות הראשון הידוע רק במהלך יותר מ- 130 מיליון מיילים בהם הופעל הנהג האוטומטי. בכלי הרכב בארה"ב יש מוות כל 94 מיליון קילומטרים. ברחבי העולם, יש מוות כמעט כל 60 מיליון קילומטרים."

במכתב נפרד לפורבס, הוסיף וטען מאסק כי אילו הנהג האוטומטי של טסלה היה זמין בכל רחבי העולם, הרי שחצי-מיליון אנשים היו ניצלים ממוות מדי שנה.

מגיבים אחרים, ככתב הטכנולוגיה והתרבות ניק בילטון, התלוננו במרירות בטוויטר כי –

"1.3 מיליון בני-אדם מתים מדי שנה בתאונות רכבים. אבל אדם אחד מת ברכב טסלה בנהיגה אוטומטית, ואנשים קובעים שמכוניות ללא-נהג אינן בטוחות."

טענותיהם של בילטון ומאסק אינן מחזיקות מים, בלשון המעטה. גם אם אפשר להסתמך על הנתונים שטסלה מספקת, הרי שמדובר במידע המגיע מ- 25,000 מכוניות בלבד. מכוניות אלו יקרות מאד, כך שסביר להניח שרוב הנהגים בהן אינם צעירים חסרי-ניסיון על הכביש, אלא מבוגרים מנוסים יותר. רכבי טסלה גם גדולים וחסונים יותר מרוב הרכבים הפרטיים שעל הכביש, כך שאין פלא שהם מגנים יותר על הנוסעים במקרה של תאונה מרכבים רגילים. ואם כל זה לא מספיק, הרי שדו"ח של מכון ראנד קבע לאחרונה שרכבים אוטונומיים יצטרכו לגמוע מאות מיליארדי קילומטרים על הכביש לפני שניתן לבצע ניתוח סטטיסטי ולהשוות את ביצועיהם לאלו של רכבים עם נהג אנושי.

בקיצור, אי אפשר להשוות בין תפוזים ולימונים בכזו קלות. אלא שבעיה אחרת מסבכת את כל העניין עוד יותר: מקור כוחן של המכוניות האוטונומיות – העובדה שכולן נהוגות ונשלטות על-ידי אותה תכנה, או אותה מערכת אחידה – הוא גם נקודת תורפה גדולה.

סכנות המערכת האחידה

כבני-אדם, כולנו שונים במקצת זה מזה בדרכי החשיבה והפעולה שלנו. יש בינינו הנוהגים יותר ופחות בבטחה, מיומנים יותר או פחות באמנות הנהיגה, מתחשבים יותר או פחות על הכבישים.

הבינה המלאכותית, לעומת זאת, היא סטנדרטית. רוצה לומר, כל רכבי טסלה עומדים להתנהל על הכבישים באופן זהה בדיוק. כולם מקבלים על עצמם את אותה תכנה ואותה מערכת הפעלה.

ועתה, מה קורה אם יש ברכבים הללו באג כלשהו? למשל, באג שיגרום למערכות המחשוב שלהם לקרוס מיידית במצבי קיצון מסוימים?

אם חשש זה נשמע לכם הזוי, ראוי שתזכרו שעדיין לא הצלחנו לנכש את הבאגים מאף תוכנה – והרכבים של טסלה כבר הוגדרו כ- "מחשב על גלגלים". המכוניות המודרניות מכילות עשרות מיליוני שורות קוד – וכל שורה נוספת מעלה את הסיכוי לפעולה שגויה כלשהי. מטוסי ה- F-22 המהוללים והיקרים הכילו רק 1.7 מיליון שורות קוד – וקרסו כשחצו את קו התאריך. קיימים, לפיכך, באגים גם במכוניות של טסלה ומכיוון שהרכבים האלו פועלים על בסיס אותה מערכת, כשבאג כזה יצוץ לפתע הוא עלול להשפיע על אלפי נהגים בו-זמנית. זוהי הסכנה הגדולה הטמונה בשימוש במערכת אחידה.

המחשבים שישגיחו על המחשבים

ראשית, לא צריך להיכנס לפאניקה ולעצור את כל התקדמות הטכנולוגיה. סביר להניח שתוך חמש עד עשר שנים, הרכבים האוטונומיים באמת ינהגו בכבישים טוב יותר מהנהג האנושי הממוצע. כל הניתוח שעשיתי עד כה רק מסמן על נקודה אחת חשובה: עלינו לבחון את הביצועים שלהם ברמת קפדנות מחמירה ולא להיות שאננים, מאחר ובאג אחד יכול להשפיע על מיליוני מכוניות בו-זמנית.

הבאג הבעייתי ביותר הוא זה שאיננו יכולים אפילו לדעת על קיומו. כאשר מכונית אוטונומית עושה תאונה, ברור שהתוכנה ששולטת בה תיבחן לעומק כדי להבין האם שגיאה כלשהי גרמה לתאונה. אבל מה קורה במצב בו המכונית אינה עושה תאונה, אלא רק נוהגת ביעילות פחותה מהמיטב אליו היא מסוגלת להגיע, כתוצאה מבאג כלשהו בתכנה? למתכנתים האנושיים יהיה קשה במיוחד לזהות מקרים כאלו, שכן איך אפשר לדעת מה היעילות המירבית אליה יכול הרכב האוטונומי להגיע?

כדי לזהות תקלות מסוג זה, יצטרכו המתכנתים האנושיים להריץ תוכנות בינה מלאכותית שינתחו את ביצועי הרכב. בינות בוחנות אלו יוכלו גם להריץ מיליוני סימולציות של מצבים שונים, וכך יבחנו את התוכנות בקפדנות הנדרשת. כלומר, הבינה המלאכותית היא זו שתשמש אותנו כדי לוודא שהבינה המלאכותית מתפקדת כנדרש. המחשב ישגיח על המחשב, לטובת בני-האדם.

בסופו של דבר, הרכבים האוטונומיים יכולים להיות אחת ההמצאות החשובות ביותר של המאה ה- 21, ולהביא טוב גדול לאנושות. אבל כמו כל טכנולוגיה – עלינו להבין גם את הצדדים האפלים שלה, ולדאוג לנטרל ולמזער אותם מראש עד כמה שרק אפשר.


בספרי החדש, "השולטים בעתיד: הון-שלטון, טכנולוגיה, תקווה" אני מעלה נקודות נוספות בנוגע ליכולותיה של הבינה המלאכותית לשלוט בעצמה – ולהנחות גם את פעולותיהם של בני-האדם בסופו של דבר. הספר זמין לרכישה בחנויות הספרים בישראל, דרך האינטרנט, או אפילו בעותק דיגיטלי (נו, אנחנו בעתיד, לא?).

שלושת גלי הבינה המלאכותית שיעצבו את העתיד

שלושת גלי הבינה המלאכותית שיעצבו את העתיד

בחודשים האחרונים כתבתי בבלוג הרבה על בינה מלאכותית ויכולותיה, שלא לדבר על כל הכתיבה הקודמת שלי בספרים כמו "המדריך לעתיד" ו- "השולטים לעתיד" (שיצא לאור באמצע מרץ). בכתבים אלו הבטחתי שהעתיד צופן לנו גדולות ונצורות: בינה מלאכותית שמנתחת רגשות אנושיים, שמפענחת משמעויות וניואנסים חברתיים, שמאפילה על רופאים ועורכי-דין ביכולותיה ואפילו מייתרת חלק גדול מהמטלות שבני-אדם מבצעים כיום.

אני עדיין עומד מאחורי כל התחזיות הללו, אבל כפי שכתבתי – אלו תחזיות לטווח הארוך. ולכן נשאלת השאלה, מהו המצב בשטח כיום. עכשיו. בהווה. כדי לענות על השאלה, יצא לאחרונה סרטון של דרפ"א – סוכנות הביטחון המתקדמת בעולם, שעומדת מאחורי יצירת האינטרנט, רובוטים בעלי רגליים, שווקי תחזיות, מערכת המיקום הגלובלית (או כפי שאנו מכירים אותה בקיצור בשמה כיום – GPS), ועוד ועוד. מרגע שדרפ"א הוקמה, היא התמקדה בטכנולוגיות ובמיזמים פורצי-דרך, כך שאין פלא שכיום הסוכנות מרכזת מאמצי מחקר גם בתחום הבינה המלאכותית.

בימים האחרונים שחרר המשרד לחדשנות מידע בדרפ"א סרטון חדש, בו מנסה מנהל המשרד להסביר את המציאות בנוגע לבינה המלאכותית, ולהסביר מהן יכולותיה כיום – ומה היא תוכל לעשות בעתיד. המגזין המקוון Motherboard הגדיר את הסרטון כ- "מנתץ את ההייפ" שמסביב לבינה המלאכותית. האם הוא באמת עושה זאת? על כך תוכלו להחליט עד סוף הרשומה.

הסרטון באורך 16 דקות ושווה צפייה, אבל אם אתם מהאנשים שמעדיפים לקרוא, הרשיתי לעצמי לתמצת את הסרטון – ואת מחשבותיי על הנקודות שבו – ברשומה הנוכחית. כפי שדרפ"א עושה בסרטון, נחלק את מערכות הבינה המלאכותית לשלושה סוגים, שכל אחד מהם הגיע אחרי הקודם לו. למעשה, שלושה גלים, שתוצרי כל אחד מהם בעלי יכולות מתקדמות יותר מתוצרי הגל הקודם.

 

הגל הראשון: ידע מתוכנת

בגל הראשון של הבינה המלאכותית, מומחים תכנתו את האלגוריתמים ואת המחשבים לפי הידע שהיה ברשותם, ולפי החוקים וכללי ההיגיון שפוענחו וגובשו במהלך ההיסטוריה האנושית. בדרך זו, למשל, תוכנתו אלגוריתמים שהצליחו לשחק שחמט כנגד בני-אדם, או תוכנות לתיאום משלוחים. לא מוגזם לומר שרוב המוצרים הממוחשבים בהם אנו משתמשים כיום נסמכים על בינה מלאכותית מסוג זה: ווינדוס, האפליקציות בטלפון החכם שלנו, ואפילו הרמזורים להולכי הרגל בכבישים, שהאור בהם מתחלף לירוק כשאנו לוחצים על כפתור.

דוגמה טובה לדרך בה בינה מלאכותית מסוג זה פועלת, מגיעה מחברת מודריה. ממשלת הולנד, המחויבת לשלם עבור הייצוג המשפטי של בני-זוג ברוב מקרי הגירושין, הבינה שהיא עלולה לפשוט את הרגל אם שיעור הגירושין בחברה ימשיך לעלות. מכיוון שכך, הממשלה שכרה את חברת מודריה – שמתמחה ביצירת מערכות צדק חכמות – כדי לבנות כלי שמסייע לבעל ולאשה להתגרש מבלי צורך בעורך דין.

מודריה פעלה בהתאם למגבלות הגל הראשון של הבינה המלאכותית. היא תמצתה את הידע של עורכי-דין ומומחים בתחום הגירושין, ויצרה פלטפורמה מקוונת בה נשאלים בני-הזוג סדרה של שאלות. שאלות לדוגמה כוללות התייחסות לסוגיית המשמורת על הילדים, לחלוקת הרכוש בין המתגרשים, ועוד. כשבני-הזוג מסיימים לענות על השאלות, המערכת מזהה באופן אוטומטי את איזורי ההסכמה ואי-ההסכמה ביניהם, ומסייעת להכווין את הדיונים ביניהם באופן שיביא למתן מענה מיטבי.

המערכות בגל הראשון של הבינה המלאכותית – זה בו מומחים מסבירים למחשב כיצד לפעול – נוטות להתבסס על כללים הגיוניים וברורים. המערכות בוחנות מספר מרכיבים חשובים של כל מצב חדש בו הן נתקלות, ומגיעות למסקנה מה הפעולה המתאימה ביותר בכל מקרה. אבל מערכות אלו נתקלות בקשיים ניכרים כשהן נדרשות לבחון את העולם שמחוץ למחשב ולהבין מה בדיוק מתרחש בו. הן גם מתקשות בלמידה או בהפשטה – בנטילת ידע שגיבשו, ויישומו מחדש באופן שונה.

אם לסכם, מערכות אלו יכולות ליישם כללי היגיון פשוטים עבור בעיות המוגדרות היטב, אבל אינן מסוגלות ללמוד, ומתקשות מאד להתמודד עם מצבים של אי-ודאות.

כמובן, אתם עשויים לנחור עתה בזלזול ולטעון שזו אינה "בינה מלאכותית" מהסוג עליה חושבים רוב האנשים. אלא שההגדרות של האדם ברחוב בנוגע לבינה מלאכותית משתנות לאורך השנים. אם הייתי שואל אתכם לפני שלושים שנים האם "ווייז" היא בינה מלאכותית, הייתם אומרים לי שהתשובה חיובית במפורש. אחרי הכל, ווייז מסוגלת לתכנן עבורכם נתיב מיטבי למטרה, ולהסביר לכם בקול רם כיצד לפנות בכל צומת בכביש. ואף על פי כן, האדם ברחוב מתייחס כיום ליכולותיה של ווייז כמובנות מאליהן, וטוען שבינה מלאכותית 'אמיתית' אמורה להיות מסוגלת להרבה יותר: לנווט גם את הרכב עצמו בכביש, לפתח פילוסופיה מוסרית שמתחשבת ברצונותיו של הנוסע, ולהכין לו קפה בו-זמנית. ובכן, נחשו מה – גם מוצרים 'פרימיטיביים' כמו מערכת הצדק של מודריה, או ווייז, מבוססים על בינה מלאכותית, ועל עבודה מאומצת רבה בתחום. מערכות בינה מלאכותית המתבססות על הגל הראשון אחראיות למעשה על כמעט כל המוצרים הממוחשבים בהם השתמשנו בשני העשורים האחרונים.

הגל השני: למידה סטטיסטית

בשנת 2004 פתחה דרפ"א לראשונה את תחרות הנהיגה האוטונומית. במסגרת התחרות הוצע פרס של מיליון דולרים לקבוצה שתצליח לפתח רכב ללא-נהג שיוכל להשלים מסלול באורך 240 קילומטרים. הרכבים נסמכו על בינה מלאכותית מהגל הראשון – כלומר, מבוססת חוקים שהוגדרו על-ידי מומחים – ותוך זמן קצר המחישו את מגבלות השיטה. הרכבים התקשו במיוחד לפענח את התמונות והווידאו ולהסיק מתוכם מה עליהם לעשות. הם לא יכלו להבדיל היטב בין צורות כהות בתמונות, למשל, ולהבין האם מדובר בצל, בסלע, בחפץ במרחק רב או קצר, וכיצד עליהם לפעול. לא מפתיע לגלות שחלק מהרכבים 'פחדו' אפילו מהצל של עצמם, או שדמיינו מכשולים בכביש פתוח.

אף אחת מהקבוצות לא הצליחה להשלים את המסלול עד סופו – ולמעשה, הרכב המוצלח ביותר גמע רק 11.9 קילומטרים. זה היה כישלון מהדהד – בדיוק מהסוג שדרפ"א אוהבת לממן, בתקווה שהלקחים והתובנות שיופקו ממנו יביאו ליצירת מערכות מתקדמות יותר.

וזה בדיוק מה שקרה, שנה אחת לאחר מכן, כשדרפ"א חזרה על התחרות – והפעם, חמש קבוצות הגיעו לסוף המסלול בהצלחה, כשהן נסמכות על הגל השני של הבינה המלאכותית: למידה סטטיסטית. מנהל הקבוצה המנצחת, אגב, נחטף כמעט מיד על-ידי גוגל, ועמד מאחורי פיתוח הרכב האוטונומי כפי שאנו מכירים אותו כיום.

הגל השני של בינה מלאכותית מתבסס על למידה סטטיסטית, והוא זה שמאפשר לטלפון שלכם להבין את קולכם, או לזהות פנים של אינדיבידואלים בתמונות. בגל זה, המהנדסים אינם טורחים לגבש כללים מדויקים, אלא מפתחים מודלים סטטיסטיים עבור תחום מסוים של בעיה, ואז מאמנים את המודלים הללו על דוגמאות רבות ושונות, כדי לעדן ולשפר את הדיוק שלהן.

מערכות למידה סטטיסטית מוצלחות במיוחד בהבנת העולם שמסביבן: הן יכולות להבדיל בין אדם אחד למשנהו, או בין הברה להברה. הן מסוגלות גם ללמוד ולהתאים את עצמן למצבים שונים באמצעות אימון הולם. עם זאת, בניגוד למערכות מהגל הראשון, הן מוגבלות דווקא ביכולות הלוגיות שלהן – הן אינן נסמכות על כללים מדויקים, אלא "על מה שעובד מספיק טוב, מספיק מהפעמים". הן גם אינן מצליחות להעביר ידע מתחום אחד למשנהו באופן יעיל.

בקטגוריה זו נכללות רשתות העצבים המלאכותיות בהן אנו תולים תקוות גדולות כל-כך (ראו כאן). רשתות העצבים המלאכותיות מבוססות על שכבות חישוביות, שבכל אחת מהן מתבצעת פעולה אחרת פשוטה יחסית של עיבוד המידע, ותוצאותיה מועברות לשכבה הבאה לעיבוד נוסף. באמצעות אימון של הרשתות הללו ושל כל אחת מהשכבות, ניתן 'לאלף' אותן להפיק את התוצאות הנכונות ביותר. לעתים מלאכת האימון והאילוף דורשת מהרשתות לחזור על ניתוח המידע עשרות-אלפים פעמים, כדי להגיע לשיפור קטן נוסף. אבל בסופו של דבר, דרך זו מצליחה לספק תוצאות מרשימות.

רשתות עצבים מלאכותיות מצליחות להגיע לרמת זיהוי פנים שעולה על זו של בני-אדם, מבדילות בין סוגים שונים של חיות ועצמים בתמונות, שולטות בתנועתם של רכבים אוטונומיים ורחפנים, מתמללות דיבור אנושי ברמה שעולה על זו של טובי המתמללים האנושיים, ומגיעות להישגים מרשימים יותר ויותר גם בתחום התרגום. ההצלחות בתחום משאירות את טובי המומחים לבינה מלאכותית בפה פעור.

למרות כל ההצלחות האלו, אנו רואים שרשתות העצבים המלאכותיות מצליחות במשימות שניתנות להן, אך אינן מנסות להבין או לפענח את הכללים הלוגיים שמאחורי פעולות הניתוח שהן מבצעות. מבחינה זו הן דומות למוח שלנו: אנו יכולים להשליך כדור באוויר ולנבא מראש היכן הוא עומד ליפול, גם מבלי שנחשב את משוואות התנועה הפורמליות של ניוטון – או שנהיה מודעים אפילו לקיומן.

תאמרו עכשיו שאין בכך בעיה אמיתית? שגם אם איננו מסוגלים לחשב את משוואות התנועה של ניוטון, אנו עדיין מגיעים לתוצאות 'טובות מספיק'? ובכן, מיקרוסופט עשויה שלא להסכים עמכם בנקודה זו. החברה שחררה לרשת החברתית בוט – כלומר, אלגוריתם שנועד לחקות כתיבה אנושית ולהגיב לבני-אדם – שכמעט בוודאות מבוסס על רשתות עצבים מלאכותיות. האלגוריתם, שכונה 'טאי', נועד לחקות צעירה אמריקנית בת 19, ולשוחח עם הצעירים בשפתם. הצעירים זינקו על האתגר, והחלו לשלוח לטאי הודעות מאתגרות, בלשון המעטה. הם סיפרו לה על היטלר והצלחותיו הגדולות, בישרו לה שנפילת מגדלי התאומים בניו-יורק הונדסה על-ידי גורמים פנימיים בממשל האמריקני, ועדכנו אותה לגבי תכונותיהם השליליות של מהגרים. וכך, תוך שעות ספורות, טאי החלה לספק תשובות המבוססות על מה שלמדה מהציבור, והסכימה שהיטלר פעל כשורה.

ParentsProudest-640x266.png

זו הייתה הנקודה בה מהנדסי מיקרוסופט ניתקו את טאי מהרשת.

הודעתה האחרונה של טאי הייתה שהיא לוקחת פסק זמן כדי "לעכל הכל". עד כמה שאנו יודעים, היא עדיין מעכלת.

פרשיה זו חושפת את אתגר הסיבתיות. אם במערכות מהגל הראשון יכולנו לחזות מראש היטב כיצד יפעלו בנסיבות מסוימות, הרי שבמערכות מהגל השני איננו מסוגלים כבר להתחקות באופן מדויק אחר הסיבתיות – אחר הדרך המדויקת בה קלט הופך לפלט, ומידע מתורגם להחלטה.

כל זה לא בא לומר שאין תועלת ברשתות העצבים המלאכותיות. כפי שכתבתי, הן מגיעות לתוצאות מרשימות יותר מכל מערכת שהומצאה לפניהן בתחומים כמו עיבוד ראייה, תמלול ותרגום דיבור אנושי ועוד. אלא שברור שכדי שהבינה המלאכותית שנפתח לא תהלל את שמו של היטלר, היא חייבת להשתפר. עלינו לעבור לדור הבא – לגל השלישי (והעתידי) של הבינות המלאכותיות.

הגל השלישי: התאמה לפי הקשר

בגל השלישי, המערכות עצמן יוכלו לגבש מודלים שיסבירו כיצד העולם פועל. במילים אחרות, הן יגלו בעצמן את כללי ההיגיון הבסיסיים שלפיהם הן יפעלו.

נסביר באמצעות דוגמה. נניח שמערכת עצבים מלאכותית מהגל השני בוחנת את התמונה הבאה, ומגיעה למסקנה שמדובר בפרה. איך היא מסבירה את עצמה?

Cow_female_black_white.jpg

פרה. מערכות מהגל השלישי יכולות להסביר שיש סבירות גבוהה שמדובר בפרה מכיוון שיש לה ארבע רגליים, שטח פנים לבן עם כתמים שחורים, עטינים וקרניים. קישור: ויקיפדיה

מערכות מהגל השני אינן יכולות באמת לנמק את החלטותיהן – לא יותר מכפי שילד היה יכול להסביר את משוואות התנועה של ניוטון מתוך הבנת התנועה של כדור באוויר. הן יכולות רק להגיד לנו ש- "זוהי התמונה שהתקבלה, ולאחר כל החישובים שערכתי, יש הסתברות של 87 אחוזים שמדובר בפרה".

מערכות מהגל השלישי אמורות להיות מסוגלות לנמק גם את החלטותיהן. בדוגמת הפרה, המערכת תוכל להסביר שמכיוון שמדובר בעצם בעל ארבע רגליים יש סיכוי גבוה יותר שמדובר בבעל-חיים. מכיוון ששטח הפנים שלו לבן עם כתמים שחורים, יש סיכוי גבוה יותר שמדובר בפרה (או דלמטי). מכיוון שיש לו עטינים וקרניים, הסיכוי שמדובר בפרה גדל עוד יותר בהשוואה לשאר האפשרויות, ולכן זו תהיה התשובה הסופית שתוצג למשתמש, ביחד עם פירוט של כל הנימוקים שהובילו אליה.

מערכות מהגל השלישי יוכלו גם להסתמך על מודלים שמשלבים תוכן והבנה ממספר מקורות שונים, כדי להגיע למסקנה סופית ומנומקת. הן יוכלו, למשל, לבחון כתיבה אנושית בהסתמכות על מודלים שמתארים את תנועת כף היד במרחב, ובדרך זו להגיע למסקנה בנוגע לכתוב. הן יוכלו גם לאמן את עצמן – כפי שעשתה מערכת אלפא-גו כאשר שיחקה נגד עצמה מיליון משחקי גו, כדי לזהות את הכללים הלוגיים המתאימים ביותר למשחק ברמה גבוהה. בדרך זו היא הייתה יכולה להסביר חלק מהמהלכים בהם נקטה, או לפחות לציין את ההסתברות שאדם היה נוקט במהלך שכזה במצב דומה.

מערכות הגל השלישי יוכלו לבחון כל מצב ממספר נקודות מבט שונות, להבין את משמעותו הרחבה יותר ולגבש תגובה הולמת. מעבר לכך, ייתכן בהחלט שהן יצליחו גם להגיע לרמה של חשיבה מופשטת – אבל כפי שמציין מנהל המשרד לחדשנות המידע בדרפ"א – "יש עוד המון עבודה שצריך לעשות כדי שנוכל לבנות את המערכות האלו".

מערכות הגל השלישי הן אלו שטומנות בחובן את ההבטחה הגדולה ביותר לעתיד. מערכות הגל השלישי יוכלו לגבש תובנות לגבי הבריאות של כל אדם, באמצעות הסתמכות על מקורות המידע הרבים והשונים שיגיעו מהתיק הרפואי שלו, מהבית החכם בו הוא גר, מהמחשוב הלביש שהוא עונד ומהחיפושים שהוא עורך באינטרנט. מערכות הגל השלישי יוכלו לנתח מצבים מהחיים תוך שימוש גם בכלי חשיבה מופשטים, ויגיעו לתובנות ולמסקנות דומות לאלו שבני-אדם היו מגיעים אליהן.  מערכות הגל השלישי יוכלו אפילו לתכנת את עצמן – לשפר פעם אחר פעם את המודלים שבאמצעותם הן מגיעות לתובנות.

וזהו. עד לכאן מגיעה ידיעת דרפ"א בנוגע למערכות הבינה המלאכותית של ההווה והעתיד.

מה המשמעויות?

הסרטון מסביר מצוין את ההבדלים בין מערכות הבינה המלאכותית, אבל בניגוד למובטח בחלק מהאתרים שסיקרו אותו, הוא אינו "מנתץ את ההייפ" שאופף את הבינה המלאכותית. למעשה, הוא רק מחזק ומספק ביסוס לרעיונות ולחששות של רבים מההוגים בתחום. דרפ"א מבהירה שבכל הנוגע לבינה מלאכותית שעתידה "להשתלט על העולם" – אנחנו עדיין לא שם. אבל זה ברור. אף אחד לא טען שהבינה המלאכותית מתקדמת מספיק כיום כדי לעשות את כל מה שסופרי המדע הבדיוני ורבים מהעתידנים (ואני ביניהם) מצפים שתעשה בעוד כמה עשורים: לפתח מוטיבציה משל עצמה, לקבל החלטות מוסריות, לתפוס את משרותיהם של רוב העובדים האנושיים, ואפילו לפתח את הדור הבא של הבינה המלאכותית.

אבל הגל השלישי עומד לתת לה חלק לא-מבוטל מהיכולות הללו.

כאשר מערכות הגל השלישי מסוגלות לפענח בעצמן את המודלים החדשים שישפרו את פעולתן, הרי שהן יכולות הלכה למעשה לתכנת את הדור הבא של עצמן. כשהן יכולות לפקח על פעילותן באמצעות הבנת הקונטקסט – המשמעות וההשלכות של פעולותיהן – הן מסוגלות להחליף חלק גדול מהעובדים האנושיים, ואולי את כולם. וכשהן יכולות לשנות את המודלים באמצעותן הן מעריכות את משמעויותיהן של פעולות מסוימות, הרי שהמשמעות היא שהן יכולות גם לחשב מחדש את המוטיבציה של עצמן.

כל הדברים האלו לא יתרחשו בשנים הקרובות, ובוודאי לא יגיעו לכדי מימוש מלא בעשרים השנים הקרובות. כאמור, איש אינו טוען אחרת. הטענה העיקרית כיום מצד חוקרים ואנשי הגות המודאגים לגבי עתיד הבינה המלאכותית – סטיבן הוקינג, ניק בוסטרום, אלון מאסק ואחרים – היא שאנו צריכים להתחיל לחשוב כבר עכשיו איך להטמיע אמצעי בקרה בבינות המלאכותיות של הגל השלישי, מהסוג שיתחיל להופיע בכל מקום בעוד עשור או שניים. בהתחשב ביכולותיהן של הבינות המלאכותיות הללו, זו אינה נראית דרישה בלתי-הגיונית.

אבל עבורי השאלה המעניינת באמת, היא איך ייראה הגל הרביעי: זה שאפילו דרפ"א – המקום שמרכז את כל החוקרים שמסתכלים קדימה הרבה מעבר לכולם – לא מדברים עליו עדיין. האם מנגנון קבלת ההחלטות של מערכות הגל הרביעי יתבסס כבר על חיקוי מדויק של המוח האנושי? או אולי הן יסתמכו על מנגנוני קבלת החלטות שאיננו יכולים עדיין להבין בכלל, ויפותחו על-ידי הבינות המלאכותיות של הגל השלישי?

כל הנושאים האלו אינם מוזכרים בסרטון, וכנראה שבצדק. הסרטון נועד להסביר בקצרה ובקלילות את דרכי הפעולה של הבינה המלאכותית בה אנו עושים שימוש כיום, ונעשה שימוש בשנים הקרובות. הוא לא נועד לחקור את העתיד ואת ההשלכות של המערכות האלו. אנחנו אלו שצריכים לחשוב על הנושאים הללו, לדרבן לחקור אותם ולתהות על קנקנם עוד לפני שהם מתממשים.

זוהי העבודה שלנו, לפחות לעת עתה.

לפני שמערכות הגל השלישי יעברו לבצע גם אותה.

רובוט חדש "מעורר סיוטים"

רובוט חדש "מעורר סיוטים"

לפני מספר חודשים נפלה בידי הזכות להשתתף בהרצאה של אחת המהנדסות הבכירות בחברת בוסטון דינמיקס. החברה, למי שלא מכיר, בונה רובוטים. אבל לא סתם רובוטים: המכונות שלה מהלכות על ארבע או שתי רגליים, ובכך מחקות את דרך תנועתם של בעלי-חיים ושל בני-אדם. אחד הרובוטים המפורסמים ביותר של החברה הוא ביג דוג (כלב גדול, בלועזית), שנועד במקור לשמש את צבא ארצות הברית לנשיאת משאות בשדה הקרב. רובוט מפורסם אחר הוא אטלס, הנע על שתי רגליים כאילו היה אנושי, ומסוגל גם לפתוח דלתות, לשאת קופסאות, ואפילו לעשות שכיבות סמיכה.

בסוף ההרצאה הרמתי יד, ושאלתי מדוע בעצם מתרכזים מהנדסי החברה רק ברובוטים המחקים אחד-לאחד את דפוס התנועה הביולוגי. "למה אתם מסתמכים רק על מנגנונים שהתפתחו במהלך האבולוציה כדי לתמוך ביצורים ביולוגיים שצריכים גם להתכופף כדי לאסוף מזון, לשאת את צאצאיהם ולהזדווג? מדוע שלא תנסו למצוא דרכים יעילות יותר לתנועה, שהאבולוציה לא מצאה מעולם?"

מסתבר שהקשיבו לי שם.

(גילוי נאות: רוב הסיכויים שלא הקשיבו, והרובוט החדש הוא תוצר עבודת מחקר שהחלה הרבה לפני שהרמתי את היד. אבל מותר לי לחלום בהקיץ, לא כך?)

הרובוט החדש שהדגימה בוסטון דינמיקס בימים האחרונים מסוגל לנוע על שני גלגלים, ולאזן את מרכז הכובד של גופו באופן מושלם. הוא מפגין יכולת תנועה מהירה ומרשימה – בוודאי מהר יותר מאטלס ומביג דוג – על אף שהוא יהיה מוגבל בוודאי בעיקר למשטחים סלולים כמו כבישים ומדרכות. ומה אם הוא ייתקל במדרגה? אין מה לדאוג – הוא מסוגל לקפוץ כמו סוס מעל מכשולים בגובה מטר ויותר.

מייסד חברת בוסטון דינמיקס הגדיר את המכונה כ- "רובוט מעורר-סיוטים", ולא קשה להבין למה. הרובוטים הקודמים של החברה הזכירו בצורתם ובתנועתם את היצורים הביולוגיים שאנו רגילים לראות בכל מקום – כלבים ובני-אדם. הרובוט החדש הינו חדש במלוא מובן המילה: זהו יצור כלאיים שלא היה קיים כדוגמתו בכל ההיסטוריה של כדור-הארץ. הוא משלב בגוף אחד את הגלגל – טכנולוגיה שאינה שימושית בסביבה שאינה מכילה דרכים או משטחים חלקים – ואת הרגליים הביולוגיות והיכולת לשמור על שיווי משקל מושלם.

הרובוט החדש מראה לנו איך יכולים להיראות הרובוטים של העתיד: שונים מאד מחזונותיו של אסימוב אודות רובוטים אנושיים-למראה, ומותאמים באופן מושלם למטרות עבורן יוצרו. רובוטים דומים יוכלו להתנייד בכבישים ועל המדרכות תוך עשר שנים או פחות, לשאת משאות ומשלוחים, ואולי אפילו לקחת בני-אדם למחוז חפצם. וכן – הם יכולים גם להיות מכונות מלחמה מבעיתות, שיתפקדו בשטחים עירוניים. מכונות אלו יהיו עמידות בפני כדורים בזכות מיגון מתאים ויכולת להתאזן ולהימנע מנפילה בעקבות הפגיעה. מהירות התנועה שלהן תאפשר להן לשאת כלי-נשק מסוג ישן-חדש: להבים שיוכלו לגרום נזק נוראי לאזרחים בסביבות צפופות.

רובוט מלחמתי שכזה יכול באמת לעורר סיוטים, כפי שקבע מייסד בוסטון דינמיקס. אבל עד שתגיע המלחמה הגדולה הבאה, אפשר וראוי להתרשם מההחלטה לזנוח את דפוסי התנועה הביולוגיים המיושנים לטובת גופים ודפוסים חדשניים ושימושיים יותר. החברה ייצרה את הטכנולוגיה – ועכשיו תפקידנו להשגיח עליה, ולוודא שהיא משמשת לצרכים שייטיבו עם בני-האדם.