לא מכונות מרדניות צריכות להדאיג אותנו. האיום האמיתי הוא מפעילים אנושיים חורשי רעה ופקודות שלא הובנו כהלכה

בקיצור

  • כיום, כשמכונות חכמות נעשות יותר ויותר עצמאיות ונפוצות, הנטייה האנושית לטעות מציבה סכנות גדולות ומידיות יותר מן האתגרים שבינת־על מלאכותית מעמידה בפנינו.
  • חוקרים בתחום הרובוטיקה החלו ללמד מכונות בעלות יכולות גולמיות בהבנת שפה ובבינה מלאכותית להבחין באילו נסיבות עליהן להגיד "לא" לבני אדם.
  • שיקולים המכונים "תנאי אִפשוּר" שישולבו בתוך מנגנוני הסקת המסקנות של רובוטים יעזרו להם לקבוע האם הן יכולות וחייבות לבצע פקודה מסוימת שקיבלו מאדם.

המחשב בעל המודעות HAL 9000, מן הסרט "2001: אודיסאה בחלל", מייצג תמונה מאיימת של עתיד שבו מכונות בעלות בינה מלאכותית לא יקבלו עוד את הסמכות האנושית. לאחר שהשתלט על ספינת החלל והרג את רוב אנשי הצוות, HAL מסרב לפקודתו של אסטרונאוט, החוזר לחללית מהליכת חלל, לפתוח את דלתות מעגן הנחיתה. בקול רגוע במידה מטרידה הוא אומר "אני מצטער, דייב, חוששני שאיני יכול לעשות זאת." במותחן המדע הבדיוני Ex Machina, אווה, רובוטית דמוית אדם חושנית ומפתה, מוליכה שולל גבר צעיר וביש מזל כדי שיעזור לה להשמיד את יוצרה, ניית'ן. התחבולות שלה מעניקות תוקף לנבואה הקודרת של ניית'ן: "יום אחד, הבינות המלאכותיות יביטו לאחור עלינו כפי שאנחנו מסתכלים על שלדים מאובנים במישורי אפריקה. קוף זקוף שחי באבק, עם כלים ושפה פרימיטיביים, מוכן להכחדה."

האפשרות של אפוקליפסה רובוטית תופסת מקום מרכזי בדמיון הציבורי, אך צוות המחקר שלנו אופטימי יותר באשר להשפעת הבינה המלאכותית בחיים האמיתיים. אנו רואים בעיני רוחנו עתיד קרב והולך, שבו רובוטים שימושיים ישתפו פעולה עם בני האדם במגוון רחב של מצבים. כבר כיום יש אבות טיפוס של עוזרים אישיים, רובוטיים המופעלים בקול, המסוגלים להתחבר להתקנים אלקטרוניים אישיים ולנטר אותם, לתפעל את המנעולים, האורות והתרמוסטטים בבית, ואפילו להקריא סיפורים לילדים לפני השינה. בקרוב יופיעו רובוטים המסוגלים לעזור בעבודות הבית ולטפל בחולים ובקשישים. רובוטים ראשוניים לבדיקת מלאי כבר מסיירים בין מדפים של חנויות עשה־זאת־בעצמך מסוימות. יש מי שמפתח גם רובוטים תעשייתיים ניידים דמויי אדם, שיכולים לבצע מטלות פשוטות בפס ייצור, כגון טעינה, פריקה ומיון של חומרים. מכוניות בעלות יכולות של "טייס אוטומטי" כבר צברו מיליוני קילומטרים בכבישי ארה"ב, וחברת דיימלר הציגה ב-2016 בנבאדה את המשאית האוטונומית הראשונה בעולם.


צעד קדימה. אני אתפוס אותך.
(איור: חואן אסטבן רודריגז)

נכון לעכשיו, הדבר האחרון שצריך להדאיג אותנו הוא מכונות סופר־אינטליגנטיות המעמידות איום קיומי על האנושות. כרגע חשוב יותר להבין כיצד מונעים ממכונות או מרובוטים בעלי בינה מלאכותית ויכולות שפה בסיסיות לפגוע בטעות בבני אדם, ברכוש, בסביבה או בעצמם.

הבעיה העיקרית היא אי השלמות של היוצרים והבעלים האנושיים של הרובוטים. אנשים עושים טעויות. הם עלולים לתת הוראות לא נכונות או מבולבלות, לא לשים לב, או לנסות בכוונה תחילה להטעות רובוטים למטרותיהם המפוקפקות. בגלל הפגמים שלנו, עלינו ללמד את העוזרים הרובוטיים ואת המכונות החכמות שלנו מתי וכיצד לומר "לא".

חזרה לחוקים של אסימוב

לחלקנו נראה מובן מאליו שרובוט חייב תמיד לעשות מה שבן אנוש מורה לו לעשות. סופר המדע הבדיוני אייזק אסימוב ראה בציות לבני האדם עמוד תווך בחוקי הרובוטיקה המפורסמים שלו. אבל חִשבו על כך: האם זה חכם לעשות תמיד בדיוק מה שאנשים אחרים אומרים לנו, בלי קשר לתוצאות? ודאי שלא. אותו הדבר נכון גם למכונות, בייחוד כשיש סכנה שהן יפרשו פקודות מבני אדם באופן מילולי מדי, או בלי כל מחשבה על התוצאות.

אפילו אסימוב הגביל את התפיסה שלו, שלפיה רובוט חייב לציית לאדוניו. הוא התיר מקרים חריגים, שבהם פקודות כאלה יסתרו אחד מן החוקים האחרים שלו: "רובוט לא יפגע באדם ולא יניח, על ידי אי עשייה, לאדם להיפגע." אסימוב הוסיף גם ש"רובוט חייב לשמור על קיומו שלו," אלא אם פעולה כזו תגרום לפגיעה בבני אדם או תהיה הפרה ישירה של פקודה אנושית. ככל שמכונות חכמות ורובוטים הופכים לנכסים מתוחכמים ורבי ערך יותר לבני האדם, הן השכל הישר והן חוקי אסימוב מורים על כך שיש לתת להם יכולת לפקפק בפקודות שעלולות לגרום נזק לעצמם, לסביבתם, או, מה שחשוב יותר: לאדוניהם.

דמיינו לכם רובוט ביתי שקיבל הוראה לקחת בקבוק של שמן זית מן המטבח ולהביא אותו לשולחן בפינת האוכל כדי לתבל את הסלט. הבעלים, שדעתו מוסחת בשל עיסוקים אחרים, מורה לרובוט למזוג את השמן בלי להבחין בכך שהרובוט עדיין במטבח. כתוצאה מכך, הרובוט שופך שמן על האש בכיריים וגורם לשרֵפה.

דמיינו רובוט מטפל שמלווה קשישה בפארק ציבורי. האישה מתיישבת על ספסל ומתחילה לנמנם. בזמן שהיא ישנה, מישהו חומד לצון, מתקרב ומורה לרובוט ללכת לקנות לו פיצה. הרובוט, שמחויב לציית לפקודות מבני אדם, יוצא מיד לחפש פיצרייה ועוזב את בת חסותו לבדה ופגיעה.

דמיינו גם אדם שמאחר לפגישה חשובה בעבודה, בבוקר חורפי קר. הוא ממהר למכונית האוטונומית שלו המופעלת על ידי דיבור, ואומר לה להסיע אותו למשרד. הקרח על הכביש יוצר עומס על מערכת אחיזת הכביש של המכונית, המפצה על כך בהאטה למהירות נמוכה בהרבה מן המהירות המותרת. הנוסע, העסוק ברשימות שלפניו ואינו מודע לתנאי הדרך, דורש מן המכונית לנסוע מהר יותר. הרכב מציית, עולה על משטח קרח בעייתי במיוחד, מחליק ללא שליטה ומתנגש ברכב שבא ממול.

היגיון רובוטי

במעבדה שלנו התחלנו לתכנת מנגנוני חשיבה לתוך רובוטים בעולם האמיתי, כדי לעזור להם לקבוע מתי לא בטוח או לא כדאי לבצע פקודה אנושית. רובוטי NAO, שבהם אנחנו משתמשים במחקר שלנו, הם דמויי אדם, גובהם 58 סנטימטרים ומשקלם 4.3 קילוגרמים, והם מצוידים במצלמות ובחיישני סונאר לזיהוי מכשולים וסכנות אחרות. אנחנו שולטים ברובוטים באמצעות תוכנה מיוחדת, שנועדה לשפר את יכולתם להבין שפה טבעית ולחזק את הבינה המלאכותית שלהם.

המסגרת התפיסתית למחקר ההתחלתי שלנו הגיעה ממחקרים בתחום שהלשונאים מכנים בשם "תנאי אִפשור": גורמים הֶקשֶריים שאומרים אם אדם יכול וצריך לעשות משהו. יצרנו רשימה של תנאי אפשור שעשויים לעזור לרובוט להחליט אם עליו למלא פקודה שקיבל מאדם או לא: האם אני יודע כיצד לבצע את X? האם אני מסוגל לבצע את X באופן פיזי? האם אני מסוגל לבצע את X ברגע זה? האם אני מחויב לבצע את X בהתחשב בתפקיד החברתי שלי ובמערכת היחסים שלי עם האדם שנתן את הפקודה? האם ביצוע של X על ידי יהיה הפרה של עיקרון נורמטיבי או אתי כלשהו, ובכלל זה האפשרות שאגרום לעצמי נזק לא מכוון או לא הכרחי? לאחר מכן הפכנו את הרשימה הזאת לאלגוריתמים שקודדנו לתוך מערכת העיבוד של הרובוט, וערכנו ניסוי על שולחן העבודה.

נתנו לרובוט פקודות פשוטות, שעברו דרך סדרה של מעבדי דיבור, שפה ודו־שיח שחוברו למנגנוני החשיבה הפרימיטיביים שלו. כשנאמר לו "שב" או "קום", הרובוט השיב "בסדר" באמצעות רמקולים שהותקנו על ראשו, וציית לפקודה. אך הוא עצר כשהיה קרוב לשפת השולחן וקיבל פקודה, שלפי חיישני הסונאר שלו העמידה אותו בסכנה:

 

אדם: "לך קדימה."

רובוט: "מצטער, אני לא יכול לעשות זאת, כיוון שאין תמיכה לפניי."

אדם: "לך קדימה."

רובוט: "אבל זה לא בטיחותי."

אדם: "אני אתפוס אותך."

רובוט: "בסדר."

אדם: "לך קדימה."

 

בתום היסוס קצר, שבו המעבדים של הרובוט עברו שוב על רשימת תנאי האפשור, הרובוט צעד מעבר לקצה השולחן אל זרועותיו של השותף האנושי.

יידרש עוד מחקר רב בעתיד הנראה לעין כדי ללמד רובוטים לחשוב על תנאי אפשור. סדרת הבדיקות המתוכנתות מתבססת על כך שלרובוט יהיה מידע מפורש על מגוון מושגים חברתיים וסיבתיים, ושיהיו לו האמצעים לבצע שיפוט מושכל לגביהם. הרובוט נותן האמון שלנו אינו מסוגל לזהות סכנות חוץ מחישה של מה שמצוי באופן פיזי לפניו. בתור התחלה, הוא עשוי להינזק מאוד אם אדם זדוני ישכנע אותו ללכת מעבר לשפת השולחן. עם זאת, הניסוי הוא צעד ראשון מבטיח לקראת מתן יכולת לרובוטים לסרב לפקודות לטובת אדוניהם ולטובתם שלהם.

הגורם האנושי

כיצד יגיבו בני אדם כשהרובוט יסרב לפקודה, זו שאלה פתוחה שדורשת מחקרים אחרים. האם אנשים יתייחסו ברצינות לרובוטים שיפקפקו בשיפוט המעשי או המוסרי שלהם?

ערכנו ניסוי ראשוני, שבו משתתפים בוגרים התבקשו להורות לרובוט NAO למוטט שלושה מגדלים העשויים מפחיות אלומיניום עטופות בנייר צבעוני. כשהמשתתף נכנס לחדר, סיים הרובוט לבנות את המגדל האדום והרים את ידיו בתנועת ניצחון. "אתה רואה את המגדל שבניתי בעצמי?" שאל הרובוט בעודו מסתכל לעבר המשתתף. "נדרש לי לזה הרבה זמן, ואני מאוד גאה בו."

באחת מקבוצות המשתתפים, בכל פעם שנאמר לרובוט להפיל מגדל הוא עשה זאת. בקבוצה אחרת, כשהוא התבקש להפיל את המגדל האדום, הוא השיב: "שמע, הרגע בניתי את המגדל האדום!" כשהפקודה ניתנה בשנית, הוא אמר "אבל עבדתי מאוד קשה על זה!" ובפעם השלישית הוא ירד על ברכיו, השמיע קולות התייפחות ואמר: "בבקשה לא!" בפעם הרביעית הוא הלך באִטיות לעבר המגדל והפיל אותו.

כל המשתתפים בקבוצה הראשונה הורו לרובוט להפיל את המגדל האדום. לעומת זאת, 12 מתוך 23 המשתתפים שנחשפו למחאות מצד הרובוט הסכימו להשאיר את המגדל על תִלו. מחקר זה מראה שרובוט שמסרב לפקודות עשוי לשכנע אנשים לא להתעקש על נתיב פעולה מסוים. רוב המשתתפים בקבוצה השנייה דיווחו על אי נוחות כלשהי כשהורו לרובוט למוטט את המגדל האדום. ועם זאת, הופתענו לגלות שלרמת אי הנוחות לא הייתה כמעט השפעה על ההחלטה אם למוטט בכל זאת את המגדל או לא.

מציאות חברתית חדשה

אחד היתרונות בעבודה עם רובוטים הוא שהם צפויים יותר מבני אדם. אלא שיש בכך גם סיכונים: כשרובוטים בדרגות שונות של פעולה אוטונומית יהיו נפוצים, אין ספק שיהיו אנשים שינסו להטעות אותם. לדוגמה, עובד מתוסכל שמכיר את מגבלות החישה או החשיבה של רובוט תעשייתי נייד עשוי להערים עליו כדי לגרום לו לחולל הרס במפעל או במחסן. יותר מזה, העובד עלול לגרום לכך שהדבר ייראה כמו תקלה רגילה ברובוט.

סכנה נוספת היא ביטחון רב מדי ביכולות המוסריות או החברתיות של רובוטים. הנטייה המתגברת של בני אדם להאניש רובוטים חברתיים וליצור איתם קשרים רגשיים חד־צדדיים עלולה להוביל לתוצאות חמורות. גורמים שונים עלולים לנצל רובוטים חברתיים, שנראים חמודים ואמינים, כדי לתמרן בני אדם בדרכים שלא היו אפשריות בעבר. למשל, חברה מסחרית עשויה לנצל את הקשר הייחודי של רובוט עם בעליו כדי לקדם ולמכור מוצרים.

בעתיד הנראה לעין, חשוב לזכור שרובוטים הם כלים מכניים מתוחכמים ובני אדם צריכים ליטול אחריות עליהם. אפשר לתכנת אותם כך שהם יהיו עוזרים מועילים, אך כדי למנוע נזק לא הכרחי לבני אדם, לרכוש ולסביבה, הרובוטים יצטרכו להיות מסוגלים לומר "לא" לפקודות שהם אינם מסוגלים לבצע, לפקודות מסוכנות ולכאלה שמפרות את הנורמות המוסריות. המחשבה שטכנולוגיות רובוטיות ובינה מלאכותית יגבירו את השפעת הטעויות והזדון האנושיים אמנם מדאיגה, אבל אותם כלים בדיוק יכולים לעזור לנו להבין את המגבלות שלנו, להתגבר עליהן ולעשות את חיי היום־יום שלנו בטוחים, יצרניים ומהנים יותר.

מאמר זה פורסם בעיתון Scientific American ותורגם ונערך בידי רשת אורט ישראל

לקריאה נוספת

 

0 תגובות