כמעט שמונים שנה אחרי שאייזק אסימוב הציג את שלושת חוקי הרובוטיקה, האם העקרונות האתיים הללו עדיין רלוונטיים לבינה המלאכותית של ימינו?

נחשפתי לעולם הבינה המלאכותית לראשונה בקורס מבוא שעסק בנושא בטכניון בסוף שנות ה-90. המרצה התעכב על מה שנחשב אז לפסגת ההישגים של התחום: אלגוריתמי משחק, והניצחון של המחשב "כחול עמוק" על אלוף העולם בשחמט גארי קספרוב. הוא פירט את השיטות שבהן השתמשו יוצרי המחשב כדי להביס את יריבו האנושי: כללים שכתבו מיטב המומחים כדי להעריך את מצב הלוח, חומרה מיוחדת לחישוב מהיר של מסעים וספרייה ענקית של מהלכי פתיחה וסיום.

"האם יבוא יום שבו יוכל מחשב לנצח בכל משחק?" התעוררה השאלה. 

"לא", ענה המרצה. "יש משחקים שעבורם הטריקים האלה לא יעבדו". כדוגמה הוא הביא את המשחק גוֹ, שמקורו במזרח הרחוק. לוח המשחק פשוט גדול מדי, הסביר. אפילו אם מהירות המעבדים תמשיך לעלות באותו קצב שבו עלתה עד אז, עדיין יידרשו למחשב שנים לסרוק כמות מספקת של לוחות גוֹ אפשריים כדי לנצח. הייתה בכך נחמה פורתא: יצאתי מהקורס במחשבה שלא אזכה לראות בימי חיי מחשב מנצח רב-אמן בגוֹ.

כעשרים שנה מאוחר יותר הייתי מרותק למסך, כמו רבים אחרים: תוכנת המחשב אלפא-גו התחרתה נגד רב-האמן הקוריאני הבולט לי סה-דול. הלא-יאומן קם והיה: מחשב ניצח אלוף עולם בגוֹ. ההתקדמות העצומה של השנים האחרונות בתחום הבינה המלאכותית, ובפרט בלמידת מכונה, איפשרה את זה. יותר מכך, שיפורים באלגוריתם של אלפא-גו העניקו לו את היכולת ללמוד לנצח במשחקים נוספים, אפילו בלי צורך ללמוד משחקנים אנושיים. הגיע היום שבו מחשב יוכל לנצח אדם בכל משחק. 

הגעתם של מחשבים למעלת תבונה אנושית בתחום המשחקים מעלה חשש – האם למחשב יש מספיק תבונה כדי לפעול באופן עצמאי? ואם כן, האם עלינו להגביל את יכולותיהן של מערכות ממוחשבות? זו אינה שאלה חדשה. הסופר אייזק אסימוב, מחלוצי המדע הבדיוני, ניסה לענות עליה בסדרת הרובוטים שלו. הוא ניסח שלושה כללי אתיקה שיחייבו כל רובוט: אסור לרובוט לפגוע באדם; רובוט חייב לציית לאדם, אלא אם כן הפקודה עומדת בסתירה לכלל הראשון; ורובוט חייב להגן על עצמו, כל עוד הוא אינו מפר את הכללים הראשון והשני. האם הגיע הזמן להחיל את שלושת כללי הרובוטיקה של אסימוב על מערכות מחשב בנות זמננו?

התשובה האינטואיטיבית היא כן. הרי אלה כללים אתיים פשוטים וברורים. אסימוב עצמו, בסיפורו "איש יובל המאתיים", ציין ששלושת חוקי הרובוטיקה דומים מספיק לכללי מוסר אנושיים, כך שסביר להניח שאדם בן תרבות ינהג לפיהם בעצמו. אם כך, מדוע לא להקדים תרופה למכה ולחייב עוד היום כל מערכת ממוחשבת לעמוד בהם?

הדמיה של בינה מלאכותית משחקת גו עם אדם | איור: artpage, Shutterstock
יש למחשבים מספיק תבונה לפעול עצמאית? הדמיה של בינה מלאכותית משחקת גו עם אדם | איור: artpage, Shutterstock

חוקי הרובוטיקה של אסימוב
1. לא יפגע רובוט לרעה בבן אדם, ולא יניח, במחדל, שאדם ייפגע.
2. רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודותיו אלה אינן עומדות בסתירה לחוק הראשון.
3. רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני.
(מאנגלית: עמנואל לוטם)

רובוטים של הדמיון

שתי סיבות עשויות למנוע מתוכנה בת זמננו לציית לכללים האלה: ראשית, ייתכן שהיא אינה יכולה; ושנית, הם עלולים לסתור את תפקידה. כדי להבין מדוע, עלינו לבחון את ההבדל בין התיאור של הרובוטים בספריו של אסימוב ובתרבות הפופולרית בכלל, לבין אופן הפעולה והתפקיד של מערכות מחשב בימינו. 

הרובוטים בספריו של אסימוב מתוארים כיצורים אוטונומיים דמויי אדם, שההבדל העיקרי בינם לבינינו הוא שהם עשויים מתכת ויש להם מוח אלקטרוני (או פוזיטרוני, כפי שבחר אסימוב לקרוא לזה). הם מדברים עם בני אדם, פועלים באופן עצמאי ואף מקבלים החלטות – שהרי אלמלא הייתה להם יכולת בחירה, לא היתה סיבה להגביל אותם מלכתחילה. במובנים רבים הם תחליף מוסרי למשרתים אנושיים. הם דמויי אדם, ולכן יכולים לתפקד כמונו, אבל אינם סובלים מהעבודה הקשה ומהמעמד הנמוך, שכן הם מכונות חסרות תודעה.

אך הסעיף האחרון הוא בעייתי: אם התבונה של הרובוטים שקולה לתבונה האנושית, איך נדע אם יש להם תודעה משלהם או לא? שלושת חוקי הרובוטיקה נועדו למנוע מרובוטים להתמרד נגד אדוניהם אם וכאשר יפתחו רצון חופשי. בספרים מאוחרים יותר אסימוב אף לוקח את העניין צעד אחד הלאה ומתאר רובוטים מתקדמים שאכן יש להם רצון והיגיון משלהם. חוקי הרובוטיקה הם רק אתיקה בסיסית שמנחה אותם, כראוי לכל אדם.

לעומת התיאור שלהם כיצורים עצמאיים, הסביבה שבה הרובוטים של אסימוב פועלים, בדומה ליצירות מדע בדיוני רבות אחרות, היא מוגבלת. הם עובדים באחוזות של אדונים אנושיים, במפעלים, בתחנות חלל, בחלליות ובמקומות אחרים שבהם תפקידם מוגבל לאזור מסוים. מרבית היצירות הספרותיות אינן מתארות רובוטים ממלאים תפקידים ברשות הכלל או משרתים ציבור רחב של לקוחות. בדומה למשרתים, תפקידם תחום בגבולות המקום שהם פועלים בו.

רובוט בפס ייצור תעשייתי | צילום: WLADIMIR BULGAR / SCIENCE PHOTO LIBRARY
לא אוטונומי, לא דמוי אדם, אבל כך נראים רבים מהרובוטים. רובוט בפס ייצור תעשייתי | צילום: WLADIMIR BULGAR / SCIENCE PHOTO LIBRARY

רובוטים במציאות

המערכות הממוחשבות שאנחנו מכירים כיום שונות מאוד מדמות הרובוטים המשרתים. הן אומנם מפגינות תבונה רבה, אבל הן אינן אוטונומיות – לא פיזית ולא מחשבתית. את השוני הפיזי קל לנו להבין, שכן חזון הרובוט דמוי האדם שיתפקד במרחב אנושי נותר רחוק בימינו. לכן לא מתכננים רובוטים שתפקודם כללי. מרבית הרובוטים בעלי הממשק הפיזי, כמו אלה שפועלים בפסי יצור, מבצעים קבוצת פעולות מוגבלת מאוד.

אולם מה לגבי המרחב החישובי? לאלפא-גו אין בכלל ממשק פיזי. היא אפילו לא צוידה בזרוע מכנית שתשים את אבני המשחק על הלוח. למעשה היא נעזרה באדם שייצג אותה בטורניר. אולם מבחינה חישובית היא הפגינה יכולת שעולה על זאת של כל בן אנוש. האין סכנה שמערכת כזאת תחליט להתמרד, ותשתמש בממשקים שכן זמינים לה, כגון האינטרנט, כדי לפגוע באדוניה?

כעת אנו נדרשים לאבחנתו של פרופ' יובל נוח הררי שתבונה אינה תודעה. מערכת נוסח אלפא-גו יכולה להפגין בינה מרשימה, אך היא אינה מודעת. אין לה יכולת לקבל החלטות בכוחות עצמה או לבצע אותן. ברור לנו שתוכנה רגילה, כזאת שמבצעת סדרת פקודות ידועה מראש, אינה יכולה לסטות מהנתיב שהוגדר לה. 

ההבדל היחיד בין תוכנות בינה מלאכותית מהדור החדש, כמו אלפא-גו, לבין תוכנה רגילה, הוא שהן אינן מתוכנתות במלואן מראש. הן נעזרות במודל נלמד, שהוא מעין סיכום מתוחכם של כמות עצומה של דוגמאות מתויגות, למשל מיליוני משחקי גו שכבר שוחקו והתוצאה הסופית שלהם. המודל מייצג חוכמה רבה, אבל הוא רק אוסף של נתונים, המכונים "פרמטרים" או "משקלות". המודל דומה לדף נייר עצום שכתובים עליו מספרים. אם מישהו יציב את המספרים המתאימים בנוסחאות המתאימות הוא יוכל לבצע פעולה נבונה, למשל לבחור את המסע הבא הטוב ביותר במשחק. הדף יכול לייצג תבונה של יצור שאולי היה מחליט לפעול נגד מפעיליו אילו היה מסוגל לכך, אבל אין לו תודעה משלו ואין לו יכולת לקבל החלטה אחרת מזו שלמענה הוא נוצר.

רובוט משחק שחמט | הדמיה: Andrey_Popov, Shutterstock
אין לבינה המלאכותית תודעה או יכולת לקבל החלטות. רובוט משחק שחמט | הדמיה: Andrey_Popov, Shutterstock

משרתי לקוחות, לא אדונים

הבדל נוסף בין המשרתים והפועלים הרובוטיים הנפוצים בספרות לבין מערכות בינה מלאכותית בימינו הוא התפקיד המיועד להם. אף שאין להן אוטונומיה פיזית או מחשבתית, מערכות מחשב רבות פועלות במרחב הציבורי ומשרתות לקוחות, ולא אדונים. ההבדל בין חברה מסחרית מסורתית לבין אלו המכונות "חברות אינטרנט" הוא שהאחרונות מטמיעות מערכות ממוחשבות נבונות כחלק מהתהליך העסקי שלהן. ליבת השירות שלהן מכילה רכיב חישובי. 

נבחן למשל מערכות המלצה, שמציעות ללקוח לצרוך תוכן נוסף או לקנות מוצרים משלימים בהתאם להזמנותיו הקודמות ולנתונים נוספים. אלה מערכות נבונות, שמשתמשות במודל נלמד. האם אפשר לדרוש מהן לעמוד בחוקי הרובוטיקה ולא לפגוע כלל בבני אדם?

לא בהכרח. ראשית, הן כאמור חסרות תודעה, כך שהדרישה אינה מופנית כלפיהן אלא כלפי החברה שיצרה אותן ומפעילה אותן. שנית, ברור לנו שצפייה מרתונית בסרטוני וידאו, או קנייה של מוצרים מיותרים, אינה האינטרס הטוב ביותר של המשתמש. האם מערכת ההמלצה צריכה להימנע מלפגוע בקהל המשתמשים, או שמא עליה לציית לחברה המסחרית שמפעילה אותה? השאלה הופכת להיות רגולטורית: האם על החוק להגביל את כוחן של חברות מסחריות המפעילות אלגוריתמים לומדים?

תשובתו של הררי לשאלה זו היא "כן". מערכות נבונות כאלה אומנם לא יתמרדו נגד בני האדם, אך אין זה אומר שהן אינן יכולות לגרום נזק. חברה מסחרית שאוספת מידע על כל הפעולות של לקוחותיה ומסוגלת לזקק מודל התנהגותי מותאם אישית לכל לקוח, עלולה להפעיל עליהם כוח שכנוע לא הוגן. הבעיה הרגולטורית אינה שהרובוט יסרב לבצע את ההוראות המוטלות עליו, אלא שהוא יבצע אותן טוב מדי. 

"בחברה בשלה, משרת הציבור שקול סמנטית לאדון הציבור", כתב סופר המדע הבדיוני רוברט היינליין בספרו "די זמן לאהבה". בעולם מקוון שבו מרבית האזרחים צורכים חדשות ומתקשרים זה עם זה כמעט רק בתיווך דיגיטלי, התוכנה שולטת בצרכן באותה מידה שהיא משרתת אותו. אבל מי ששולטים בתוכנה אינם לקוחותיה, אלא בני אדם אחרים בעלי רצונות ואינטרסים משלהם. אם אלגוריתם המלצת תוכן יבצע הוראה לקדם תעמולה מסוימת ויצליח בכך יתר על המידה, לתוצאה יכולה להיות השפעה פוליטית של ממש.

שיחת צ'ט עם רובוט נותן שירות | צילום: NicoElNino, Shutterstock
האם הרובוט משרת את הלקוחות את החברה המפעילה אותו? שיחת צ'ט עם רובוט נותן שירות | צילום: NicoElNino, Shutterstock

חוקי הרובוטיקה וחוקי האדם

רובוטים דמויי אדם בתרבות הפופולרית מוצבים כאמור במצבים מוגבלים: הם מבצעים שליחויות פשוטות עבור אדוניהם האנושיים באחוזתם, או מצייתים לפקודות של צוות החללית. למערכות מחשב בנות ימינו יש לעיתים תפקיד משמעותי הרבה יותר: למשל, לחשב עבור לקוח פרמיה לביטוח רפואי. אילו הייתה להן מודעוּת, הן היו מוצאות את עצמן תחת נאמנות כפולה: הן צריכות לציית לחברה מסחרית, אבל לשרת לקוחות אנושיים בלי לפגוע בהם. זוהי דילמה שכל פקיד אנושי בשוק קפיטליסטי עלול להיתקל בה: האם להעדיף את טובת החברה או את טובת הלקוח? מדוע, אם כן, אנחנו סומכים על שיקול דעתם של נותני שירות אנושיים?

התשובה היא שאנחנו לא. בני אדם כפופים לחקיקה מקיפה ומפורטת הרבה יותר משלושת חוקי הרובוטיקה. אסימוב נמנע מלדון ביחסי הרובוטים עם החוק, בטענה המרומזת שהחוק נועד להגן על בני אדם מנזק, ורובוט לא מסוגל לפגוע באדם. מכאן ברור שהוא יקיים את החוק ואף מעבר לכך. אולם אסימוב מראש ייעד לרובוטים תפקידים פשוטים ואחריות מעטה. לעומת זאת, חברה מסחרית שמפעילה חישוב כחלק מהתהליך העסקי שלה, אחראית לכך שתוצאות החישוב לא יפרו את חובותיה החוקיות.

מהנדס תוכנה יודע שאסור לו לתכנת פשע. אולם מה לגבי מודלים נלמדים, שהפלט שלהם אינו תוצאה של כללים סדורים? הרי המטרה של אימון מודל בעזרת סט דוגמאות גדול היא להסיק מהן תובנות העולות על מה שאדם יכול לכתוב במפורש. אף אחד מהיוצרים של אלפא-גו, למשל, לא היה יכול לכתוב אסטרטגיית משחק שתנצח רב-אומן, אלא התוכנה למדה את זה בעצמה מתוך אוסף של יותר משחקי גוֹ מכפי שאדם יוכל לשנן כל חייו.

הרעיון שמודל חישובי נלמד יפר את החוק אינו מופרך. כבר קרה שמודל חישוב סיכונים של חברת ביטוח הפלה לרעה אוכלוסייה מסוימת ללא הצדקה רפואית, בניגוד לחוק. זה קרה כביכול בתום לב: המודל היה מבוסס על נתוני ביטוח היסטוריים ולא על ידע רפואי, ולכן למד הטיות חברתיות קיימות. בכל זאת, השורה התחתונה היא זאת: אם חברה אינה יכולה לצפות את תוצאות החישוב, היא תצטרך לקודד את החוק לתוך תהליכי הבדיקות, ואולי אפילו לתוך התוכנה עצמה.

איור של אסימוב עם רובוט דמוי אדם | איור: delcarmat, Shutterstock
ייעד לרובוטים תפקידים פשוטים ואחריות מעטה. איור של אסימוב עם רובוט דמוי אדם | איור: delcarmat, Shutterstock

בינה מלאכותית, לא רובוט

שלושת חוקי הרובוטיקה של אסימוב נשמעים פתרון פשוט לפחד מפני העלייה בתבונתן של מערכות ממוחשבות, בעיקר לאור השימוש ההולך וגובר במודלים נלמדים. אולם מערכות בינה מלאכותית בימינו שונות מהרובוטים הללו, שהספרים עליהם נכתבו בעבר ומתרחשים בעתיד. בתחום תפקידן יש להן יותר יכולת ויותר אחריות מכפי שדמיינו כשחשבנו על רובוטים משרתים. אולם אין להן תודעה משלהן, ולכן הן אינן יכולות ללמוד או לקבל החלטות מוסריות. 

נדרשות, אם כן, מגבלות על החברות המפעילות את התוכנה, כפי שחברה אחראית לתת את הדין על פעולות של עובדיה האנושיים. בעולם דינמי ומורכב אין קיצור דרך של שלושה כללים פשוטים שאפשר להטמיע בתוכנה כדי שתהיה מוסרית. ככל שתוכנות תבוניות יהפכו יותר ויותר לחלק בלתי נפרד מחיינו, מהנדסי תוכנה ייאלצו להיות מודעים יותר להשלכות החוקיות והמוסריות של עבודתם. 

הכותב הוא בעל דוקטורט במדעי המחשב מאוניברסיטת בן גוריון, על מחקר בתחום הנדסת התוכנה, ועובד קרוב לעשור כחוקר בתעשייה ומדען נתונים. כיום הוא חבר בצוות עיבוד שפה בפרויקט של חברת  GE Healthcare להנגשת מידע רפואי לצוותי טיפול.

 

2 תגובות

  • יוס ואחיו

    לא נראה שהמחבר הבין את מטרת החוקים

    שנועדו להבטיח שהרובוטים, כישויות *עצמאיות* (בעתיד; כרגע אם לא), יהיו בטוחים לבני אדם. כל עוד הם לא עצמאים ולא ישויות, אין צורך בחוקים

  • גיל

    חוק האפס של הרובוטיקה

    אסימון כנראה היה מודע למגבלות שלושת החוקים, ובסדרת הרובוטים והאימפריה הוסיף את חוק אפס, "לא יפגע רובוט באנושות ולא יניח במחדל שהאנושות תיפגע" ותיקן בהתאם את שלושת החוקים הראשונים.