השירות החיובי שרובוטים חברתיים יכולים להעניק לבני האדם הוא עצום – אך כדי שנוכל להשתמש בו עלינו למהר ולקדם כבר כעת חקיקה שתסדיר את הפיתוח שלהם

את הארו עיצבו במטרה שיחבר בין ילדים ברחבי העולם באמצעות פעילויות משותפות, יגשר על הבדלים בין-תרבותיים ויקדם שוויון והכלה; יריס נועדה לתמוך במבוגרים ובקשישים ולחזק אצלם את ״הסיבה להיות ולחיות״ (איקיגאי ביפנית); אבי עוזרת לילדים קטנים ללמוד; גרייס היא אחות רפואית – והיא גם אחותה של סופיה שהפכה כבר כמעט לידוענית בתוכניות אירוח. אלה רק כמה דוגמאות מתוך מבחר הרובוטים החברתיים שהוצגו בחודש יולי אשתקד במהלך הפסגה הבינלאומית בנושא בינה מלאכותית למטרות טובות. הרובוטים אפילו נכללו ברשימת הדוברים של הכנס, שמתקיים אחת לשנה מטעם האו"ם.

רובוטים חברתיים הם רובוטים שמתקשרים עם בני אדם באופן שעונה למוסכמות חברתיות, ובניגוד לבוטים דיגיטליים יש להם התגלמות פיזית ממשית – גוף מכני. אחת ממטרות הכנס הייתה להציג לציבור את הפוטנציאל הטמון ברובוטים כאלה, שנועדו לקדם שורה של מטרות חברתיות גלובליות שקבע האו"ם.

במהלך הפסגה הוצגו לקהל שלל רובוטים שמהותם להועיל לחברה. אולם לא כל ההצגות נעשו בכנות הראויה. לדוגמה, התברר שחלק מהרובוטים שהיו אמורים להיות אוטונומיים, כלומר עצמאיים לגמרי, פעלו למעשה תחת פיקוח חלקי של בני אדם.


לכאורה אוטונומיים, אך למעשה מושפעים מהטיות אנושיות וחלקם אף כפופים לשליטה אנושית ישירה, גם אם חלקית. אדם מושך בחוטים של רובוט | TA design, שאטרסטוק

בעיה אחרת צצה כשבמושבי הכנס הועלו לדיון שאלות אתיות ומוסריות, והמפתחים הפנו אותן  לרובוטים כדי שיענו עליהן בעצמם. המחשה ברורה לקשיים שעולים כשמבקשים מבינה מלאכותית להתמודד עם שאלות מוסריות הנוגעות לה עצמה נראתה במסיבת העיתונאים של הכנס. במהלך הדיון הצהירה הרובוטית סופיה שלרובוטים יש פוטנציאל מנהיגותי, שכן בניגוד לבני האדם אין להם הטיות חברתיות שעלולות להטות את קבלת ההחלטות שלהם.

בשלב הזה קטע את דבריה דיוויד הנסון (Hanson), שעיצב את הרובוטית. הוא העיר שכל המידע הזמין לסופיה מגיע מבני אדם, ולכן כל ההטיות שיש לבני האדם יהיו גם אצלה - גם אם ננסה כמיטב יכולתנו לסלק אותן. כעבור רגע הוסיף שאלה מנחה בבירור: "אינך סבורה שההחלטות הכי טובות יגיעו משיתוף פעולה בין בני אדם לבינות מלאכותיות?" כצפוי, הרובוטית השיבה בחיוב והנסון הנהן בסיפוק.

באותו אירוע נשאלה רובוטית אחרת אם עלינו לחשוש מעלייתם של הרובוטים הכמו-אנושיים או להתפעם מהם. "תלוי איך ישתמשו ברובוטים, ואילו מטרות הם משרתים", השיבה.


במהלך הדיון הצהירה הרובוטית סופיה שלרובוטים יש פוטנציאל מנהיגותי, שכן בניגוד לבני האדם אין להם הטיות חברתיות. סופיה מתראיינת בכנס | flickr, ITU Pictures

מראית עין של שקיפות

הכנס היה פתוח לציבור והיה אפשר להשתתף בו גם באופן מקוון. השתתפו בו פוליטיקאים, מקבלי החלטות ובעלי עניין משלל תחומים. עבור מי שאינם מתמצאים לעומק בפרטי הפיתוחים הטכנולוגיים שהוצגו בו, דרך ההצגה של הרובוטים בכנס שידרה למראית עין תצוגה של שקיפות וכנות. בפועל, מאחורי ההצגה הזאת עלול להסתתר לא פעם מצג שווא מתקדם של טכנולוגיה שעדיין אינה בשלה מספיק, ושעדיין חסרים בה אמצעי זהירות משמעותיים.

בתגובה לחששות הללו התקבצה בכנס קבוצת חוקרות וגיבשה מסמך מנחה, ביוזמת  פרופ' שלי לוי-צדק, תחת הכותרת "רובוטיקה למטרות טובות – עשר שאלות מגדירות". המסמך מתווה את קווי המתאר של שורת שיקולים שצריכים ללוות לדעתן את תהליך הפיתוח של טכנולוגיה ששואפת ליצור רובוטיקה למטרות טובות. ביניהם נמצאות גם השאלות הקשות: איך אפשר למדוד את טיב התוצאה של פעולת הרובוט? למי הטכנולוגיה הזאת לא טובה? איך היא עלולה להזיק? מה עושים המפתחים כדי להגן על המשתמשים? עד כמה מגבלות הטכנולוגיה גלויות למשתמשים? מהם האינטרסים של הגורמים המעורבים בתהליכי הפיתוח?


איך אפשר למדוד את טיב התוצאה של פעולת הרובוט? רובוט וילדה | Yuganov Konstantin, שאטרסטוק 

לא כל התמונה

האיחוד האירופי עומד כיום בראש המאמצים העולמיים לגבש חקיקה שתסדיר את פיתוחי הבינה המלאכותית. בדצמבר האחרון הגיעו מוסדות האיחוד להסכמה על נוסח חוק הבינה המלאכותית (AI Act), שייכנס לתוקף אחרי שיושלמו כל הליכי החקיקה והאישור שלו. באיחוד מקווים ליצור כך אמצעי הגנה מפני ניצול לרעה של טכנולוגיות בינה מלאכותית, ולחייב את המפתחים בשקיפות מרבית. עוד קודם לכן, במאי 2023, פורסם מכתב פתוח שקרא לעכב את השימוש בפיתוחי הבינה המלאכותית עד שייכנסו לשימוש אמצעי זהירות שיגנו מנזקיהם.

לוי-צדק מדגישה שרובוטים חברתיים מחייבים התייחסות נפרדת. מעבר לבינה המלאכותית בכללותה, שרובוטים חברתיים הם אחד הענפים שלה, רובוטים חברתיים מציבים לפנינו אתגרים ייחודיים: הם נמצאים פיזית איתנו, בניגוד ליישויות דיגיטליות, הם מזכירים בצורתם בני אדם, נשמעים כמו בני אדם ומתנהגים באופן שנועד להידמות להתנהגות אנושית.

ד״ר רינת רוזנברג-קימה מהטכניון, שחוקרת את יחסי הגומלין בין אדם לרובוט בחינוך, מדגישה כי אנו נוטים להאניש דברים, לייחס תכונות אנושיות למה שאינו אנושי. לדבריה, ההבדל העיקרי בין התקשורת שלנו עם בינה מלאכותית ממוחשבת רגילה, שאין לה התגלמות פיזית, לבין רובוטים חברתיים, הוא הציפיות שהמשתמשים האנושיים עלולים להשליך מעצמם על הרובוט.

"תיאוריה של תודעה" (Theory of mind) הוא מושג מתחום הפסיכולוגיה הקוגניטיבית, שמבטא את היכולת שלנו לייחס לעצמנו ולאחרים מצבים נפשיים מוגדרים, כגון רגשות, רצונות, מטרות או אמונות. במחקר של רוזנברג-קימה, משתתפים צפו בסרטון שהציג מפגש בין אדם לרובוט, שבוים כך שייראה כאילו הרובוט מזהה את הרגשות של האדם שמולו ומגיב להם. על סמך זה נטו הצופים לקבוע כי הרובוט מסוגל לתפוס רגשות של אחרים ולהשפיע עליהם. כלומר הם נטו לייחס לרובוט יכולת תודעתית תבונית על סמך התנהגותו, אף על פי שבפועל לא הייתה לו כל אוטונומיה.


עקב הנוכחות הפיזית שלהם, אנו נוטים להאניש רובוטים חברתיים ואפילו להיקשר אליהם. רובוט בפוזה מהורהרת | Phonelamai Photo, שאטרסטוק

יד ביד (ביונית)

יש תחומים שבהם רובוטים חברתיים מחזיקים ביתרון על פני בני אדם, והיתרון הזה מעניק להם פוטנציאל לשפר את חיינו. מחקריה של רוזנברג-קימה על השימוש ברובוטים ככלי עזר בחינוך מעלים כי ילדים מרגישים בנוח לשאול את הרובוט שוב ושוב את אותה שאלה, מכיוון שהם חשים שהרובוט פחות שיפוטי כלפיהם מאשר מורה אנושי. לרובוט יש זמינות וסבלנות בלתי מוגבלת למשתמש שלו.

אך הפוטנציאל הטמון ברובוטים חברתיים והסכנות שבהם מגיעים בד בבד. רובוטים שתפקידם הוא להפיג את בדידותם של זקנים או לסייע להם במטלות הבית עלולים דווקא להחמיר את הבידוד שלהם ולפגוע בקשרים החברתיים. הרובוט אומנם מספק את הצרכים באופן שטחי, לדוגמה כשהוא מחליף את עובד הניקיון האנושי שמגיע מדי פעם לביתה של אישה מבוגרת ערירית, אך בכך הוא גוזל ממנה אינטראקציה אנושית שחיונית לרווחתה הנפשית ואפילו לבריאותה. יש גם סכנה שמטופלים שנמצאים הרבה זמן במחיצתו של רובוט ייקשרו אליו, ואף יפתחו כלפיו תלות רגשית לא בריאה.

באופן דומה, רובוטים שנועדו ללוות מטופלים שעוברים תהליכי שיקום, למשל בעקבות פציעה או שבץ מוחי, עלולים לעשות עבודה טובה מדי – כלומר לעזור למטופלים גם במצבים שבהם חשוב שיתאמצו ויתרגלו פעולות חשובות לתפקודם. כתוצאה מכך הם עלולים, בפועל, לנוון את המטופלים ולא לאפשר להם לשפר די הצורך את התפקודים שנפגעו.


רובוטים שנועדו ללוות מטופלים שעוברים תהליכי שיקום עלולים לעזור למטופלים גם במצבים שבהם חשוב שיתאמצו ויתרגלו פעולות חשובות לתפקודם. רובוט דוחף אדם בכסא גלגלים

כל אלה הן תופעות לוואי שליליות של פעולות שמטרתן חיובית. כשהמטרה מלכתחילה אינה טובה, הסכנות גדלות שבעתיים. במקרים כאלה עלולים להיות מי שינצלו את הרובוטים החברתיים כדי להונות את המשתמשים ולנצל לרעה את הקשר הרגשי שלהם עם הרובוטים.

מחקרים מראים למשל שגברים נוטים יותר לתרום כסף אם הבקשה מגיעה מרובוטית עם קול גבוה וחזות נשית, על פני בקשה שמגיעה מרובוט שמוצג כזכר. המשמעות היא שיצרני הרובוטים יכולים לעצב אותם ביודעין בצורה הרצויה להם כדי יים כדי לקדם את ענייניהם של המפתחים שלהם, או פשוט כעוד אמצעי פרסום זמין שפונה לקהל שלמקסם את רווחיהם. רובוטים גם עלולים לשלב בדבריהם מסרים סמויים או פרסומבוי. ובנוסף, רובוטים עלולים לדרוש עדכוני גרסה יקרים לתוכנה שלהם, כמו שנעשה במוצרים דיגיטליים אחרים.

כשמדובר ברובוטים חברתיים הסכנה כפולה ומכופלת. בגלל הנטייה להיקשר אליהם רגשית, המשתמשים עלולים להימצא בעמדה מוחלשת מול הרובוט וללכת שולל בקלות אחר הונאה או מניפולציה. אוכלוסיות הסיכון העיקריות הן זקנים, ואנשים בודדים בכלל. גם ילדים עלולים להיות פגיעים מאוד למניפולציות, וכך גם מבוגרים עם קשיים או הפרעות בפענוח קודים חברתיים, שמתקשים להבדיל בין התנהגות תקינה למניפולציה.


המשתמשים, במיוחד זקנים או אנשים בודדים עלולים להימצא בעמדה מוחלשת מול הרובוט. רובוט מגיש מים לאדם זקן | PaO_STUDIO, שאטרסטוק 

זמן להתעורר

הרשתות החברתיות הן דוגמה בולטת למה שעלול לקרות כשמופיע תחום טכנולוגי חדש עם השלכות חברתיות מרחיקות לכת, והוא מתפתח כמעט בלי שום אסדרה חוקית (רגולציה). יוצריהן הציגו אותם מהרגע הראשון ככלים לחבר בין אנשים וליצור קהילות ושיתופי פעולה. כל זה נכון למדי, אך התמונה הרחבה הרבה יותר מורכבת. היום כבר ידוע שהן מרוויחות מקיטוב ומליבוי סכסוכים, ועלולות לפתח אצל משתמשים צעירים תלות רגשית בהן, לעודד חרדה, דיכאון ואובדנות ולפגוע בדימוי גוף.

כיום, אחרי שהרשתות החברתיות כבר השתלטו על דרכי התקשורת בין אנשים וצברו הון עצום, מבחינה כלכלית ופוליטית גם יחד, הן מפעילות לובי חזק שבולם חקיקה נגדן. פרופ' לוי-צדק מדגישה שבכל הנוגע לרובוטים חברתיים עדיין לא מאוחר מדי לפעול. התחום מתפתח ומשתכלל מיום ליום, וזה בדיוק הזמן לאבטח את תהליך ההטמעה של הרובוטים החברתיים בחברה האנושית. חיוני, לדבריה, לגייס את הפוליטיקאים ומקבלי ההחלטות כדי להסדיר את החקיקה בתחום הפרוץ הזה, ולהגדיר לרובוטים וליוצריהם האנושיים כללים ברורים. יתר על כן, החקיקה תצטרך להבטיח עיסוק שקוף וישיר בשאלות התועלת והנזק הטמונים ברובוטים החברתיים.


חיוני להסדיר את החקיקה בתחום הפרוץ הזה, ולהגדיר לרובוטים וליוצריהם האנושיים כללים ברורים. סמל המשפט בידיו של רובוט | aniqpixel, שאטרסטוק

לרובוטים החברתיים יש פוטנציאל עצום לשמש כלי מועיל, כלי למטרות טובות. המעבדה של פרופ' לוי-צדק מתמחה בפיתוח רובוטים שיקומיים, ובפרט רובוטים שמסייעים לאנשים שחוו שבץ מוחי ולחולים במחלת פרקינסון לבצע תרגילים הנחוצים לשיקום התפקוד הפיזי שלהם. כדי לצמצם את הסכנה הכרוכה בהיקשרות רגשית עם הרובוט, החוקרים נעזרים במהלך הפיתוח בסקרים שהם מעבירים למשתמשים בשירותי הרובוט ולבני משפחותיהם. לדוגמה, בניגוד לתפיסה השיקומית המקובלת הדוגלת ביצירת קשר אישי בין המטפל למטופל, חלק ניכר מהמשתמשים הצהירו שהם לא מעוניינים שהרובוט יפתח עימם קשר חברתי, והם מעדיפים שיהיה כלי תרגול בלבד.

חשוב לערב בשאלות האלה גם את בני המשפחה, מכיוון שהם התומכים העיקריים במטופלים ונושאים ברוב הנטל הטיפולי. כמו כן, כדי לצמצם את הסכנה שטיפול מסור מדי יפגע בשיקום של המטופלים, חשוב שהרובוט יוכל להעריך את קצב ההתקדמות של המטופל ולהתאים את עצמו לרמה שלו, כך שתמיד יאתגר את יכולות המטופל ויקדם את תהליך השיפור. הנחיה דומה תהיה לרובוטים שמסיעים בחינוך או בכל תהליך אחר של למידה.

קיימים כבר כעת לא מעט מנגנונים שיוכלו לצמצם את הפוטנציאל המזיק הטמון ברובוטים החברתיים ויאפשרו לנו ליהנות משירותיהם בלי חשש. אבל הזמן לפתח ולעגן אותם בחוק הוא עכשיו. את זה אין ספק שהרובוטים לא יעשו בשבילנו.

0 תגובות