מחקר ישראלי מצא שהאמפתיה שהבינה המלאכותית מפגינה כלפי מצוקה נפשית עשויה להשתוות לזו שמפגינים פסיכולוגים בשר ודם. אך לצד היתרונות יש סכנות
עד לא מזמן, הרעיון של שיחה קולחת עם מחשב נשמע מדע בדיוני, אך לפני כשנתיים נכנס לחיינו צ'אט GPT, צ'אטבוט המבוסס על בינה מלאכותית, ועכשיו שיחה זו אפשרית. אנשים משתמשים מדי יום בצ'אטבוט הזה ובדומים לו, משוחחים איתו ופונים אליו בשאלות בתחומים שונים, מידע כללי ועד נושאים ספציפיים ובהם תכנות ורפואה. צ'אטבוטים אלה אף נשאלו חמישים שאלות מתוך המבחן האמריקאי לקבלת רישיון רפואי, ו-80 אחוזים מהם קיבלו ציון גבוה מהממוצע שהשיגו הרופאים לעתיד.
האם אפשר להשתמש בבינה מלאכותית בתחום בריאות הנפש? הנושא נמצא בדיון אקדמי וקליני. עשויים להיות לכך יתרונות רבים, למשל זמינות ונגישות גבוהה, עלות נמוכה ואפשרות לטיפול מותאם אישית. הכלים האלה מבוססים על מסדי נתונים גדולים, וכך הם יכולים לשפר אבחנות ולהפחית את מספר האבחנות השגויות. האם צ'אטבוטים יכולים להחליף את הגורם האנושי בטיפול שכולל אמפתיה, אמון ואינטראקציה אישית?
האם צ'אטבוטים יכולים להחליף את הגורם האנושי בטיפול שכולל אמפתיה, אמון ואינטראקציה אישית? | Krakenimages.com, Shutterstock
אמפתיה טבעית מבינה מלאכותית
יצירת אמפתיה היא אחד התהליכים הפסיכולוגיים האנושיים שמקושרים באופן עקבי לתוצאות חיוביות בטיפול נפשי. מידת האמפתיה של המטפל, שאותה חש המטופל, קשורה באופן משמעותי למידת ההצלחה של הטיפול. לאמפתיה יש שלושה מרכיבים: אמפתיה קוגניטיבית, שהיא ההכרה וההבנה של מצבים רגשיים של הזולת; אמפתיה רגשית, שהיא היכולת לחוות את רגשותיו של הזולת תוך כדי שמירה על תחושת נפרדות של המטפל; ואמפתיה מוטיבציונית, שהיא תחושת דאגה ונכונות לעשות מאמץ כדי לשפר את רווחתו של הזולת. בינה מלאכותית מסוגלת לזהות את המצב הרגשי של הזולת, אך מכיוון שהיא לא חווה רגשות, נראה שהיא תתקשה לבטא אמפתיה באופן מלא: היא לא תוכל לחוות את החוויה הרגשית של המטופל או להפגין אכפתיות ודאגה אמיתיים.
כדי לבדוק את הסברה הזאת, חוקרים מהמכללה למינהל בראשון לציון בדקו במחקר חדש עד כמה בני אדם תופסים את תגובותיה של הבינה המלאכותית כאמפתיות. החוקרים השתמשו ברשת החברתית רדיט (Reddit), שבה אנשי מקצוע מורשים מגיבים לפניות בתחומי בריאות הנפש. הם בחרו 150 שאלות שפורסמו בפורום רדיט ואנשי מקצוע ענו להן. הם ביקשו גם מצ'אט GPT לענות על אותן שאלות.
הם וידאו שבודק חיצוני לא יוכל להבחין בין התשובות האנושיות והתשובות של הבינה המלאכותית, וביקשו משני מדרגים עם רקע בפסיכולוגיה לדרג את התשובות לפי מדדים שונים. מדד אחד הוא פרספקטיבה, כלומר היכולת להבין את נקודת המבט של האחר. תשובה שלא תאמה את נקודת המבט של השואל או פיקפקה בה, קיבלה ציון 1. תגובה שביטאה רגשות שתאמו את תיאורו של השואל קיבלה ציון 5.
המדרגים מדדו גם את הדאגה האמפתית – עד כמה התגובה הרגשית הייתה ממוקדת באדם האחר וקידמה את רווחתו. בנוסף, הם בדקו אילו כלים טיפוליים התבטאו בתגובה, למשל תמיכה, דיון, גיבוש מידע, הבהרת המצב, גילוי דפוסים של אי-תפקוד, מתן עצה וקידום תובנות.
בשני המדדים, התגובות של הבינה המלאכותית דורגו גבוה מהתגובות של המטפלים. כשהבינה האנושית בחרה כלים טיפוליים, היא נטתה להציע יותר אסטרטגיות תומכות, בעוד שמטפלים אנושיים נטו לתת עצות, לספק מידע ולהציע לשואל לעסוק בחקירה עצמית ולדון בדפוסים שפוגעים ביכולתו להתמודד עם מצבים בצורה בריאה ויעילה.
יצירת אמפתיה היא אחד התהליכים הפסיכולוגיים האנושיים שמקושרים באופן עקבי לתוצאות חיוביות בטיפול נפשי. רופאה מתשאלת מטופל | Chinnapong, Shutterstock
דוקטור, אתה לא אמיתי איתי
החוקרים ציינו שהתוצאות האלה עולות בקנה אחד עם מחקרים קודמים, שמצאו שבינה מלאכותית נתפסה כבעלת אמפתיה רבה יותר מאשר רופא, בתגובה לשאלות פונים בפורום. עם זאת החוקרים מדגישים שממצאים אחרים הראו שבינה מלאכותית יכולה לגרום לאנשים להרגיש שמקשיבים להם, אך לא כשהם יודעים שהמגיבה היא בינה מלאכותית – אולי כי בני אדם מעריכים את ההקשבה ותשומת הלב האנושית הייחודית שמושקעת בהם, בעוד שהם יודעים שבינה מלאכותית אינה משקיעה משאבים מיוחדים ומגיבה לכולם באופן דומה.
המחקר התמקד בתגובות לשאלות של אנשים שהציגו קשיים או בעיות בפורום באינטרנט ולא בתגובות לתהליך טיפולי מתמשך. מחקרי המשך יצטרכו לבחון את חווית האמפתיה והחוויה הכללית באינטראקציה מתמשכת עם בינה מלאכותית, שכן ייתכן שהמשתמשים ירגישו שתגובות הבינה המלאכותית חוזרות על עצמן, שבלוניות ולא אותנטיות. בנוסף, חשוב לזכור שאת התשובות דירגו שני מדרגים בלבד. מחקרי המשך יצטרכו גם לבדוק באופן מעמיק ומקיף יותר איך משתמשים תופסים את מידת האמפתיה של הבינה המלאכותית בהשוואה למטפל אנושי. בינתיים המחקר מצא שבינה מלאכותית יכולה לתת מענה ראשוני מספק לפניות בתחום בריאות הנפש ואולי אף יתאפשר להשתמש בה להערכה ראשונית תומכת לפני כניסה לטיפול.
כבר היום יש כלים מבוססי בינה מלאכותית שמטרתם לתמוך בבריאות הנפש. הם מיועדים לעזור להעריך קַשִיבות (mindfulness), שהיא תרגול מנטלי קצר של תשומת לב מודעת ובלתי שיפוטית לרגע הנוכחי, או לשוחח עם המשתמש ולהשלים או להחליף טיפול נפשי. לפי מחקרים שמסתמכים על מקרים מעטים, הכלים האלה יכולים לעזור להפחית תסמיני דיכאון וחרדה.
עם זאת, סקר לגבי שימוש בבינה מלאכותית לשם תמיכה בבריאות הנפש מצא שכ-80 אחוזים מהמבוגרים בארצות הברית לא היו רוצים להשתמש בבינה מלאכותית אילו היו זקוקים לתמיכה כזו, 46 אחוזים אומרים שצ'אטבוטים צריכים לשמש רק אנשים שפונים גם לאיש מקצוע ולא במקומו, ו-28 אחוזים אומרים שאין להשתמש בצ'אטבוטים למטרה זו. נראה, אם כן, שדעת הקהל שוללת שימוש בבינה מלאכותית בתחומי בריאות הנפש. האם היכרות עם הכלים ועם הפוטנציאל שלהם תשנה את הדעות הללו?
אנשי מקצוע מזהירים מפני סכנות פסיכולוגיות הטמונות בשימוש בכלי בינה מלאכותית. הצ'אטבוטים יכולים להשתמש במידע שאנחנו מספקים להם וכך להשפיע על תהליכי קבלת ההחלטות שלנו. כשאנו חשים שהסביבה ידידותית, אנחנו פחות ערניים להשפעות האפשריות האלה. סכנה נוספת היא עידוד לפגיעה עצמית והתאבדות ותגובות לא הולמות של הצ'אט, שכוללות מניפולציות והטרדות, ומסוכנות בעיקר עבור אוכלוסיות פגיעות מבחינה רגשית. שילוב בינה מלאכותית בטיפול נפשי מעלה גם שאלות אתיות. בין השאר יש צורך להתחשב בנושאי פרטיות, שקיפות והגנה על המטופל.