קבוצת חוקרים מתחומי דעת שונים קוראת ליתר פיקוח על טכנולוגיות ה-AI

לפני מספר חודשים פורסם בכתב העת המדעי היוקרתי Science מאמר דעה, המתריע מפני סכנות הבינה המלאכותית וקורא להשית עליה מנגנוני פיקוח ובקרה קפדניים. מערכות השלטון וגם החקיקה, לפי המאמר, אינן מתפתחות במהירות הראויה כדי להיערך לאיום הפוטנציאלי; כותביו מציעים מתווה שכולל מחקר ופיתוח טכניים, לצד מנגנוני ממשל הנוקטים יוזמות, לצורך התמודדות טובה יותר עם העתיד לבוא. על המאמר חתומים למעלה מעשרים חוקרים ממגוון תחומי דעת, ביניהם ההיסטוריון יובל נוח הררי, חוקר הבינה המלאכותית יושואה בנג'יו (Bengio) והפסיכולוג דניאל כהנמן (Kahneman), זוכה פרס נובל לכלכלה שנפטר לאחרונה. החלטתם לפרסם מאמר משותף מדגישה את חשיבות הנושא. 

מערכות בינה מלאכותית הפכו בשנים האחרונות לחלק בלתי נפרד מחיינו. רבות כבר נכתב על יכולותיהן המרשימות ועל השימוש ביכולות האלה בשלל תחומים, ממחקר רפואי – כמו הטכנולוגיה AlphaFold מבית DeepMind, שחוזה בדיוק רב מבנה של חלבונים, מה שמאיץ פיתוח תרופות חדשות – ועד "סתם" יצירת תמונות לפי הזמנה. גם מודלי שפה, כמו צ'אט GPT, הוכיחו את יכולתם ביצירת טקסטים רהוטים, שעשויים לסייע בתהליכי כתיבה ולמידה. חברות רבות משקיעות סכומי עתק בפיתוח טכנולוגיות בינה מלאכותית, מחשש להישאר מאחור במרוץ הטכנולוגי.


כל תחום שישלב בתוכו מערכות בינה מלאכותית עלול ליפול קורבן למתקפת סייבר. בינה מלאכותית במערכות פיננסיות | PopTika, Shutterstock

שקרים מחוכמים, אוטונומיה מפוקפקת

עם כל יתרונותיהן, השימוש בטכנולוגיות בינה מלאכותית טומן בחובו גם סיכונים לא מעטים. דמיינו מצב שבו גורמים עוינים מפיצים ברשתות החברתיות מידע כוזב שיצרה בינה מלאכותית, באמצעות פרסומים ממוקדים המוּנָעים מפחדים ומרגשות. כבר כעת, היקף המידע האישי שאנשים בוחרים לחלוק עם העולם כולו ברשתות החברתיות מאפשר למערכת "להכיר" את המשתמשים לעומק, ו"לדעת" מה אוהב כל משתמש, ממה הוא פוחד ומה מרתיע אותו. באמצעות המידע הזה אפשר להפוך כל קמפיין למותאם-אישית, ולהציג את חלקי העובדות (או אפילו את השקרים) שעשויים להשפיע במידה הרבה ביותר. פרסומים כאלה יכולים להשפיע על דעת הקהל, להציג מידע שאינו בהכרח אמין, וכך לפגוע באמון הציבור במערכות הדמוקרטיות ולקדם תחושת אנרכיה. לפי הערכות כותבי המאמר, הבינה המלאכותית יכולה להעצים את כל ההשפעות הללו. 

סיכון נוסף הוא העברת השליטה במכוניות או במטוסים מבני האדם למערכות אוטונומיות, שעלולות לפעול באופן בלתי צפוי ולגרום לנזקים חמורים. יתרה מזאת, כל אחד מהתחומים שישלבו בתוכם מערכות בינה מלאכותית עלולים ליפול קורבן למתקפת סייבר. זה יכול לקרות למשרדי ממשלה, לבנקים ולמערכות בריאות או תחבורה. החוקרים מזהירים שבלי בקרה ופיקוח נאותים, האנושות עלולה למצוא את עצמה חסרת אונים מול פצחנים (האקרים), והסכנות מפיתוח בלתי מבוקר של בינה מלאכותית יכולות להיות חמורות ואף מסכנות חיים.

קול קורא לרגולציה

לדברי החוקרים, אין די ברגולציה הקיימת כדי להתמודד עם האתגרים שמציבות טכנולוגיות הבינה המלאכותית המתקדמות. רק אחוז עד שלושה אחוזים מהמאמרים בתחום מוקדשים לבטיחות הטכנולוגיה. מערכות רבות פועלות כמעט ללא פיקוח, והחקיקה אינה מגדירה גבולות ברורים לפעילותן. הכותבים מצביעים על הצורך במנגנוני אכיפה חזקים וברגולציה מתאימה כדי למנוע מתרחישים מאיימים, כמו אלה שהוזכרו בפסקה הקודמת, להפוך למציאות.

כותבי המאמר מציעים מספר המלצות לשיפור הפיקוח והבקרה על טכנולוגיות הבינה המלאכותית. כדי להתמודד עם היעדר הפיקוח, הם קוראים להקצות לפחות שליש מתקציבי הפיתוח לניטור סיכונים ולהערכתם. עוד הם מציעים לחייב את מפתחי הטכנולוגיה להירשם תחת ארגון מפקח ממשלתי או אחר, וכן לדווח, עוד בשלבי הפיתוח, על קשרים עם בעלי עניין ועל נקודות תורפה אפשריות של הטכנולוגיה, בלי לחשוף מי איתרו את הפרצה האפשרית. 

בהתבוננות רחבה יותר, הכותבים ממליצים לקבוע תקני בטיחות שיתאימו ליכולות של הבינה המלאכותית, לוודא שהחברות המפתחות יישאו באחריות משפטית לנזקים שאפשר לצפות מראש, להקים מסגרות רגולטוריות בינלאומיות שיבטיחו שיתוף פעולה בין מדינות במניעת שימוש לרעה בבינה מלאכותית, ולפתח מנגנונים שיופעלו באופן אוטומטי כאשר הבינה המלאכותית מפתחת יכולות מסוימות, כגון יכולת לקבל החלטות קריטיות באופן עצמאי לחלוטין, או לפתח אלגוריתמים שיכולים לשכפל את עצמם בלי התערבות אנושית.


הכותבים מציעים להגביר את הפיקוח והבקרה על טכנולוגיות הבינה המלאכותית. כלי רכב אוטונומיים | cono0430, Shutterstock

המשך הדרך 

החוקרים מדגישים שחשוב לנהל את נושא הבינה המלאכותית באופן מקיף, שכולל גם פעילות פרואקטיבית של הממשל, ואת הצורך לאזן בין התקדמות טכנולוגית לפיקוח אחראי. לדבריהם, בעזרת יישום ההמלצות אפשר יהיה ליהנות מיתרונות הבינה המלאכותית ולצד זאת למזער את הסיכונים הנלווים. הצעדים שהם מציעים עשויים ליצור סביבה ידידותית לפיתוח טכנולוגיות בינה מלאכותית, שגם שומרת על בטיחות ונתונה לרגולציה נאותה. לטענתם, כדי שהמשך הפיתוח הטכנולוגי יועיל לאנושות, חיוני להבין את ההשלכות ואת הסיכונים, וקריאתם לפעולה דחופה ולפיקוח אפקטיבי היא קריטית למניעת סיכונים הרי-גורל ולהבטחת שימוש אתי בטכנולוגיה.

הכותב נעזר בבינה מלאכותית בתהליך העבודה על הכתבה.

0 תגובות