בתקופה שאנחנו חיים בה המידע נגיש מאי פעם – לרבות מידע שקרי ושגוי. האם נדע לזהות את האמת כאשר הבדיות, בעזרת בינה מלאכותית, רק הופכות מציאותיות יותר ויותר?

בשנת 1938, לקראת ליל כל הקדושים (האלווין), דווח ברשת הרדיו בארצות הברית על פלישת חייזרים לכדור הארץ. תוכנית הרדיו, שנפתחה באופן שגרתי עם שידורי מוזיקה, נקטעה במבזק חדשות שדיווח על נפילת עצם מהחלל בניו ג'רזי, ועל מתקפת החוצנים שמתחוללת בעקבות זאת. למחרת דיווחו עיתונים שונים על כך שבמהלך שידורי התוכנית התעוררה פאניקה בקרב המאזינים: ה"חדשות" על אודות הפלישה הופצו מפה לאוזן, והמאזינים פנו לרדיו, לעיתונות ולמשטרה. 

תוכנית הרדיו הייתה עיבוד לרומן "מלחמת העולמות" שכתב הרברט ג'ורג' ולס, שהופק לכבוד החג ושודר במבנה של חדשות שזורמות לאולפן במהלך שידור רגיל. הדיווחים המבוימים "מהשטח" הכילו אפקטי סאונד דרמטיים שתרמו לתחושת האמינות, ושחקנים שמילאו את תפקידיהם נאמנה בהקלטה.

מעבר לאיכות ההפקה, המאזינים נטו להאמין לרדיוכי הוא נתפס כאמצעי תקשורת אמין, שמפיץ מסרים אמיתיים. כך התוכנית סחפה אחריה את המאזינים – אולי במידה רבה מדי. 

כיום, עשורים מאוחר יותר, אנחנו צורכים מידע – כולל חדשות – באמצעים שונים לגמרי. מהדורות החדשות המרכזיות עדיין זוכות לפופולריות מסוימת, אבל רבים מאיתנו נחשפים למבזקי ידיעות ברשתות החברתיות, וסופגים ידע כללי מרחבי האינטרנט. בסקרים מסוימים נטען שצעירים היום סומכים על מידע שמופץ ברשתות החברתיות כמעט כמו על מידע שמקורו בחברות החדשות.

המידע נגיש בימינו יותר מאי פעם בעבר. אין צורך להמתין לדיווח החדשותי מדי שעה עגולה, ומי שרוצה ללמוד נושא מסוים כבר אינו חייב לבקר בספרייה או לפנות למומחים. התשובות לרבות מהשאלות שמעסיקות אותנו באופן יומיומי נמצאות במרחק של כמה הקשות במקלדת, מקסימום גלילה קצרה וסינון של קישור או שניים עד שמגיעים למידע הרצוי. מנועי חיפוש מגדילים לעשות ומוסיפים מתחת לתוצאות החיפוש מעין סיכום של עיקרי התוכן בהתאם לשאילתת החיפוש. כך לעיתים נענות שאלות פשוטות בלי שנכנסנו בכלל למקור המידע. התשובות לשאלות הן קצרות, מהירות, זמינות ותמציתיות. 

במקביל, גם היכולת להפיץ מידע זמינה הרבה יותר, גם אם אתם אדם פרטי ולא תאגיד חדשות עתיר משאבים. אין צורך לצבור קרדיט אקדמי או גושפנקה ראויה אחרת כדי להגיע במהירות לקהל של עשרות ומאות עוקבים ברשתות החברתיות, ואם המקור הוא אושיית רשת, אפילו למיליונים. 

הרשתות החברתיות משחקות תפקיד קריטי בהפצת מידע שקרי, בפרט מאחר שאנחנו נוטים לשתף בהן תכנים שמעוררים בנו רגשות עזים. משתמשים שמעוניינים לקבל חשיפה רחבה מעוּדדים לפרסם תוכן כמה שיותר שנוי במחלוקת, מעורר רגש ומזעזע, שיזכה לתפוצה מהירה ומקיפה. השילוב הזה, של תוכן שמופץ בקלות לצד מקורות שאינם בהכרח מהימנים, עלול להקשות עלינו מאוד בבואנו לשפוט עד כמה אמין המידע. 


היכולת להפיץ מידע זמינה היום הרבה יותר. אילוסטרציה של הפצת עובדות ומידע שקרי | Shutterstock, Accogliente Design

הפצת שקרים היא לא עניין חדש. מאז ומעולם התפשט מידע מעוות – למשל, בדבר המנצחים במאבקים ובמלחמות – והופצו מיתוסים שקריים. נדמה ש"פייק ניוז" (חדשות כזב) הן כמעט חלק מטבע האדם. ההבדל העיקרי בהפצת שקרים בימינו הוא מהירות ההפצה והטווח שלה. בשנים האחרונות הופכת ההבחנה בין אמת לבדיה מאתגרת עוד יותר, בחסות התפתחות הבינה המלאכותית היוצרת.

יש מאין, בלחיצת כפתור

בינה מלאכותית יוצרת (Generative Artificial Intelligence) היא כינוי לבינה מלאכותית שמייצרת תוכן חדש. ChatGPT הפופולרי פרץ לחיינו ככלי שמייצר טקסט, DALL-E ו-Midjourney מייצרות תמונות, ויש גם כלים ליצירת מוזיקה, וידאו וקוד תוכנה. בעזרת הכלים האלה יכולים כל משתמש ומשתמשת להנחות את האלגוריתמים כך שייצרו תוכן באיכות גבוהה, שלא אחת דומה מאוד לתוכן אותנטי. תמונות וקטעי וידאו שיוצרת בינה מלאכותית יכולים לתעתע בקלות בצופה תמים, בפרט כאשר המטרה היא לייצר תוכן חדש שנראה מציאותי ולא מלאכותי.

מערכת בינה מלאכותית מעוצבת בעזרת אימון על מידע קיים. מערכת שהמטרה שלה היא ליצור תמונות תיחשף במהלך שלב האימון שלה למאגר גדול של תמונות אמיתיות, תלמד את התכונות שלהן, ותלמד ליצור תמונות חדשות, מומצאות, בעלות תכונות דומות. השיטות ליצירת תוכן ויזואלי מציאותי ואמין עדיין מתפתחות במהירות; בתוך כך, שיטות שנחשבו שיא הטכנולוגיה לפני כמה שנים כבר נתפסות כעת כמיושנות. 

אחת השיטות ליצירת תמונות מציאותיות, שהתפתחה לפני כעשור, נקראת GAN – ראשי תיבות של  Generative Adversarial Network (רשת מתחרים יוצרת), אם כי כיום היא כבר נחשבת כמעט פגה תוקף בהשוואה לטכנולוגיות חדישות יותר. בשיטה הזו המערכת מורכבת משני חלקים. חלק אחד, המחולל, מייצר תמונות, והחלק השני, שנקרא מסווג, נותן ציון לתמונה שיצר המחולל לפי רמת האמינות שלה. אם מערכת כזו תרצה ללמוד, למשל, ליצור תמונות אמינות של פרצופים, היא תתאמן על מאגר גדול מאוד של תצלומי פנים אמיתיים. המחולל יתחיל את התהליך ביצירת תמונה כלשהי, שהיא בסך הכול אוסף פיקסלים עם ערכים מספריים שמייצגים צבע. המסווג ישפוט אם התמונה הזו דומה לסוג התמונות ממאגר התמונות האמיתי. בתהליך אימון חזרתי, המחולל ילמד לחולל תמונות שנראות כאילו נלקחו ממאגר התמונות המקורי בעזרת המשוב של המסווג. באתר הזה וגם באתר "האדם הזה לא קיים" תוכלו לנסות את כוחכם בקביעה איזה תמונה היא אמיתית ואיזו יוצרה בתהליך מלאכותי כזה. 


האנשים האלו לא באמת קיימים - אלו תמונות שיוצרו באמצעות שיטות GAN | ויקימדיה, bod lnga klang, Datasciencearabic1

טכנולוגיה יוצרת אחרת, שנמצאת בשימוש רחב בימים אלה, מכונה מודל דיפוזיה (Diffusion Model), וגם היא יוצרת תמונות חדשות שדומות לאופי התמונות ממאגר האימון. שיטת האימון מתבצעת בשני שלבים: ראשית לוקחים תמונה ממאגר התמונות ומוסיפים לה "רעש", כלומר משנים מעט את הערך של כל פיקסל כך שיהיה בהיר או כהה יותר, כל פיקסל בעזרת ערך אחר. לחלק מהתמונות מוסיפים מעט "רעש", כך שהתוכן המקורי שלהן עוד ברור, ולחלקן מוסיפים כל כך הרבה "רעש" עד שהתמונה המקורית כבר בלתי ניתנת לזיהוי ונראית כמו אוסף פיקסלים אקראי. כעת מתחיל השלב השני, ובו המערכת מתחילה ללמוד את תכונותיה של תמונה אמיתית. המטרה היא לקחת תמונה מורעשת ולבצע את התהליך ההפוך, שיחזיר את הרעש להיות התמונה הנקייה. תהליך "ניקוי הרעש" מלמד את המערכת מה מאפיין את התמונות האמיתיות מהמאגר. לבסוף, לאחר האימון, תהליך ייצור תמונה חדשה מתחיל ברעש רנדומלי כלשהו, שאותו המערכת "מנקה" עד שנוצרת תמונה שדומה לתמונה מהמאגר. על שיטה כזאת מבוססות התוצאות המרעישות של DALL-E.


טכנולוגיה שנמצאת בשימוש רחב בימים אלה היא מודל דיפוזיה. זו תמונה של החתול שלי, מוטמע ברמות שונות של רעש. אם נלמד מערכת לקחת תמונות מורעשות של חתולים, ולהבין איך לשנות את הערכים של הפיקסלים כך שתתקבל תמונה נקייה, כשנכניס לה אחרי האימון רעש רנדומלי כלשהו, היא "תנקה" אותו ליצירת תמונה | טל סוקולוב

בשנה-שנתיים האחרונות כמה וכמה כלים כאלו נפתחו לשימוש הציבור הרחב, והם מאפשרים יצירה של תוכן מציאותי מאוד. המשתמשים יכולים ליצור תמונות בעזרת משפט או כמה משפטים שמתארים אותן, וכך "לביים סצנות" מורכבות בכמה לחיצות פשוטות.

למי להאמין?

הקלות שבה נוצר תוכן פיקטיבי, מהירות ההפצה שלו והגעתו ישירות לטלפון הנייד שלנו – כל אלה מובילים לכך שאנחנו נחשפים אליו יותר מאי פעם בעבר, וקשה מאוד לאמת את המידע שמגיע אלינו ולמנוע הפצה של מידע שקרי. הרשתות החברתיות, שבהן אנחנו מתקשרים עם חברים ועם משתמשים דומים לנו, יוצרות מעין "תיבת תהודה": אנחנו נחשפים לתוכן שתואם מראש את דעותינו ואת תפיסות העולם שלנו, כך שהיחס אליו לעיתים פסיבי וחף מביקורתיות. חוקרים שאספו מידע מהרשת החברתית טוויטר מצאו שציוצים עם מידע שקרי מגיעים לתפוצה רחבה יותר ומופצים מהר יותר מתוכן מאומת. החוקרים גם מצאו שתוכן שקרי עורר תגובות רגשיות שונות מתוכן אמיתי: בעוד שתוכן אמיתי עורר תחושות כמו עצב, שמחה, ציפייה ואמון, תוכן שקרי עורר רגשות כמו הפתעה וגועל. 

מקור הבעיה אינו בבינה המלאכותית. תמונות אמיתיות שמוצאות מהקשרן, כולל תמונות ממשחקי מחשב שמוצגות כתיעוד אותנטי משדה הקרב, היו אתגר הרבה לפני שאלגוריתמים של בינה מלאכותית למדו לייצר תמונות משכנעות, וחובבי תיאוריות קשר נוטים לפקפק גם בתמונות ובסרטונים שנוצרו בתקופה בה איש לא חלם על יכולות כאלו, כמו תמונות הנחיתה על הירח משנת 1969. אולם הבינה המלאכותית, שיכולה ליצור לא רק תמונות אלא גם סרטוני וידאו בהתאם להוראות המשתמשים, עלולה להעמיק את הבעיה ולהפיץ לכל עבר סרטונים של אנשי ציבור ודמויות סמכותיות פולטים טקסט מתוסרט. 


מקור הבעיה אינו בבינה המלאכותית, אך היא עלולה להעמיק את הבעיה. מקלדת עם מקשים לפייק ניוז ולעובדות | Shutterstock, keport

קצב ההתקדמות של הבינה המלאכותית כבר הבהיל מקבלי החלטות במידה כזו, שמספר עצומות פורסמו במטרה להאט את קצב הפיתוח שלה. אחת ההצעות היא להבין תחילה איך להתמודד עם האפשרות שבינה מלאכותית תציף את ערוצי המידע שלנו בתעמולה ובמידע שקרי, ולקבל החלטות מערכתיות מושכלות בהתאם. אחת האפשרויות שלנו כמשתמשים היא להיעזר בטכנולוגיות נגד, דוגמת AI or not, שבוחנות איזה תוכן נוצר בעזרת בינה מלאכותית, אם כי הן לא מציעות פתרון מערכתי.

עד שיימצאו הדרכים להתמודד עם הבעיה, מוטלת עלינו, המשתמשים, אחריות רבה. טוב נעשה אם נבחר בצד האחראי והשקול: להטיל ספק, להתעמק בתוכן, ובעיקר לא ללחוץ על כפתור השיתוף בלהט הרגע מבלי שבדקנו את אמינות המידע המופץ. אפילו ״ניוז״ אודות ״פייק ניוז״ עלולים להתברר כ״פייק ניוז״ בעצמם. צריכה אחראית של מידע דורשת אומנם זמן ומשאבים, אולם אי אפשר לסמוך על ישות אחרת שתסנן את התכנים ותעשה את העבודה בשבילנו. עלינו לצרוך מידע באופן אחראי, ולקדש את האמת במידע שאנחנו מעבירים הלאה. 

3 תגובות

  • מדען

    השקר הגדול

    וגמובן, השקר של יעיל ובטוח שאתם פימפמתם באגרסיביות. האם תודו אי פעם שלא יעיל, לא בטוח ולא מוסרי לכפות חיסונים?

  • ניצנצ

    ניצנצ

    מי כפה חיסונים?

  • אנונימי

    אף אחד לא כפה חיסונים.