בינה מלאכותית המחוללת תמונות מתאמנת על יצירות של אמנים בלי הסכמתם, וגם מחקה את הסגנון שלהם. קבוצת חוקרים ואמנים החליטה להילחם נגד התופעה בכלים דיגיטליים מתוחכמים
היכולות המרהיבות של מחוללי תוכן דוגמת DALL-E ו-Midjourny היוצרים תמונות מטקסט, או ChatGPT ודומיו המחוללים טקסטים בשפה טבעית, נשענות על כמויות אדירות של מידע שממנו המחוללים לומדים. שלב העיצוב של מחולל כזה כולל אימון על אוסף גדול מאוד של מידע. למשל, מחולל שמייצר תמונה מתוך משפט שנתן לו המשתמש, עובר שלב אימון שבו הוא רואה הרבה מאוד דוגמאות של תמונות אמיתיות ואת הטקסט שמייצג אותן, כדי שילמד את הקשרים המורכבים בין ההקשר הסמנטי לבין התוכן החזותי.
קיימים מאגרים מורשים המכילים תמונות וטקסטים למטרות אימון כאלו, אולם יש מקרים שבהם איסוף המידע לשלב האימון מתבצע על ידי סריקה כוללת של האינטרנט. חלק מהמפתחים הודו שאיסוף המידע לצורכי האימון של מחוללים מסוימים נעשה ללא הסכמת בעלי המידע. אמנים מצאו את עצמם במצב שבו מחולל שלמד מעבודות שלהם המפורסמות ברשת, מחקה בתוך שניות את הסגנון שהם פיתחו במהלך קריירה שלמה.
תביעות משפטיות מצד אמנים טוענות להפרת זכויות יוצרים ומעלות שאלות אתיות בנוגע לשימוש שעושה הבינה המלאכותית בפירות עמלם של אמנים. לאחרונה פורסמו רשימות של אלפי אמנים, חלקם מוכרים מאוד וחלקם פחות, שיצירותיהם שימשו לאימון המחוללים בלי הסכמתם. נראה שהמישור המשפטי עדיין מדשדש, והגבולות בין השראה חוקית לבין שימוש לא הוגן אינם מוגדרים היטב.
איפה עובר הגבול בין השראה לבין הפרת זכויות יוצרים? יד רובוטית מציירת את ה"מונה ליזה" של לאונרדו דה וינצ'י | איור: Nicoleta Ionescu, Shutterstock
התקפת נגד
התגוננות ישירה מפני שימוש בעבודות אמנות ללא הסכמה מאלצת אמנים לפגוע בפרסום היצירות שלהם. סימני מים (water marks) שמוטבעים על היצירות עלולים לפגוע באסטתיקה, וכבר יש כלים להסרת חותמות כאלה. הפתרון האולטימטיבי הוא לא לפרסם את היצירות ברשת הפתוחה, אבל זה חוטא למטרות הפרסום של האמנים.
יש מי שהחליטו לא לעמוד בחיבוק ידיים. קבוצת חוקרים מאוניברסיטת שיקגו בארצות הברית מפתחת כלים להתקפות נגד מחוללי תמונות. המטרה הראשונית היא להגן על יצירה מקורית של אמנים, והיא ממומשת בתהליך התקפי, שגם משבש מחוללים שמנסים להשתמש בעבודות הללו. ההתקפות מבוססות על יצירת מידע שהמחוללים ירצו להתאמן עליו, שנראה תמים ומתאים, אבל בפועל הוא "רעיל" והרסני עבור המחולל.
מחוללים עוברים לעיתים שלבי עדכון ללמידה שלהם, גם אחרי שהם כבר מוכנים ומוצעים לקהל, והם כוללים אימון נוסף על מידע חדש. החוקרים מציעים כלי התקפי שלא רק יוצא במתקפת מנע נגד מחוללים עתידיים, אלא מסוגל לפגוע גם במחוללים ששואפים להישאר מעודכנים ולהשתפר מעת לעת, ולכן יאלצו להיעזר במידע חדש ללמידה. במירוץ שבו מדי כמה חודשים יוצא לשוק מחולל שובר שיאים חדש, מידע רעיל שמסתובב ברשת עלול להשפיע על התוצאות.
פגיעה במחוללים יכולה להתבצע בכמה וכמה דרכים. חלקן דורשות גישה לקרביים של המחולל או לתהליך האימון. כדי לאפשר זיהום יעיל נגד המחוללים בלי לגשת למאחורי הקלעים הטכניים, החוקרים מציעים הליך של הפצת מידע מזוהם ברשת, ש"ירעיל" את המחולל, כלומר ישבש את היכולת שלו ליצור תוכן הגיוני.
אפשר לעצב את ההתקפה בצורה נקודתית, למשל לשבש את היכולת של המחולל לייצר תמונות של כלבים, כך שמשתמש שיבקש תמונה של כלב יקבל תמונה של חתול. בהקשר של זכויות יוצרים, התקפה שמעוצבת במטרה להגן על יצירותיו של אמן בשם ישראל ישראלי יכולה להתבצע באופן שבו כאשר משתמש יבקש "צייר לי מכונית בסגנון שישראל ישראלי מצייר" הוא יקבל תמונה בסגנון אחר, או בכלל לא של מכונית, אלא משהו אחר, למשל ברווז.
מידע "רעיל" מוסווה היטב יכול לשבש את יכולת המחולל לייצר תוכן הגיוני. בקבוקון עם הכיתוב "שתה אותי. לא רעל" | איור: Alenka Karabanova, Shutterstock
איך נראה ברווז?
לב המתקפה נעוץ באופן שבו מחוללים מפרשים את תוכן התמונה. כשאנחנו צופים בברווז, אנחנו מזהים מקור, כנפיים, נוצות, אולי גם את האגם שהברווז שוחה בו. בסיכום של כל המשתנים האלה אנחנו קובעים כי מדובר בברווז. ולעיתים אפילו מתבלבלים בינו לבין אווז. מחוללים משתמשים במבנים שנקראים רשתות נוירונים. למרות השאלת השם מתאי העצבים במוח שלנו, רשתות נוירונים ממוחשבות תופסות מידע בצורה שונה מהמוח.
עבור רשת נוירונים, תמונה היא אוסף של מספרים שמציינים את הבהירות של כל פיקסל, כלומר נקודה בתמונה. כרשת נוירונים לומדת משילובים של תמונה וטקסט שמתאר אותה, היא לומדת אילו מאפיינים של קבוצות פיקסלים מייצגים את הנושאים בטקסט. המאפיינים האלו יכולים להיות דומים למאפיינים שעוזרים לאדם להכריע: לדוגמה קבוצות פיקסלים שמייצגות מבנה של פינה חדה יכולות להעיד על מקור. רשתות משתמשות גם במאפיינים פחות טריוויאליים, כמו מרקם, תדירות ההופעה של מבנים חזרתיים בבהירות הפיקסלים ועוד.
מאפיינים כמו מקור ונוצות מיוצגים כשקלול של המאפיינים הללו. כשרשת נוירונים שכבר ראתה שלל דוגמאות ולמדה אילו מאפיינים מייצגים ברווז מתבקשת לייצר תמונה של ברווז, היא מייצרת תמונה שהמאפיינים שלה תואמים את המאפיינים המייצגים ברווז.
עם היחס שבין התפיסה שלנו של האובייקט שנקרא ברווז, לבין התפיסה של הרשת את האובייקט המתויג כברווז, אפשר לשחק. אפשר לרמות את המחולל ולהעלות לרשת המון תמונות שמתויגות כברווז אבל מציגות, למשל, מכונית. כך הרשת תלמד לקשר בין מאפיינים של מכונית, השונים ממאפיינים הברווז, לבין התיוג ברווז. אולם בקרה אנושית, או אוטומטית, על קלט האימון, יכולה לתקן דבר כזה.
ההתקפה שהחוקרים מציעים היא ערמומית יותר וקשה יותר לאיתור. זהו מנגנון שיטתי שבו אפשר לשנות את ערכי בהירות הפיקסלים בתמונה כך שהעין האנושית עדיין תראה ברווז, אבל התוכן המספרי של התמונה יציג מאפיינים שהרשת למדה לייחס למכונית. אדם שמתבונן בתמונה לא ישים לב לדבר מוזר כיוון שהשינוי בפיקסלים הוגדר כך שיהיה כמה שיותר קטן, אבל גדול מספיק כדי שרשת הנוירונים תזהה מאפיינים של מכונית. אם יוצגו לרשת מספיק תמונות של מכוניות ש"מחופשות" דיגיטלית לברווזים, בצירוף תיאור מילולי של ברווז, הרשת תערבב בין הייצוגים. וכך, כשמשתמש יבקש מהרשת ליצור תמונה של ברווז, תתקבל תמונה שדומה לערבוב של ברווז ומכונית.
רמת הדמיון למכוניות תלויה ביחס שבין המידע המזוהם למידע הנקי. החוקרים הראו שדי בכמות מצומצמת יחסית של דוגמאות "מורעלות" כדי לשבש את תפקוד הבינה המלאכותית שמחוללת תמונות.
הקושי בחבלה כזאת הוא שכדי להסיט את מאפייני הברווז לאלה של מכונית, התוקפים יצטרכו כנראה לדעת מהם המאפיינים שמייצגים מכונית בעיני הרשת שהם מתכוונים לתקוף. לשם כך הם יצטרכו גישה למבנה הרשת, שבדרך כלל לא פתוח לציבור. החוקרים הראו שגם אם עיצוב הסטת המאפיינים מסתמך על מחולל שפתוח לציבור, התקפה בעזרת המאפיינים הללו תהיה יעילה ביותר גם מול מחוללי טקסט לתמונה אחרים, שמפרטיהם לא זמינים לציבור.
האם זה ברווז או מכונית? במקרה זה גם וגם, אבל יש דרכים מתוחכמות יותר להטעות את הבינה המלאכותית. אוטובוס תיירים בצורת ברווז בלונדון, בריטניה | צילום: Sampajano_Anizza, Shutterstock
מרוץ שלא נגמר
בחזרה לזכויות יוצרים, אמן שירצה להגן על הסגנון האמנותי שלו, יוכל להוסיף שינוי לתמונה שהחוקרים מכנים "מסווה סגנון". ישראל ישראלי יוכל לשנות קלות את התמונה שלו, באופן שעין אנושית לא תבחין בו, אך הוא יכוון את רשת הנוירונים לפרש את הסגנון שלו כסגנון רחוק מאוד ממנו, למשל "ון-גוך". בפעם הבאה שמתשתש ינסה לקצר הליכים ולייצר תמונה של ישראל ישראלי בלי לשלם לו תמלוגים, הוא יקבל תמונה בסגנון של ון-גוך, שכמובן שונה ממנו מאוד.
משחקי החתול והעכבר בין בינה מלאכותית שיוצרת תוכן אנושי לבין בני אדם שרוצים לשמר לעצמם את יכולות היצירה הייחודיות להם לא ייגמרו בקרוב. במוקדם או במאוחר אפשר להניח שמפתחי הבינה המלאכותית ימצאו פתרון לזיהום מידע מהסוג הזה. הדיון בנושא מעלה שאלות רבות שקשורות להתקדמות טכנולוגית מול ערך אנושי, אבל תוך כדי כך אנחנו נהנה מפיתוחים טכנולוגיים לכאן ולכאן, חיקוי והדמיה, הגנה והתקפה.