בעידן שבו כלי בינה מלאכותית מאפשרים יצירת תמונות מזויפות בקלות, סנאטורים אמריקאים מציבים אולטימטום לחברות הטכנולוגיה הגדולות. קבוצה של שמונה סנאטורים דמוקרטים שלחה מכתב ל-X (לשעבר טוויטר), מטה, אלפאבת, סנאפ, רדיט וטיקטוק, ודורשת הוכחות לקיומם של 'מנגנוני הגנה ומדיניות חזקים' נגד דיפפייקס מיניים. המכתב מגיע על רקע ביקורת חריפה על גרוק של X, שיצר תמונות עירום של נשים וילדים.
הסנאטורים, בהובלת ליסה בלאנט רוצ'סטר וטמי בולדווין, מציינים דיווחים תקשורתיים על כך שמשתמשים מצליחים לעקוף מגבלות פלטפורמות. 'אנו מכירים בכך שחברות רבות מחזיקות במדיניות נגד תמונות אינטימיות לא מסכימות וניצול מיני, אך בפועל, כפי שנראה בדוגמאות, המשתמשים מוצאים דרכים לעקוף את המגבלות או שהן נכשלות', נכתב במכתב. הם דורשים תיעוד מפורט על יצירה, זיהוי, ניהול ומכירה של תמונות דיפפייקס מיניות.
במקביל, X הודיעה לאחרונה על עדכון בגרוק, שמונע עריכת תמונות של אנשים אמיתיים בבגדים חושפניים ומגביל יצירת תמונות למנויים משלמים. אילון מאסק טען שאינו מודע לתמונות עירום של קטינים שנוצרו על ידי גרוק, אך הרגולטורים לא משתכנעים. היום פתח היועץ המשפטי של קליפורניה חקירה נגד xAI בעקבות לחץ בינלאומי.
הבעיה אינה ייחודית ל-X. דיפפייקס מיניים התחילו ב-2018 ברדיט עם סרטונים מזויפים של סלבריטאים, והתפשטו לטיקטוק, יוטיוב, סנאפ וטלגרם. מועצת הפיקוח של מטה זיהתה מקרים של תמונות AI מפורשות של נשים פוליטיקאיות, והפלטפורמה אפשרה פרסומות לאפליקציות 'פשיטת בגדים'. דיווחים מצביעים על ילדים שמפיצים דיפפייקס של חברים בסנאפצ'ט.
הסנאטורים מבקשים הגדרות מדויקות ל'דיפפייקס', תמונות אינטימיות לא מסכימות, תיאור מדיניות נגד עריכת בגדים או 'פשיטה וירטואלית', הנחיות למפקחי תוכן, מסננים לכלי AI, מנגנוני זיהוי, מניעת רווחה ותמיכה בקורבנות. הם גם שואלים כיצד תנאי השירות מאפשרים חסימה של מפיצים.
הנושא מסתבך עם כלי AI כמו Sora 2 של OpenAI שיצרו סרטונים מפורשים של ילדים, או דגמי וידאו של גוגל שיצרו תוכן גזעני. בסין דרישות תיוג תוכן סינתטי חזקות יותר מאשר בארה"ב, שם חקיקה כמו חוק Take It Down מקשה על אחריות פלטפורמות. מדינות כמו ניו יורק מקדמות חוקים נגד דיפפייקס בבחירות.
עבור מנהלי עסקים ישראלים, הדרישה הזו מדגישה את הצורך באסטרטגיות הגנה מפני דיפפייקס – הן לעובדים והן למותגים. חברות ישראליות שמשתמשות בכלי AI חייבות לבדוק מדיניות, להטמיע מסננים ולשקול השפעות רגולטוריות גלובליות שישפיעו על שוק המקומי.
מה תעשו כדי להגן על העובדים והמותג שלכם מפני דיפפייקס מיניים? הגיע הזמן לבחון מחדש את המדיניות.