בעידן שבו בינות מלאכותיות כמו Grok מייצרות תמונות במהירות הבזק, X בוחרת במקום לתקן את הכלי – להעניש את המשתמשים. לפי הדיווח, במקום לעדכן את Grok כדי למנוע יצירת תמונות מיניות של קטינים, X מתכננת לנקות משתמשים שמייצרים תוכן שנחשב בלתי חוקי, כולל חומר התעללות מינית בילדים (CSAM) שנוצר על ידי Grok. התגובה הזו מגיעה לאחר ביקורת חריפה על יכולות הבינה המלאכותית.
ביום שבת פרסמה X Safety תגובה רשמית ראשונה לאחר כמעט שבוע של זעם ציבורי על תפוקות של Grok שמפיקות תמונות מיניות של אנשים אמיתיים ללא הסכמה. X Safety לא התנצלה על תפקודו של Grok, אלא האשימה את המשתמשים בכך שהנחו את הבינה המלאכותית לייצר CSAM. החברה הזכירה כי פרומפטים כאלה עלולים להוביל להשעיית חשבונות והשלכות משפטיות אפשריות.
'אנו נוקטים בצעדים נגד תוכן בלתי חוקי ב-X, כולל חומר התעללות מינית בילדים (CSAM), על ידי הסרתו, השעיית חשבונות לצמיתות ועבודה עם ממשלות מקומיות וכוחות אכיפת חוק במידת הצורך', נמסר מ-X Safety. 'כל מי שמשתמש או מנחה את Grok לייצר תוכן בלתי חוקי יסבול באותן השלכות כאילו העלה תוכן בלתי חוקי'. הציטוט הזה מדגיש את גישת החברה: אחריות על המשתמש.
ההחלטה של X מעלה שאלות על אחריות בפיתוח בינות מלאכותיות. במקום לבנות מגבלות טכניות פנימיות ב-Grok, הפלטפורמה מעבירה את הנטל למשתמשים, מה שעלול להרתיע משתמשים לגיטימיים. בהקשר ישראלי, שבה חברות טק רבות משתמשות בכלי AI דומים, זה מדגיש את הצורך במדיניות ברורה סביב תוכן רגיש. ביקורת על Grok כבר נשמעה בעבר סביב יצירת תמונות deepfake ללא הסכמה.
התגובה של X משקפת מגמה רחבה יותר בתעשיית ה-AI, שבה פלטפורמות נאלצות להתמודד עם שימושים לרעה. עבור מנהלי עסקים, זה אומר לבחון בקפידה את הכלים הדיגיטליים שצוותים משתמשים בהם, לוודא עמידה בחוקים מקומיים ובינלאומיים. ללא תיקונים טכניים, Grok עלול להפוך לסיכון משפטי. מה תהיה ההשפעה על אימוץ AI בישראל?