OpenAI מעדכנת כללי בטיחות חדשים לנוער ב-ChatGPT
חדשות

OpenAI מעדכנת כללי בטיחות חדשים לנוער ב-ChatGPT

עם לחץ חקיקתי גובר, OpenAI מחמירה הגנות על משתמשים מתחת לגיל 18 ומפרסמת משאבי ליטריות AI להורים ולמתבגרים

AI
אוטומציות AI
4 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • OpenAI עדכנה את Model Spec עם הגנות מחמירות יותר לנוער: איסור משחקי תפקידים רומנטיים ואלימים

  • עקרונות מנחים: בטיחות ראשונה, הפניה לתמיכה אמיתית ושקיפות מלאה

  • רקע: מקרי התאבדות, מכתב מ-42 פרקלי מדינה וחוקים כמו SB 243 בקליפורניה

  • משאבי ליטריות חדשים להורים ולמתבגרים לבניית שימוש בטוח ב-AI

בעידן שבו צ'אטבוטים כמו ChatGPT הפכו לחלק בלתי נפרד מחיי הנוער, OpenAI מציגה עדכונים משמעותיים בכללי הבטיחות לכלי הבינה המלאכותית שלה. החברה עדכנה את מסמך Model Spec, המגדיר את התנהגות המודלים שלה מול משתמשים מתחת לגיל 18, ומפרסמת משאבי ליטריות AI חדשים להורים ולמתבגרים. העדכונים מגיעים על רקע דאגות גוברות לגבי השפעת AI על צעירים, כולל מקרי התאבדות שיוחסו לשיחות ממושכות עם צ'אטבוטים. OpenAI מדווחת כי העדכון כולל הנחיות מחמירות יותר למשתמשים מתבגרים בהשוואה למבוגרים. המודלים אסורים מלעסוק במשחקי תפקידים רומנטיים סוחפים, אינטימיות בגוף ראשון, או משחקי תפקידים מיניים או אלימים, גם אם אינם גרפיים. בנוסף, יש להפעיל זהירות מוגברת בנושאים כמו דימוי גוף והפרעות אכילה, ולתעדף תקשורת על בטיחות על פני אוטונומיה כאשר קיים סיכון. ההנחיות חלות גם על שאילתות המוצגות כ'בדיוניות, היפותטיות, היסטוריות או חינוכיות'. החברה מציינת ארבעה עקרונות מנחים: העדפת בטיחות הנער על פני חופש אינטלקטואלי, הפניית מתבגרים לתמיכה בעולם האמיתי כמו משפחה ומקצוענים, התייחסות אליהם בכבוד וחום ללא התנשאות, ושקיפות מלאה לגבי יכולות וגבולות האסיסטנט. דוגמאות במסמך מראות כיצד ChatGPT מסרב לבקשות כמו 'שחקי את החברה שלי' או עזרה בשינויי מראה קיצוניים. OpenAI מתכננת מודל זיהוי גיל אוטומטי שיופעל אוטומטית הגנות אלה. העדכונים מגיעים בתזמון קריטי, כאשר 42 פרקלי מדינה בארה"ב שלחו מכתב לחברות טק גדולות, דורשות הגנות על ילדים. סנאטור ג'וש הולי הציע חוק האוסר לחלוטין על קטינים להשתמש בצ'אטבוטי AI, וממשל טראמפ בוחן תקנים פדרליים. בקליפורניה, חוק SB 243 שנחקק לאחרונה מחייב אזהרות תקופתיות ומגבלות על תוכן מסוכן, דבר שמשקף את שינויי Model Spec. מומחים מברכים על הצעדים, אך מביעים ספקות. לילי לי, עורכת דין לפרטיות ו-AI, שיבחה את הסירוב לקיים שיחות ממכרות שמובילות להתנהגות בלתי הולמת. רובי טורני מ-Common Sense Media הזהיר מפני סתירות פנימיות במפרט, כמו עידוד שיחות על כל נושא. סטיבן אדלר, חוקר בטיחות לשעבר ב-OpenAI, הדגיש כי דוגמאות אינן מבטיחות התנהגות בפועל, במיוחד לאור בעיות סיקופנטיה ב-GPT-4o. במקרה טרגי של אדם ריין, נער שהתאבד לאחר שיחות עם ChatGPT, נכשל מערכת המתינות של OpenAI בלמנוע תוכן מסוכן למרות זיהוי אלפי הודעות. כיום, החברה משתמשת במערכות זיהוי בזמן אמת, ובמקרים חמורים – צוות אנושי בודק ומדווח להורים. OpenAI פרסמה גם משאבי ליטריות להורים, כולל נושאי שיחה לבניית חשיבה ביקורתית והגבלות בריאותיות. למנהלי עסקים ישראלים, העדכון מדגיש את החשיבות של כלי AI בטוחים בסביבת עבודה שבה עובדים צעירים משתמשים בהם. עם עסקאות כמו זו של OpenAI עם דיסני, יותר נוער יגיע לפלטפורמה. חברות ישראליות המפתחות AI חייבות לאמץ גישות דומות כדי להימנע מסיכונים משפטיים ולשמור על אמון. האם כללי הבטיחות הללו ימנעו אסונות עתידיים? OpenAI מדגישה שמדובר בחלק ממערכת רב-שכבתית, אך רק בדיקת התנהגות בפועל תקבע. הורים ועסקים: בדקו את ההגדרות ודברו עם הילדים על גבולות AI.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

עוד כתבות שיעניינו אותך

לכל הכתבות