למידת חיזוק משדרגת מודלי שפה גדולים לזיהוי הונאות
מחקר

למידת חיזוק משדרגת מודלי שפה גדולים לזיהוי הונאות

מחקר חדש מציג שיטה חדשנית לאימון LLM קלים בנתוני עסקאות גולמיים להבסת הונאות מתוחכמות במסחר אלקטרוני

3 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • שימוש ב-GSPO ובתגמולים מבוססי כללים לאימון LLM קלים על נתוני עסקאות.

  • שיפורים משמעותיים בציון F1 בזכות חקירת אותות סיכון חדשים.

  • גילוי מדדי הונאה מעבר לתכונות מסורתיות, רלוונטי לעסקים ישראליים.

למידת חיזוק משדרגת מודלי שפה גדולים לזיהוי הונאות

  • שימוש ב-GSPO ובתגמולים מבוססי כללים לאימון LLM קלים על נתוני עסקאות.
  • שיפורים משמעותיים בציון F1 בזכות חקירת אותות סיכון חדשים.
  • גילוי מדדי הונאה מעבר לתכונות מסורתיות, רלוונטי לעסקים ישראליים.
בעידן המסחר האלקטרוני המהיר, הונאות זהות, השתלטות חשבונות והלבנת כספים מאיימות על פלטפורמות תשלומים. מחקר חדש מפרסם גישה פורצת דרך: שימוש בלמידת חיזוק (RL) לאימון מחדש של מודלי שפה גדולים (LLM) קלים בלבד, תוך שימוש בנתוני עסקאות גולמיים. הגישה הזו מתגברת על מגבלות למידת מכונה מסורתית ומאפשרת גילוי אותות סיכון חדשים בטקסטים כמו פרטי לקוחות, משלוחים ותיאורי מוצרים. לפי החוקרים, שיטה זו מבטיחה שיפורים משמעותיים בדיוק הזיהוי. המחקר מציג אלגוריתם Group Sequence Policy Optimization (GSPO) בשילוב מערכת תגמולים מבוססת כללים. הם אימנו מודלים בגדלים שונים על נתוני עסקאות אמיתיים מחברת תשלומים גלובלית סינית. למידת החיזוק מעודדת את המודלים לחקור אותות אמון וסיכון מגוונים בנתונים טקסטואליים, כולל דפוסים בהיסטוריית הזמנות. התוצאות מראות שיפורים מהותיים בציון F1 על נתוני בדיקה נפרדים, כאשר ההישגים נובעים ממנגנון החקירה של RL שמגלה מדדי הונאה חדשים מעבר לתכונות מהונדסות מסורתיות. למרות הפוטנציאל התיאורטי של LLM בזיהוי הונאות, היישום בפועל נותר מוגבל. הגישה החדשה מדגישה כיצד RL מאפשר אופטימיזציה ממוקדת למשימות ספציפיות כמו זיהוי הונאות כרטיסי אשראי. החוקרים מדגישים שהשיפורים נובעים מחקירה עצמאית של נתונים, מה שמפחית תלות בתכונות ידנית ומשפר את הפרשנות של ההחלטות. לעסקים ישראליים בתחום המסחר המקוון, שיטה זו רלוונטית במיוחד עם עליית ההונאות הדיגיטליות. פלטפורמות כמו שופיפיי או אתרים מקומיים יכולות ליישם גישות דומות כדי לשפר אבטחה ללא צורך בהנדסת תכונות מורכבת. השילוב בין LLM קלים ל-RL מציע פתרון חסכוני ויעיל, במיוחד בסביבות עם נפח עסקאות גבוה. הממצאים מצביעים על עתיד שבו מודלי AI יגלו הונאות באופן אוטונומי. מנהלי עסקים צריכים לשקול אימון מותאם על נתונים פנימיים. האם הגיע הזמן לשלב למידת חיזוק במערכות האבטחה שלכם? קראו את המחקר המלא ב-arXiv כדי להעמיק.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות
זיהוי עמימות הוראות 3D: פריצת דרך בבטיחות AI
מחקר
2 דקות

זיהוי עמימות הוראות 3D: פריצת דרך בבטיחות AI

החוקרים בנו את Ambi3D, מאגר הנתונים הגדול ביותר למשימה זו עם למעלה מ-700 סצנות 3D מגוונות וכ-22 אלף הוראות. ניתוח מראה שמודלי שפה גדולים 3D מתקדמים נכשלים בזיהוי אמין של עמימות. כדי להתמודד עם האתגר, הם מציעים את AmbiVer – מסגרת דו-שלבית שאוספת ראיות חזותיות ממספר זוויות ומנחה מודל שפה-ראייה לשיפוט העמימות. ניסויים מקיפים מוכיחים את יעילות AmbiVer ומדגישים את קושי המשימה.

Ambi3DAmbiVerarXiv
קרא עוד