דלג לתוכן הראשי
אוטומציות AI - לוגו
  • דף הבית
  • בלוג
  • חדשות
  • אודות
  • צור קשר
03-7630715קבע יעוץ חינם
אוטומציות AI - פתרונות אוטומציה וסוכני AI לעסקים בישראל

מובילים בתחום האוטומציה וסוכני AI בישראל. אנו מספקים פתרונות מתקדמים ליעול תהליכי עסק ושיפור הפרודוקטיביות הארגונית.

IL03-7630715USA(646) 760-4854info@automaziot.ai
אחד העם 9, תל אביב. מגדל שלום

קישורים מהירים

  • דף הבית
  • בלוג
  • חדשות
  • אודות
  • צור קשר
  • סיפורי הצלחה
  • מילון מונחים

הפתרונות שלנו

  • ניהול לידים אוטומטי
  • סוכן חכם לוואטסאפ
  • אוטומציה עסקית מלאה
  • ניהול לקוחות חכם
  • קביעת תורים אוטומטית
  • מכירות ושירות לקוחות
  • חנות אוטומטית בוואטסאפ
  • סוכני AI
  • ייעוץ טכנולוגי

הישאר מעודכן

הירשם לניוזלטר שלנו וקבל עדכונים על חידושים בתחום האוטומציה וה-AI

FacebookInstagramLinkedIn

אתר זה משתמש ב-Google Analytics ו-Vercel Analytics לשיפור השירות. למידע מלא ראה מדיניות פרטיות

© 2026 אוטומציות AI. כל הזכויות שמורות.

מדיניות פרטיותתנאי שימושהצהרת נגישותמדיניות עריכה
זיהוי הלוצינציות ב-LLM: Spilled Energy | Automaziot
זיהוי הלוצינציות ב-LLM עם Spilled Energy ללא אימון נוסף
ביתחדשותזיהוי הלוצינציות ב-LLM עם Spilled Energy ללא אימון נוסף
מחקר

זיהוי הלוצינציות ב-LLM עם Spilled Energy ללא אימון נוסף

מחקר arXiv מציע 2 מדדים ישירות מ-logits לזיהוי טעויות עובדתיות במודלים כמו LLaMA, Mistral ו-Gemma

צוות אוטומציות AIצוות אוטומציות AI
8 במרץ 2026
6 דקות קריאה

תגיות

arXivLLaMAMistralGemmaQwen3Orgad et al.McKinseyIBMWhatsApp Business APIZoho CRMN8N

נושאים קשורים

#זיהוי הלוצינציות#מודלי שפה גדולים#WhatsApp Business API ישראל#Zoho CRM#N8N אוטומציה#בקרת איכות ל-AI
מבוסס על כתבה שלarXiv cs.AI ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

נקודות עיקריות

  • מחקר arXiv מציג 2 מדדים training-free — spilled energy ו-marginalized energy — לזיהוי הלוצינציות ישירות מ-logits.

  • השיטה נבחנה על 9 בנצ'מרקים ובמודלים כמו LLaMA, Mistral, Gemma ו-Qwen3, כולל גרסאות pretrained ו-instruction-tuned.

  • הערך העסקי: אפשר להוסיף שכבת בקרה לפני שליחת תשובה אוטומטית ב-WhatsApp, CRM או פורטל שירות.

  • בישראל, פיילוט של חיבור WhatsApp Business API, Zoho CRM ו-N8N עם מנגנון חסימה יכול להתחיל בכ-₪3,500.

  • המסר המרכזי: ניטור אמינות בזמן inference עשוי להפוך ב-12-18 החודשים הקרובים לדרישת בסיס במערכות AI עסקיות.

זיהוי הלוצינציות ב-LLM עם Spilled Energy ללא אימון נוסף

  • מחקר arXiv מציג 2 מדדים training-free — spilled energy ו-marginalized energy — לזיהוי הלוצינציות ישירות...
  • השיטה נבחנה על 9 בנצ'מרקים ובמודלים כמו LLaMA, Mistral, Gemma ו-Qwen3, כולל גרסאות pretrained ו-instruction-tuned.
  • הערך העסקי: אפשר להוסיף שכבת בקרה לפני שליחת תשובה אוטומטית ב-WhatsApp, CRM או פורטל שירות.
  • בישראל, פיילוט של חיבור WhatsApp Business API, Zoho CRM ו-N8N עם מנגנון חסימה יכול להתחיל...
  • המסר המרכזי: ניטור אמינות בזמן inference עשוי להפוך ב-12-18 החודשים הקרובים לדרישת בסיס במערכות AI...

זיהוי הלוצינציות ב-LLM עם Spilled Energy

Spilled Energy הוא מדד חדש לזיהוי הלוצינציות במודלי שפה גדולים, שמבוסס ישירות על logits בזמן יצירה ואינו דורש אימון נוסף. לפי המחקר החדש ב-arXiv, השיטה נבדקה על 9 בנצ'מרקים ובמודלים כמו LLaMA, Mistral, Gemma ו-Qwen3, והצליחה לאתר נקודות שבהן המודל נוטה לשגיאות עובדתיות, הטיות וכשלי מענה.

עבור עסקים ישראליים, זו לא עוד שאלה אקדמית. אם אתם מפעילים עוזר מבוסס GPT, בוט שירות פנימי או מנוע תשובות שמחובר ל-CRM, הבעיה המרכזית היא לא רק איכות הטקסט אלא אמינותו. לפי הערכות McKinsey שפורסמו ב-2023, בינה מלאכותית גנרטיבית יכולה להשפיע על טריליוני דולרים של ערך עסקי, אבל הערך הזה נשחק מהר מאוד אם המערכת מחזירה תשובה שגויה ללקוח, לסוכן ביטוח או לנציג מכירות. לכן מחקר שמציע זיהוי הלוצינציות בלי שכבת אימון נוספת ראוי לתשומת לב מיידית.

מה זה Spilled Energy?

Spilled Energy הוא מדד הסתברותי-אנרגטי שמסתכל על שכבת ה-softmax הסופית של מודל שפה גדול כאילו הייתה Energy-Based Model. בהקשר עסקי, המשמעות היא שאפשר לנתח את רמת היציבות של התשובה במהלך הדקוד עצמו, במקום להסתמך רק על בדיקות חיצוניות אחרי שהטקסט כבר נוצר. לדוגמה, אם מנוע תשובות בעברית עונה ללקוח על סטטוס הזמנה או תנאי פוליסה, אפשר תיאורטית לזהות את הטוקן שבו האמינות מתחילה להישבר. לפי הדיווח, המחקר משתמש בשני מדדים ללא אימון: spilled energy ו-marginalized energy.

מה המחקר החדש מצא על זיהוי הלוצינציות בזמן דקוד

לפי תקציר המאמר, החוקרים מפרשים מחדש את המסווג הסופי של LLM כמודל אנרגיה, ומפרקים את שרשרת ההסתברות sequence-to-sequence למספר מודלי אנרגיה שמקיימים אינטראקציה בזמן inference. הרעיון המרכזי הוא לעקוב אחרי "זליגות אנרגיה" בין צעדי יצירה עוקבים. כאשר יש פער בין ערכי אנרגיה שאמורים תאורטית להתאים, הפער הזה עשוי להעיד על תקלה פנימית בתהליך היצירה. לפי הדיווח, הפערים האלה נמצאו בקורלציה עם שגיאות עובדתיות, הטיות וכישלונות תשובה.

התרומה הבולטת כאן היא פרקטית: בניגוד לגישות קודמות שנשענות על probe classifiers מאומנים, ablation של activations או fine-tuning למשימת גילוי הלוצינציות, כאן מדובר בשיטה training-free. כלומר, לא צריך לאמן מסווג נלווה ולא צריך לשנות את המודל. לפי התקציר, המחקר גם יודע למקם את הטוקן המדויק שבו מתחילה הבעיה בתשובה, בדומה לעבודה של Orgad et al. ‏(2025), אבל עושה זאת רק מתוך ה-logits. זה חשוב במיוחד למי שמריץ מודלים בקנה מידה גדול, כי כל שכבת בקרה נוספת מגדילה latency ועלות חישוב.

אילו מודלים ובדיקות נכללו

על פי הנתונים שפורסמו, השיטה נבחנה על 9 בנצ'מרקים שונים ובכמה משפחות מודלים מרכזיות: LLaMA, Mistral, Gemma וגם Qwen3 עבור פעולות אלגבריות סינתטיות. בנוסף, הממצאים החזיקו גם במודלים pretrained וגם בגרסאות instruction-tuned. זה נתון חשוב, משום שבפועל עסקים אינם עובדים רק עם מודל בסיס אחד. בארגונים ישראליים פוגשים שילוב של OpenAI, Anthropic, Gemini, LLaMA מקומי או Mistral בשרת פרטי, ולעיתים מעבר בין מודלים לפי עלות, פרטיות או דרישות רגולציה. שיטה שמכלילה בין משימות ומודלים שווה יותר מכלי שעובד רק בסביבת ניסוי אחת.

ניתוח מקצועי: למה המדד הזה חשוב יותר ממה שנראה

מניסיון בהטמעה אצל עסקים ישראליים, הבעיה האמיתית אינה רק "האם המודל טועה", אלא האם אפשר לזהות את הטעות מספיק מוקדם כדי לעצור פעולה עסקית. אם סוכן AI כותב תשובה שגויה ב-WhatsApp ללקוח, מסכם שיחה לא נכון ב-Zoho CRM או מפעיל אוטומציה ב-N8N על בסיס מידע לא נכון, הנזק אינו תיאורטי. הוא יכול להפוך לפתיחת קריאת שירות מיותרת, תמחור שגוי או פגיעה באמון. המשמעות האמיתית כאן היא ששיטת Spilled Energy מציעה שכבת ניטור ברמת inference, שעשויה בעתיד לשמש כ"מערכת בלמים" לפני שליחת תשובה החוצה.

במילים פשוטות, במקום לשאול רק "מה המודל ענה", אפשר לשאול "עד כמה תהליך היצירה שלו היה יציב בכל טוקן". זה הבדל משמעותי. היום ארגונים רבים משתמשים ב-RAG, בקרה ידנית, או כללים דטרמיניסטיים כדי לצמצם הלוצינציות. אלו כלים חשובים, אבל הם אינם תמיד מזהים חוסר יציבות פנימית בתוך המודל עצמו. אם המדדים מהמאמר יוכיחו עצמם גם מחוץ לבנצ'מרקים, אפשר לדמיין ארכיטקטורה שבה מנוע תשובות בודק spilled energy, ואם הערך עובר סף מסוים הוא מפנה את הפנייה לאדם, מבקש הבהרה, או מושך נתון ממקור אמין נוסף. עבור מי שבונה סוכני AI לעסקים, זו מחשבה תכנונית חשובה מאוד כבר עכשיו.

ההשלכות לעסקים בישראל

ההשפעה המעשית בישראל בולטת במיוחד בענפים שבהם טעות טקסטואלית הופכת מהר מאוד לטעות עסקית: משרדי עורכי דין, סוכני ביטוח, מרפאות פרטיות, משרדי הנהלת חשבונות, נדל"ן וחנויות אונליין. במשרד עורכי דין, תשובה אוטומטית שמנסחת מועד דיון לא נכון עלולה לגרום לשרשרת תקלות. במרפאה, תשובת WhatsApp שגויה על הכנה לבדיקה עלולה לייצר ביטולים והחזרי תשלום. בחנות אונליין, תשובה לא מדויקת על זמינות מלאי או זמני אספקה מגדילה עומס שירות. לפי נתוני IBM מדוחות קודמים על עלות הפרות ואירועי מידע, טעויות נתונים ואי-דיוקים יכולים להפוך במהירות לבעיה תפעולית ורגולטורית, לא רק חווייתית.

כאן נכנסת הפרספקטיבה הישראלית: עסקים רוצים אוטומציה שמדברת עברית טבעית, שומרת על הקשר מקומי, ומתיישבת עם חוק הגנת הפרטיות ועם נהלי אבטחת מידע פנימיים. בפרויקט טיפוסי אפשר לחבר WhatsApp Business API ל-Zoho CRM דרך N8N, להפעיל סוכן AI שמנסח תשובה, ואז להוסיף שכבת בקרה: אם ערך spilled energy גבוה, המערכת לא שולחת תשובה אוטומטית אלא פותחת משימה לנציג או מבקשת אישור. עלות פיילוט כזה בישראל יכולה לנוע בין כ-₪3,500 ל-₪12,000, תלוי במספר הזרימות, ספק ה-API, ורמת ההתממשקות. מי שמתכנן אוטומציה עסקית צריך להתחיל לחשוב על ניטור אמינות כעל חלק מובנה במערכת, לא כפיצ'ר צדדי.

מה לעשות עכשיו: צעדים מעשיים

  1. בדקו אם ספק ה-LLM שלכם מאפשר גישה ל-logits או לטלמטריה מספקת בזמן inference. בלי זה, קשה ליישם גישה דומה ל-Spilled Energy.
  2. הריצו פיילוט של שבועיים על 100-300 שיחות אמיתיות, ובדקו באילו תשובות יש קורלציה בין חוסר יציבות במודל לבין טעויות שירות, מכירה או תמיכה.
  3. חברו את שכבת הזיהוי לזרימת עבודה ב-N8N או למערכת כמו Zoho CRM, כך שתשובה בסיכון גבוה תועבר לנציג במקום להישלח אוטומטית.
  4. הגדירו ספי פעולה עסקיים: מתי לבקש אישור אנושי, מתי לשלוף מידע מ-RAG, ומתי לחסום שליחה ל-WhatsApp או לדוא"ל. עלויות תוכנה חודשיות לפיילוט כזה עשויות להתחיל בכ-₪500-₪2,000, לפני עבודת אינטגרציה.

מבט קדימה על ניטור אמינות במודלי שפה

ב-12 עד 18 החודשים הקרובים נראה יותר מערכות AI עסקיות שמודדות לא רק latency, token cost ודיוק כללי, אלא גם אמינות בזמן יצירה. המחקר הזה עדיין אקדמי, ולכן צריך זהירות לפני שמסיקים ממנו על כל סביבת ייצור. ובכל זאת, הכיוון ברור: מי שיבנה את שכבת ה-AI שלו סביב AI Agents, WhatsApp Business API, Zoho CRM ו-N8N, ויוסיף מדדי בקרה ברמת inference, יוכל להפעיל אוטומציה בטוחה יותר, מדידה יותר, ואמינה יותר מול לקוחות בעברית.

שאלות ותשובות

שאלות נפוצות

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של arXiv cs.AI. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד מ־arXiv cs.AI

כל הכתבות מ־arXiv cs.AI
ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק
מחקר
לפני 12 שעות
6 דקות
·מ־arXiv cs.AI

ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק

**ספקולטיב דיקודינג במובייל הוא דרך להאיץ הרצת מודלי שפה גדולים על מכשירי קצה באמצעות מודל קטן שמכין טיוטה ומודל גדול שמאמת אותה.** במחקר AHASD שפורסם ב-arXiv החוקרים מדווחים על עד פי 4.2 בתפוקה ופי 5.6 ביעילות אנרגטית לעומת בסיס GPU בלבד, עם תקורת חומרה של פחות מ-3% משטח ה-DRAM. עבור עסקים בישראל, המשמעות היא אפשרות עתידית להעביר חלק ממשימות ה-AI למובייל — למשל סיכום שיחות, סיווג פניות והשלמת טפסים — תוך שילוב עם Zoho CRM, ‏WhatsApp Business API ו-N8N. זה עדיין לא מוצר מדף, אבל הכיוון חשוב מאוד לכל ארגון שבונה תהליכי AI מהירים, חסכוניים ורגישים לפרטיות.

Draft Language ModelTarget Language ModelNPU
קרא עוד
Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים
מחקר
לפני 12 שעות
5 דקות
·מ־arXiv cs.AI

Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים

**Auto-ARGUE הוא כלי להערכת דוחות RAG עם ציטוטים, שנועד לבדוק אם מסמך שנוצר בידי מודל שפה אכן נשען על מקורות נכונים וניתנים לאימות.** לפי התקציר ב-arXiv, החוקרים בחנו אותו על משימות TREC 2024 ומצאו מתאם טוב ברמת המערכת מול שיפוט אנושי. עבור עסקים בישראל, המשמעות ברורה: אם אתם מייצרים סיכומי לידים, תקצירי תיקים, דוחות שירות או מסמכי הנהלה באמצעות מודלי שפה, אתם צריכים שכבת בקרה ולא רק שכבת יצירה. השילוב בין AI Agents,‏ WhatsApp Business API,‏ Zoho CRM ו-N8N יכול לספק תהליך עבודה חזק, אבל בלי מדידת איכות לדוחות עצמם, הסיכון לטעויות עסקיות נשאר גבוה.

TREC 2024NeuCLIRRAG
קרא עוד
אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה
מחקר
לפני 2 ימים
6 דקות
·מ־arXiv cs.AI

אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה

**Likelihood Displacement הוא מצב שבו אימון מודל שפה להעדפות פוגע גם בתשובה הטובה, לא רק בגרועה.** המחקר החדש ב-arXiv מציע מסגרת בשם disentanglement band ושכבת Reward Calibration שמטרתן לשמור על התשובה המועדפת תוך דיכוי התשובה שנדחתה. עבור עסקים בישראל, המשמעות פרקטית מאוד: אם אתם מפעילים סוכן ב-WhatsApp, מחברים אותו ל-Zoho CRM ומנהלים תהליכים דרך N8N, כוונון שגוי עלול לפגוע בשירות, במכירות ובאיכות מיון הלידים. לכן המדד הנכון אינו רק "האם המודל פחות טועה", אלא גם "האם הוא ממשיך לענות היטב במקרים הטובים".

GitHubReward Calibrationdisentanglement band
קרא עוד
גרין פרומפטינג ל-LLM: איך ניסוח השאלה משפיע על עלות
מחקר
לפני 2 ימים
6 דקות
·מ־arXiv cs.AI

גרין פרומפטינג ל-LLM: איך ניסוח השאלה משפיע על עלות

**גרין פרומפטינג הוא שיטה לניסוח פרומפטים שמפחיתה עלות הרצה של מודלי שפה דרך שינוי המשמעות של המשימה, לא רק קיצור הטקסט.** לפי מחקר arXiv חדש, אורך הפרומפט פחות משמעותי מהסמנטיקה שלו, ומילים מסוימות עשויות להעלות או להוריד צריכת אנרגיה. עבור עסקים בישראל, המשמעות מעשית: אם אתם מחברים LLM ל-WhatsApp, ל-Zoho CRM או לזרימות N8N, ניסוח מדויק יותר יכול לשפר זמן תגובה ולצמצם עלויות API וחישוב. המסקנה המרכזית היא שלא כל תהליך צריך תשובה פתוחה; לעיתים סיווג קצר ומובנה ייתן תוצאה עסקית טובה יותר במחיר נמוך יותר.

OpenAIAnthropicGoogle
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
הסייע הרפואי של Google DeepMind: מערכות בינה מלאכותית למרפאות פרטיות בישראל
מחקר
לפני 2 שעות
4 דקות
·מ־DeepMind

הסייע הרפואי של Google DeepMind: מערכות בינה מלאכותית למרפאות פרטיות בישראל

Google DeepMind חשפה את פרויקט "AI co-clinician", סוכן בינה מלאכותית מתקדם המיועד לעבוד בשיתוף פעולה לצד רופאים במרפאות ובסביבות טלמדיסין. בניגוד למערכות המבוססות על טקסט בלבד, המערכת החדשה פועלת על גבי מודלים מולטימודאליים המאפשרים לה לראות, לשמוע ולתקשר עם מטופלים בזמן אמת. במחקרי סימולציה מקיפים שכללו בדיקה של 140 מדדים קליניים, המערכת הציגה ביצועים ברמה המקבילה לרופאי משפחה ב-68 מהמדדים, ואף הצליחה להדריך מטופלים מרחוק בבדיקות פיזיות כמו שימוש נכון במשאף ואיתור פגיעות כתף. בעוד שהטכנולוגיה נמצאת עדיין בשלבי מחקר עולמי, היא מסמנת את הכיוון הברור אליו צועד ענף הרפואה: צמצום העומסים הקריטיים על הצוותים והכפלת יכולות הטיפול באמצעות סייעים דיגיטליים אמינים.

Google DeepMindWorld Health OrganizationMedPaLM
קרא עוד
ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק
מחקר
לפני 12 שעות
6 דקות
·מ־arXiv cs.AI

ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק

**ספקולטיב דיקודינג במובייל הוא דרך להאיץ הרצת מודלי שפה גדולים על מכשירי קצה באמצעות מודל קטן שמכין טיוטה ומודל גדול שמאמת אותה.** במחקר AHASD שפורסם ב-arXiv החוקרים מדווחים על עד פי 4.2 בתפוקה ופי 5.6 ביעילות אנרגטית לעומת בסיס GPU בלבד, עם תקורת חומרה של פחות מ-3% משטח ה-DRAM. עבור עסקים בישראל, המשמעות היא אפשרות עתידית להעביר חלק ממשימות ה-AI למובייל — למשל סיכום שיחות, סיווג פניות והשלמת טפסים — תוך שילוב עם Zoho CRM, ‏WhatsApp Business API ו-N8N. זה עדיין לא מוצר מדף, אבל הכיוון חשוב מאוד לכל ארגון שבונה תהליכי AI מהירים, חסכוניים ורגישים לפרטיות.

Draft Language ModelTarget Language ModelNPU
קרא עוד
Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים
מחקר
לפני 12 שעות
5 דקות
·מ־arXiv cs.AI

Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים

**Auto-ARGUE הוא כלי להערכת דוחות RAG עם ציטוטים, שנועד לבדוק אם מסמך שנוצר בידי מודל שפה אכן נשען על מקורות נכונים וניתנים לאימות.** לפי התקציר ב-arXiv, החוקרים בחנו אותו על משימות TREC 2024 ומצאו מתאם טוב ברמת המערכת מול שיפוט אנושי. עבור עסקים בישראל, המשמעות ברורה: אם אתם מייצרים סיכומי לידים, תקצירי תיקים, דוחות שירות או מסמכי הנהלה באמצעות מודלי שפה, אתם צריכים שכבת בקרה ולא רק שכבת יצירה. השילוב בין AI Agents,‏ WhatsApp Business API,‏ Zoho CRM ו-N8N יכול לספק תהליך עבודה חזק, אבל בלי מדידת איכות לדוחות עצמם, הסיכון לטעויות עסקיות נשאר גבוה.

TREC 2024NeuCLIRRAG
קרא עוד
אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה
מחקר
לפני 2 ימים
6 דקות
·מ־arXiv cs.AI

אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה

**Likelihood Displacement הוא מצב שבו אימון מודל שפה להעדפות פוגע גם בתשובה הטובה, לא רק בגרועה.** המחקר החדש ב-arXiv מציע מסגרת בשם disentanglement band ושכבת Reward Calibration שמטרתן לשמור על התשובה המועדפת תוך דיכוי התשובה שנדחתה. עבור עסקים בישראל, המשמעות פרקטית מאוד: אם אתם מפעילים סוכן ב-WhatsApp, מחברים אותו ל-Zoho CRM ומנהלים תהליכים דרך N8N, כוונון שגוי עלול לפגוע בשירות, במכירות ובאיכות מיון הלידים. לכן המדד הנכון אינו רק "האם המודל פחות טועה", אלא גם "האם הוא ממשיך לענות היטב במקרים הטובים".

GitHubReward Calibrationdisentanglement band
קרא עוד