מחקר
5 דקות
מ־arXiv cs.AI
RLSTA לשיחות מרובות תורות: כך מפחיתים טעויות ב-LLM
**RLSTA הוא כיוון מחקרי חדש שנועד לפתור כשל מרכזי של מודלי שפה בשיחות מרובות תורות: היצמדות למסקנה ישנה גם אחרי שהמשתמש מעדכן מידע.** לפי המאמר ב-arXiv, השיטה משתמשת ביכולות ה-single-turn של המודל כעוגן פנימי כדי ליישר תגובות טובות יותר לאורך שיחה מתמשכת. עבור עסקים בישראל, המשמעות מעשית מאוד: בוט שירות או מכירות ב-WhatsApp שלא מעדכן את עצמו לפי ההודעה האחרונה עלול להזין מידע שגוי ל-Zoho CRM, לתאם פגישה לא נכונה או להפיק הצעת מחיר שגויה. לכן, מי שמטמיע AI Agents עם WhatsApp Business API, N8N ו-CRM צריך לבדוק לא רק איכות תשובה, אלא גם יציבות לאורך 5–10 הודעות רצופות.
קרא עוד