בחירת מטרות של מודלי שפה: למה GPT ו-Claude לא חושבים כמו אנשים
**בחירת מטרות על ידי מודל שפה אינה שקולה לשיקול דעת אנושי.** מחקר חדש ב-arXiv מצא כי GPT-5, Gemini 2.5 Pro, Claude Sonnet 4.5 ו-Centaur סטו באופן משמעותי מהדרך שבה בני אדם בוחרים מטרות במשימת למידה פתוחה. לפי הדיווח, בני אדם חקרו בהדרגה והפגינו שונות, בעוד שמודלים רבים נצמדו לפתרון יחיד או הציגו ביצועים חלשים. עבור עסקים בישראל, המשמעות ברורה: אפשר להשתמש ב-AI כדי להציע אפשרויות, לדרג פניות ולבצע פעולות דרך WhatsApp, CRM ו-N8N — אבל לא כדאי למסור לו לבדו החלטות על תיעדוף, הקצאת משאבים או שינוי מטרה עסקית. המודל צריך לפעול בתוך מסגרת בקרה אנושית.
קרא עוד