ChatGPT וג'מיני נכשלו במבחן CSAT הקוריאני
מחקר

ChatGPT וג'מיני נכשלו במבחן CSAT הקוריאני

מחקר חושף חולשות חשיבה מדעית רב-מודלית במודלים המובילים: טעויות תפיסה וחישובים ללא הבנה

AI
אוטומציות AI
3 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • מודלים כמו GPT-4o וג'מיני נכשלו בחשיבה מדעית רב-מודלית במבחן CSAT הקוריאני.

  • קלטים לא מובנים גרמו לירידת ביצועים בגלל כשלי OCR ופיצול.

  • טעויות מרכזיות: פער תפיסה-הבנה, חישוב ללא קונספטים והלוצינציה תהליכית.

  • המלצות: שאלות עמידות ל-AI לשמירה על הוגנות במבחנים.

בעידן שבו תלמידים משתמשים נרחב בכלי AI כמו ChatGPT להכנת מטלות ומבחנים, גוברת החרדה מפגיעה בשלמות אקדמית. מחקר חדש בדק את יכולות החשיבה המדעית הרב-מודליות של מודלי שפה גדולים מובילים, כולל GPT-4o, Gemini 2.5 Flash ו-Gemini 2.5 Pro, באמצעות מבחן מדעי כדור הארץ I ממבחן הכניסה לאוניברסיטאות הקוריאני (CSAT) לשנת 2025. התוצאות חושפות מגבלות יסודיות שמאתגרות את השימוש ב-AI בהערכה חינוכית. החוקרים עיצבו שלושה תנאי ניסוי: קלט דף מלא, קלט פריט בודד וקלט רב-מודלי מותאם. תוצאות כמותיות הראו ירידה דרמטית בביצועים עם קלטים לא מובנים, בעיקר בגלל כשלים בזיהוי תווים אופטי (OCR) ובפיצול. אפילו בתנאים מותאמים, המודלים נכשלו במשימות חשיבה מורכבות. לפי הדיווח, המודלים הצליחו בחלק מהחישובים, אך נכשלו בהפעלת מושגים מדעיים בסיסיים. ניתוח איכותי גילה דפוסי כשל מרכזיים: 'טעויות תפיסה' ששלטו, ה'פער תפיסה-הבנה' שבו המודלים זיהו אלמנטים ויזואליים אך לא פיענחו משמעויות סמליות בדיאגרמות, 'אי-התאמה חישוב-הבנה קונספטואלית' ו'הלוצינציה תהליכית' שבה המודלים דילגו על בדיקה ויזואלית והסתמכו על ידע רקע מוטעה אך סביר לכאורה. ממצאים אלה מדגישים את הצורך בשאלות 'עמידות ל-AI' שמנצלות חולשות אלה, כמו פער בין תפיסה להבנה, כדי להבדיל בין תגובות תלמידים אמיתיות לבין כאלה שיוצר AI. בישראל, שבה מערכת החינוך מתמודדת עם אתגרים דומים במבחני בגרות ומבחנים ממוחשבים, המחקר מציע כלים מעשיים למרצים ולמפתחי מבחנים לשמור על הוגנות. הלקח המרכזי: למרות התקדמות מהירה, AI עדיין רחוק מחשיבה אנושית אמיתית במדעים. מוסדות חינוך צריכים לאמץ אסטרטגיות חדשות להערכה, כמו שילוב אלמנטים ויזואליים מורכבים ותהליכים לוגיים עמוקים. מה תהיה ההשפעה על מבחני הבגרות בישראל?

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

עוד כתבות שיעניינו אותך

לכל הכתבות
CODE ACROSTIC: תיוג מים עמיד לקוד AI
מחקר
2 דקות

CODE ACROSTIC: תיוג מים עמיד לקוד AI

מודלי שפה גדולים מייצרים קוד, אך שיטות תיוג מים קיימות נכשלות מול הסרת הערות. CODE ACROSTIC משנה את חוקי המשחק עם Cue List חכמה. קראו עכשיו על הפתרון העמיד ביותר. (112 מילים)

CODE ACROSTICHumanEval
קרא עוד