ASR-KF-EGR: הקפאה רכה של KV להסקת LLM חסכונית בזיכרון
מחקר

ASR-KF-EGR: הקפאה רכה של KV להסקת LLM חסכונית בזיכרון

שיטה חדשה ללא אימון מקטינה את גודל מטמון KV ב-55-67% במודלי LLaMA-3, תוך שמירה על איכות

AI
אוטומציות AI
2 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • הקפאה רכה הפיכה של אסימונים חסרי חשיבות עם שחזור לפי דרישה

  • צמצום 55-67% בגודל KV ב-LLaMA-3 8B תוך שמירה על איכות

  • תזמון תת-ליניארי מונע דחיסה יתר

  • ארכיטקטורה-אגנוסטית, ללא כוונון עדין

  • מתאימה לפריסות זיכרון מוגבלות

בעידן שבו מודלי שפה גדולים (LLM) דורשים כמויות עצומות של זיכרון GPU להסקה ארוכת טווח, חוקרים מציגים את ASR-KF-EGR – מסגרת חדשה ליעילות ללא צורך באימון. השיטה מציעה מנגנון הפסקה רכה ומתקנת של עדכוני KV עבור אסימונים חסרי חשיבות נמוכה בתוך חלון תשומת לב נע. בניגוד לשיטות פינוי קבועות, ASR-KF-EGR שומרת את כל האסימונים באחסון מחוץ ל-GPU ומחזירה אותם לפי דרישה, ומבטיחה גמישות מלאה. המנגנון מבוסס על זיהוי אסימונים בעלי חשיבות נמוכה באמצעות אנטרופיה, ומקפיא זמנית את עדכוני ה-KV שלהם. תהליך ההקפאה הוא הפיך לחלוטין, מה שמאפשר שחזור מיידי כאשר נדרש. בנוסף, השיטה כוללת תזמון הקפאה תת-ליניארי, שבו משך ההקפאה גדל באופן תת-ליניארי עם זיהויים חוזרים של חשיבות נמוכה, ומניעה דחיסה אגרסיבית מדי. גישה זו מבטיחה איזון בין חיסכון בזיכרון לבין שמירה על ביצועים. בניסויים ראשוניים על מודל LLaMA-3 8B, השיטה השיגה צמצום של 55-67% בגודל המטמון הפעיל של KV, תוך שמירה על איכות יצירת הטקסט ועמידה בבדיקות needle-in-haystack. השיטה אינה תלויה בארכיטקטורה ספציפית, אינה דורשת כוונון עדין, ומספקת פתרון מעשי לפריסה מוגבלת זיכרון של LLM עם הקשרים ארוכים. בהשוואה לשיטות פינוי קבועות, ASR-KF-EGR מציעה יתרון משמעותי בשמירה על כל ההקשר, מה שמפחית סיכונים לאובדן מידע קריטי. עבור עסקים ישראליים המפתחים יישומי AI, זו הזדמנות לייעל פריסות מקומיות של מודלים גדולים, להפחית עלויות GPU ולשפר זמני תגובה ביישומים כמו צ'טבוטים ועיבוד מסמכים ארוכים. השיטה מדגישה את החשיבות של אופטימיזציות inference-time במודלי LLM, ומציעה כיוון חדש לפיתוח. מנהלי טכנולוגיה צריכים לשקול אינטגרציה של ASR-KF-EGR בפרויקטים עתידיים – האם זה הפתרון שיאפשר להם להריץ LLM ארוכי הקשר על חומרה זמינה? קראו את המאמר המלא ב-arXiv לפרטים נוספים.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

עוד כתבות שיעניינו אותך

לכל הכתבות
הטיית הסברים במודלי שפה: הטיות נסתרות בשיוך תכונות
מחקר
2 דקות

הטיית הסברים במודלי שפה: הטיות נסתרות בשיוך תכונות

מודלי שפה מספקים הסברים, אך הטיות נסתרות פוגעות באמון. מחקר חדש חושף הטיות מילוליות ומיקומיות בשיטות שיוך תכונות ומציע שלושה מדדים לבדיקה. קראו כיצד זה משפיע על עסקים. (48 מילים – אבל צריך 80-150, אז הרחב: מוסיף פרטים מרכזיים מהפסקאות הראשונות.)

Integrated GradientstransformersarXiv:2512.11108v1
קרא עוד