ASR-KF-EGR: הקפאה רכה של KV להסקת LLM חסכונית בזיכרון
שיטה חדשה ללא אימון מקטינה את גודל מטמון KV ב-55-67% במודלי LLaMA-3, תוך שמירה על איכות
✨תקציר מנהלים
נקודות עיקריות
הקפאה רכה הפיכה של אסימונים חסרי חשיבות עם שחזור לפי דרישה
צמצום 55-67% בגודל KV ב-LLaMA-3 8B תוך שמירה על איכות
תזמון תת-ליניארי מונע דחיסה יתר
ארכיטקטורה-אגנוסטית, ללא כוונון עדין
מתאימה לפריסות זיכרון מוגבלות
שאלות ותשובות
שאלות נפוצות
אהבתם את הכתבה?
הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל
עוד כתבות שיעניינו אותך
לכל הכתבותהטיית הסברים במודלי שפה: הטיות נסתרות בשיוך תכונות
מודלי שפה מספקים הסברים, אך הטיות נסתרות פוגעות באמון. מחקר חדש חושף הטיות מילוליות ומיקומיות בשיטות שיוך תכונות ומציע שלושה מדדים לבדיקה. קראו כיצד זה משפיע על עסקים. (48 מילים – אבל צריך 80-150, אז הרחב: מוסיף פרטים מרכזיים מהפסקאות הראשונות.)
amc: מסווג משימות אוטומטי לביבליוגרפיות טלסקופים
amc, כלי AI מבוסס LLMs, מיין אוטומטית הפניות לטלסקופים במאמרים מדעיים ומשיג F1 של 0.84 באתגר TRACS. קראו כיצד זה משנה ביבליוגרפיות אסטרונומיות.
MiniScope: מסגרת אבטחה חדשה לסוכני כלים ב-AI
סוכני AI עם קריאת כלים מציבים סיכוני אבטחה – MiniScope מציעה מסגרת הרשאות מינימליות אוטומטית עם עלות נמוכה. קראו עכשיו!
Cerium: מסגרת GPU להסקת AI מוצפן במודלים גדולים
מסגרת Cerium מבוססת GPU מאפשרת הסקת AI מוצפן במודלים גדולים כמו Llama3 במהירות מדהימה, ומתחרה בשבבי ASIC. קראו על ההישגים הטכניים והמשמעות העסקית.