ORBITFLOW: שירות LLM ארוך-הקשר עם ניהול KV חכם
מחקר

ORBITFLOW: שירות LLM ארוך-הקשר עם ניהול KV חכם

מערכת חדשה פותרת בעיות זיכרון ומשפרת ביצועים ב-66% בעמידה ביעדי SLO

2 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • ORBITFLOW מנהלת מטמוני KV דינמית עם ILP solver.

  • שיפור עמידה ב-SLO ב-66% ל-TPOT ו-48% ל-TBT.

  • הפחתת זמן תגובה 95% ב-38% ותפוקה פי 3.3.

  • דחיית בקשות גדולות תחת עומס להגנה על SLO.

ORBITFLOW: שירות LLM ארוך-הקשר עם ניהול KV חכם

  • ORBITFLOW מנהלת מטמוני KV דינמית עם ILP solver.
  • שיפור עמידה ב-SLO ב-66% ל-TPOT ו-48% ל-TBT.
  • הפחתת זמן תגובה 95% ב-38% ותפוקה פי 3.3.
  • דחיית בקשות גדולות תחת עומס להגנה על SLO.
בעידן שבו מודלי שפה גדולים (LLM) מטפלים בהקשרים ארוכים ומשתנים, אתגר ניהול הזיכרון הופך למכשול מרכזי. אורכי הבקשות והרכב האצווה משתנים במהלך יצירת הטוקנים, מה שגורם לתנודות דרמטיות בכמות הזיכרון הנדרשת בזמן אמת. העברת מטמוני KV לזיכרון המארח מגבילה שימוש יעיל, אך אסטרטגיות קבועות מראש אינן מתאימות לשינויים המהירים, ומובילות להעברות תכופות מ-CPU ל-GPU שגורמות לעיכובים ולחריגות מיעדי SLO. כדי להתגבר על כך, מציגים החוקרים את ORBITFLOW – מערכת ניהול מטמוני KV דקה-גרגירית ואדפטיבית שמבטיחה עמידה ביעדי זמן תגובה בשרות LLM ארוכי-הקשר. ORBITFLOW משתמשת בפתרון ILP קל משקל כדי לקבוע אילו שכבות של מטמוני KV ישמרו על ה-GPU עבור כל בקשה, תוך כיבוד מגבלות זיכרון. המערכת מעדכנת באופן רציף את מיקומי ה-KV בהתבסס על משוב בזמן אמת, כאשר התוכנית הנוכחית הופכת לא אופטימלית במהלך יצירת הטוקנים. תחת עומס כבד, ORBITFLOW מפעילה מנגנון חירום שדוחה זמנית בקשות גדולות, ומבטיחה שמירה על עמידה כללית ב-SLO. גישה זו מאפשרת התאמה דינמית לצרכים משתנים. בניסויים, ORBITFLOW שיפרה את העמידה ביעדי SLO עבור TPOT ו-TBT ב-66% ו-48% בהתאמה, כפי שמדווחים החוקרים. היא גם הפחיתה את זמן התגובה הפרצנטילי 95 ב-38%, והגבירה את התפוקה פי 3.3 בהשוואה לשיטות העברה קיימות. תוצאות אלה מדגימות יתרון משמעותי בשרות תחת עומס גבוה. משמעות ORBITFLOW היא בשיפור יעילות שרתים למודלים ארוכי-הקשר, מה שחשוב לספקי שירותי ענן ולחברות AI. בהשוואה לאסטרטגיות סטטיות, היא מפחיתה העברות מיותרות ומשפרת חוויית משתמש. בישראל, שבה חברות כמו Mobileye ו-Wiz משקיעות ב-AI, טכנולוגיה כזו יכולה להאיץ פיתוח יישומים מקומיים. עבור מנהלי עסקים, ORBITFLOW מצביעה על מגמה של ניהול זיכרון חכם יותר, שיאפשר שירות LLM יציב יותר בקנה מידה גדול. כיצד זה ישפיע על עלויות התשתית שלכם?

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות
PatientVLM פוגש DocVLM: דיאלוג AI לאבחון רפואי יעיל
מחקר
2 דקות

PatientVLM פוגש DocVLM: דיאלוג AI לאבחון רפואי יעיל

בעידן שבו אבחון רפואי באמצעות AI מתבסס בעיקר על ניתוח תמונות, חסרה עדיין התייחסות לתסמינים שמספקים המטופלים. חוקרים מציגים מסגרת PCDF שמדמה דיאלוג בין DocVLM ל-PatientVLM ומשפרת דיוק. קראו עכשיו על הפריצה הזו!

DocVLMPatientVLMPCDF
קרא עוד
Medical SAM3: מודל בסיסי חדש לסגמנטציה מבוססת פרומפטים בהדמיה רפואית
מחקר
2 דקות

Medical SAM3: מודל בסיסי חדש לסגמנטציה מבוססת פרומפטים בהדמיה רפואית

בעולם הרפואה הדיגיטלית, Medical SAM3 פותר אתגרי סגמנטציה בהדמיה רפואית עם כוונון מלא על 33 מערכי נתונים. שיפורים משמעותיים במקרים מורכבים. קראו עכשיו על המודל שמשנה את כללי המשחק.

Medical SAM3SAM3AIM-Research-Lab
קרא עוד