Cerium: מסגרת GPU להסקת AI מוצפן במודלים גדולים
חוקרים פיתחו פתרון מבוסס NVIDIA שמאיץ FHE ומתחרה בשבבי ASIC יקרים, עם תמיכה ב-Llama3 וב-BERT
✨תקציר מנהלים
נקודות עיקריות
Cerium מנצלת GPUs להסקת FHE במודלים גדולים כמו Llama3-8B ו-BERT.
ביצועים: 2.25x מהיר יותר מספריות ידניות, 7.5 מ"ש ל-bootstrapping.
תומכת בסקאלה טרה-בייט ומפזרת על רב-GPU.
מתחרה בשבבי ASIC יקרים, הופכת FHE לנגיש.
משמעות: AI מאובטח לעסקים בפרטיות מלאה.
Cerium: מסגרת GPU להסקת AI מוצפן במודלים גדולים
- Cerium מנצלת GPUs להסקת FHE במודלים גדולים כמו Llama3-8B ו-BERT.
- ביצועים: 2.25x מהיר יותר מספריות ידניות, 7.5 מ"ש ל-bootstrapping.
- תומכת בסקאלה טרה-בייט ומפזרת על רב-GPU.
- מתחרה בשבבי ASIC יקרים, הופכת FHE לנגיש.
- משמעות: AI מאובטח לעסקים בפרטיות מלאה.
שאלות ותשובות
שאלות נפוצות
אהבתם את הכתבה?
הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל
עוד כתבות שיעניינו אותך
לכל הכתבותAutoRefine: שיפור סוכני LLM מתמשך מניסיון
בעולם שבו סוכני דגמי שפה גדולים נתקלים במשימות חדשות ללא למידה מניסיון, AutoRefine משנה את חוקי המשחק עם חילוץ דפוסי ניסיון דואליים ותחזוקה רציפה. תוצאות: 98.4% ב-ALFWorld ועד 27.1% ב-TravelPlanner. קראו עכשיו!
CVeDRL: מאמת קוד יעיל בלמידת חיזוק מודע לקושי
CVeDRL מציג מאמת קוד מבוסס RL שמשפר ביצועים ב-29% מעל GPT-3.5 עם מהירות פי 20. קראו על השיטה החדשנית שפותרת בעיות אימות בקוד LLM. קראו עכשיו!
יחס חשיבות מקדים: יציבות באופטימיזציה של LLMs
מודלי שפה גדולים זקוקים ליציבות באימון RL מחוץ-מדיניות. חוקרים מציגים MinPRO, שיטה חדשה המבוססת על יחס חשיבות מקדים, שמשפרת יציבות וביצועים. קראו עכשיו!
G-PAC: ערבות ביצועים מותנות למודלי היגיון AI
בעידן שבו מודלי בינה מלאכותית גדולים להיגיון מציגים ביצועים מרשימים באמצעות שרשרת מחשבות ארוכה, העלות החישובית שלהם נותרת גבוהה במיוחד. מחקר חדש מציג G-PAC – מסגרת שמשפרת יעילות עם ערבויות קבוצתיות. קראו עכשיו על החידוש שחוסך עלויות!