מחקר
6 דקות
מ־arXiv cs.AI
פגיעות פרטיות ב-VLM מקומי: למה גם עיבוד על המכשיר לא מספיק
**מודל Vision-Language מקומי אינו מבטיח פרטיות מלאה.** מחקר חדש על LLaVA-NeXT ו-Qwen2-VL מראה כי גם בלי גישה לקבצים עצמם, אפשר להסיק מתזמון עיבוד ומעומס מטמון אם המערכת טיפלה במסמך, צילום רפואי או תוכן חזותי צפוף אחר. עבור עסקים בישראל, המשמעות ברורה: הרצה על המכשיר מפחיתה סיכוני ענן, אבל מחייבת בדיקת ערוצי צד, הרשאות תחנה, לוגים וחיבורי API. ארגונים שמחברים VLM מקומי ל-Zoho CRM, ל-WhatsApp Business API או לזרימות N8N צריכים לבחון לא רק איפה הנתון נשמר, אלא גם אילו אותות טכניים נפלטים בזמן העיבוד.
קרא עוד