חשיפת מיילים סודיים ל‑Copilot Chat ב‑Office: מה קרה ולמה זה חשוב לעסקים בישראל
ANSWER ZONE (MANDATORY - first 40-60 words): באג ב‑Microsoft 365 Office הוא תקלה שמאפשרת ל‑Copilot Chat לעבד ולסכם תוכן של הודעות אימייל מסומנות כ‑Confidential, גם כשארגון הגדיר מדיניות DLP שאמורה למנוע זאת. לפי הדיווח, התקלה פעלה במשך שבועות מאז ינואר 2026, ומיקרוסופט החלה להפיץ תיקון בתחילת פברואר.
הסיפור הזה חשוב לא בגלל עוד “באג”, אלא בגלל שינוי תפעולי: ברגע שמכניסים כלי שיחה מבוסס מודל שפה לתוך Word/Excel/Outlook, אתם למעשה נותנים לו נתיב גישה לתוכן ארגוני. לפי TechCrunch, הבעיה אפשרה ל‑Copilot Chat לסכם גם מיילים בטיוטה וגם מיילים שנשלחו עם תווית סודיות. המשמעות המעשית: מנגנון שהנהלות אבטחת מידע סומכות עליו (תוויות סודיות + DLP) לא בלם את העיבוד האוטומטי.
מה זה DLP ותוויות Confidential במיקרוסופט 365? (DEFINITION - MANDATORY)
DLP (Data Loss Prevention) במיקרוסופט 365 הוא מנגנון מדיניות שמטרתו לצמצם דליפת מידע, למשל מניעת שיתוף או עיבוד של מסמכים/מיילים שמכילים נתונים רגישים. בהקשר עסקי, ארגונים מסמנים אימיילים ומסמכים בתוויות כמו “Confidential” כדי להחיל אוטומטית הגבלות: מי יכול לגשת, איך ניתן לשתף, ומה מותר לכלים כמו Copilot לעשות. לפי הדיווח, הבאג עקף את הכוונה הזו בפועל במשך שבועות — בדיוק במקומות שבהם צוותי IT מצפים להגנה קשיחה.
הבאג ב‑Copilot Chat: מה בדיוק דווח ומה מיקרוסופט אישרה
לפי TechCrunch והדיווח המקורי של Bleeping Computer, מיקרוסופט אישרה שבאג אפשר ל‑Copilot Chat לקרוא, לעבד ולסכם תוכן של אימיילים חסויים של לקוחות משלמים של Microsoft 365 — ללא הרשאה, ולמרות הגדרות DLP שנועדו למנוע “בליעה” של מידע רגיש לתוך מודל השפה. מיקרוסופט ציינה שמנהלי מערכת יכולים לאתר את האירוע דרך מזהה CW1226324, ושמיילים בטיוטה ומיילים שנשלחו עם תווית “confidential” עובדו בצורה שגויה.
לפי החברה, היא החלה “להפיץ תיקון” מוקדם יותר בפברואר. עם זאת, לפי TechCrunch, דובר מיקרוסופט לא השיב לשאלות — כולל כמה לקוחות הושפעו. נקודה זו קריטית לניהול סיכונים: בלי מספרים, קשה לארגונים בישראל להעריך אם מדובר באירוע קצה או בתקלה רוחבית. ולכן ההמלצה היא להתייחס לזה כאל תרחיש שדורש בדיקה פנימית, לא כאל “חדשות חולפות”.
ההקשר הרחב: למה ארגונים חוסמים פיצ’רי AI מובנים
הדיווח מציין שגם גופים ציבוריים נוקטים קו קשוח: מוקדם יותר השבוע, מחלקת ה‑IT של הפרלמנט האירופי הודיעה למחוקקים שחסמה פיצ’רי AI מובנים במכשירי העבודה, מחשש שכלים כאלה יעלו תכתובות חסויות לענן. זה מתחבר למגמה רחבה של “AI Governance”: ארגונים דורשים לראות מפת נתיבים (data flows) לפני שמאפשרים לכלי AI גישה לאימיילים, SharePoint ו‑OneDrive. לפי Gartner, ניהול סיכוני AI וממשל נתונים הופכים לדרישה מרכזית בפרויקטי AI ארגוניים (במיוחד סביב מידע אישי וידע מסחרי).
ניתוח מקצועי: איפה ארגונים מפספסים כשמכניסים Copilot לאימייל
מנקודת מבט של יישום בשטח, המשמעות האמיתית כאן היא שהבקרה שלכם לא יכולה להישען רק על “הגדרנו תוויות וזהו”. תוויות סודיות ו‑DLP הן שכבה, אבל כלי AI משולב (כמו Copilot Chat) יושב על הרשאות, מחברים (connectors) ומודלי גישה שמתעדכנים תדיר. באירועים כאלה, אפילו אם מיקרוסופט לא “מאמנת” את המודל על המידע של הלקוח (נושא שתלוי ברישוי/תצורה), עצם העיבוד והסיכום של מייל חסוי הוא הפרת ציפייה ארגונית וחשיפה תפעולית.
במילים פשוטות: אם Copilot יכול לסכם מייל “Confidential”, אז עובד יכול לשאול אותו “סכם לי את ההתכתבות עם לקוח X” ולקבל תקציר שאסור היה להופיע בכלל. זה מגדיל סיכון לטעויות אנוש (הדבקה לא נכונה של סיכום לוואטסאפ, שליחה לכתובת שגויה, או שימוש בתקציר בפגישה). לכן ארגונים צריכים לבנות בקרות גם ברמת השימוש: מדיניות, הרשאות, לוגים ובדיקות תקופתיות.
ההשלכות לעסקים בישראל: עורכי דין, ביטוח, נדל"ן, מרפאות ו‑eCommerce
לעסקים ישראלים יש רגישויות ייחודיות: הרבה מהתקשורת הקריטית מתנהלת באימייל ואז “נשפכת” לוואטסאפ, ויחד עם זאת חלים עליכם חובות לפי חוק הגנת הפרטיות ותקנות אבטחת מידע (במיוחד אם אתם מחזיקים מאגר מידע). משרדי עורכי דין, סוכנויות ביטוח, חברות נדל"ן ומרפאות פרטיות מחזיקים מידע אישי ועסקי רגיש: תיקים משפטיים, פוליסות, מסמכים רפואיים, דוחות שמאות וחוזים. באג שמאפשר עיבוד שגוי של מיילים מסומנים כסודיים מעלה חשש שתקצירי AI “יסתובבו” בתוך הארגון גם כשלא התכוונתם.
כאן נכנסת גם שכבת התפעול: בהרבה SMBs בישראל אין CISO במשרה מלאה, אבל יש Microsoft 365, יש Outlook, ויש לחץ “להפעיל Copilot כי כולם עובדים ככה”. פרקטית, אם אתם מפעילים תהליכים סביב WhatsApp Business API, Zoho CRM ו‑N8N — למשל קליטת פנייה מלקוח בוואטסאפ, פתיחת ליד ב‑Zoho, ושליחת סיכום לאיש מכירות — אתם חייבים לוודא שהמידע שמוזרם הוא “מותר לשימוש” ולא תקציר שמקורו במייל חסוי. לכן, לפני שמחברים AI לתהליכי שירות/מכירות, מומלץ לבצע מיפוי שדות ותוכן, ולהגדיר אילו תוויות/קטגוריות מידע נחסמות אוטומטית בזרימות N8N.
(לקריאה נוספת על תכנון תהליכים מבוססי AI בארגון: ייעוץ AI ; ולחיבור מערכות ותזמור תהליכים: פתרונות אוטומציה).
מה לעשות עכשיו: צעדים מעשיים לצמצום סיכון ב‑Microsoft 365 + Copilot
- בדקו ב‑Microsoft 365 Admin Center אם מופיעים אירועים/התראות שקשורים ל‑CW1226324, והצליבו מול משתמשים וקבוצות עם גישה ל‑Copilot Chat.
- הגדירו פיילוט מוגבל: התחילו עם 10–20 משתמשים, בלי גישה לתיבות משותפות, ועם מדיניות תוויות מחמירה למיילים של “לקוחות/חוזים/בריאות”.
- הפעילו לוגים ובקרה: ודאו שיש לכם ביקורת גישה (audit logs) ושאתם יודעים מי ביקש סיכומים של תוכן אימייל, ומתי.
- אם אתם מסנכרנים מיילים ל‑CRM (Zoho CRM / HubSpot / Monday) דרך N8N, הוסיפו שלב סינון: מיילים עם תווית Confidential לא עוברים עיבוד/סיכום — רק רישום מטא־דאטה (שולח/נושא/תאריך).
מבט קדימה: בינה מלאכותית “מוטמעת” תדרוש ממשל, לא רק רישוי
ב‑12–18 החודשים הקרובים, יותר כלי AI יהפכו לברירת מחדל בתוך Microsoft 365, Google Workspace ו‑CRMים כמו Salesforce. לכן השאלה האמיתית לעסקים בישראל היא לא “האם להפעיל Copilot”, אלא “איזו שכבת ממשל נתונים יש לנו סביבו”. המנצחים יהיו מי שיבנו סטאק שמחבר AI Agents, WhatsApp Business API, Zoho CRM ו‑N8N — אבל עם תוויות, הרשאות ובקרות שמונעות מהמידע הלא נכון להיכנס לזרימה מלכתחילה.