בעידן שבו בינה מלאכותית משנה את עולם הרפואה, משרד הבריאות והשירותים האנושיים האמריקאי (HHS) מפתח כלי AI גנרטיבי חדשני. הכלי ינתח נתונים ממאגר VAERS הלאומי, יזהה דפוסים בדיווחי תופעות לוואי מחיסונים וייצר השערות על השפעות שליליות. הדיווח מגיע מרשימת שימושי AI שפרסם HHS לשנת 2025, והכלי בפיתוח מאז סוף 2023 אך טרם הושק.
הכלי החדש מעורר דאגה בקרב מומחים, שחוששים כי שר ה-HHS, רוברט פ. קנדי ג'וניור, ינצל אותו לקידום סדר יום אנטי-חיסונים. קנדי, מבקר ותיק של חיסונים, שינה בשנה שלו בתפקיד את לוח הזמנים לחיסוני ילדים. הוא הסיר חיסונים נגד קורונה, שפעת, הפטיטיס A ו-B, מחלת מנינגוקוקלית, רוטה-וירוס ו-RSV מרשימת ההמלצות לכלל הילדים. בנוסף, הוא דורש שינויים במערכת VAERS ובתוכנית הפיצויים הפדרלית לפגיעות מחיסונים.
VAERS, מערכת משותפת ל-CDC ו-FDA שהוקמה ב-1990, מאפשרת לכל אחד – רופאים ואזרחים – לדווח על תופעות לוואי. הדיווחים אינם מאומתים, ולכן הנתונים משמשים רק לייצור השערות ראשוניות. פול אופיט, רופא ילדים ומנהל מרכז חינוך חיסונים בבית חולים לילדים פילדלפיה, מדגיש: "VAERS היא מערכת רועשת. כל אחד יכול לדווח, ללא קבוצת ביקורת". אתר ה-CDC מציין כי דיווח אינו מעיד על קשר סיבתי.
למרות זאת, פעילי אנטי-חיסונים משתמשים בנתוני VAERS כדי לטעון לחוסר בטיחות. לסלי לנרט, לשעבר מנהל מרכז ה-CDC למידע בריאות הציבור, מציין כי מדעני ממשלה משתמשים כבר שנים במודלי עיבוד שפה טבעית לזיהוי דפוסים ב-VAERS. שדרוג למודלי שפה גדולים (LLMs) צפוי, אך חסרון מרכזי הוא היעדר נתוני חיסונים מנוהלים, מה שמגזים בתדירות אירועים. לנרט ממליץ לשלב נתונים ממקורות נוספים.
מודלי LLM ידועים בהזיות משכנעות, ולכן דרוש פיקוח אנושי על ההשערות. לנרט, כיום מנהל מרכז AI ברפואה באוניברסיטת ראטגרס, מזהיר כי FDA מתייחסת ל-VAERS כמעבר מחקר ראשוני. ויניי פרסאד, מנהל מרכז FDA לביולוגיקה, הציע בהודעה פנימית הרחבת רגולציה על חיסונים, וטען למות ילדים מקורונה ללא ראיות – דיווחי VAERS ש-FDA בדקה.
יותר מעשרה יושבי ראש לשעבר ב-FDA פרסמו מכתב ב-New England Journal of Medicine נגד ההצעות, וטענו לשינוי רגולציה על סמך ראיות סלקטיביות. ג'סי גודמן, רופא מחלות זיהומיות בג'ורג'טאון, רואה פוטנציאל ב-LLMs לזיהוי בעיות בטיחות חדשות, אך מדגיש צורך בחקירה מעמיקה בשל נתונים לא מדויקים. בעבר, VAERS זיהתה קרישיות נדירה בחיסון J&J ומקרדיטיס ב-mRNA.
השימוש בכלי AI זה מעלה שאלות על השפעתו על מדיניות בריאות גלובלית, כולל בישראל שמשלבת AI במערכות בריאות. מנהלי עסקים בתחום מדיקל צריכים לשקול סיכונים פוליטיים בשילוב AI בנתוני בריאות ציבורית, ולוודא אימות נתונים. קיצוצי כוח אדם ב-CDC מחייבים תכנון לטיפול בהתראות שווא.
האם כלי AI כזה יחזק אמון ציבורי או יערער אותו? עתיד שימושי AI בבריאות תלוי בפיקוח אתי ומדעי קפדני.