פרטיות ב־AI: כספת בבניין פרוץ?
רשות הגנת הפרטיות מחייבת ארגונים לשלב טכנולוגיות PET, אך מומחי TrendAI מזהירים כי ללא תשתית חסינה, מודלי ה־AI נותרים חשופים להתקפות סייבר איראניות ולהרעלת נתונים מסוכנת
הנחיות חדשות שפרסמה רשות הגנת הפרטיות בדצמבר האחרון מחייבות ארגונים המשתמשים בבינה מלאכותית לאמץ טכנולוגיות להגנה על פרטיות, הידועות בשם PET (Privacy Enhancing Technologies). כלים אלו, הכוללים למידה מאוחדת, הצפנה הומומורפית וחישוב מאובטח רב־צדדי, נועדו לאפשר עיבוד נתונים רגישים בלי לחשוף אותם. אלא שמומחי TrendAI מתריעים עכשיו כי כל ההגנות האלה חסרות ערך אם התשתית שמריצה אותן לא מאובטחת בעצמה.
לדברי קיריל גלפנד, אוונגליסט AI ואדריכל פתרונות אבטחה בכיר ב־TrendAI, "השימוש ב־PET בלבד עלול לייצר אשליה מסוכנת של הגנה. דוגמה בולטת לכך היא הצפנה הומומורפית: היא מאפשרת עיבוד נתונים מוצפנים, אך אם אחת מתחנות הקצה נפרצה, התוקף יכול להזריק נתונים מורעלים לתוך תהליך האימון ולהטות את המודל כולו. בקיצור, אפשר להתקין את הכספת הכי מתוחכמת בעולם, אבל אם הבניין עצמו פתוח לכל דורש, היא לא תגן על כלום."
וזה לא תרחיש דמיוני. תקיפות על שרשראות אספקה, ניצול של חולשות שלא פורסם להן תיקון והזרקת קוד זדוני למודלים, כל אלה איומים מוכרים ומתועדים שמתרחשים. ארגונים בתחומים ביטחון, בריאות ופיננסים שמסתמכים על PET בלבד, בלי שכבת אבטחה מקיפה מסביב, חיים באשליה מסוכנת.
כשמידע לא יכול לצאת מהמדינה
המלחמה האחרונה הציבה את ישראל במוקד של קמפיינים סייבריים איראניים מתמשכים. קבוצות כגון MuddyWater ו־Charming Kitten, הפועלות בחסות משמרות המהפכה, מתמקדות בארגונים ישראלים בתחומים אנרגיה, בריאות וביטחון.
לפי דיווחי מערך הסייבר הלאומי, חלק מהמתקפות על ישראל מכוונות ספציפית לתשתיות AI, כולל ניסיונות להשפיע על מודלים של קבלת החלטות קריטיות. המשמעות ברורה: תשתיות PET שמגנות על פרטיות בתחומים רגישים נהפכו ליעד אסטרטגי. תוקף שמצליח לפגוע בתשתית כזו לא רק גונב מידע, הוא יכול לשבש תהליכי החלטה קריטיים.
מבחינת גופים ביטחוניים וממשלתיים בישראל, האתגר כפול בשל הצורך בריבונות על המידע. ארגונים כאלה אינם מורשים להוציא נתוני אבטחה, לוגים, תצפיות סייבר ונתוני אבטחה לשרתים שיושבים מחוץ לישראל. פתרון אבטחה שפועל רק דרך ענן ציבורי בחו"ל פשוט לא רלוונטי עבורם.
לכן חשובה מאוד היכולת של פריסה מקומית מלאה, בסגנון Cloud Sovereign Private. פלטפורמות כגון Trend Vision One מאפשרות להקים את כל מערך האבטחה, מניתור איומים, דרך תגובה ועד ניהול סיכונים בתוך התשתית הארגונית הפנימית, בלי שאף פיסת מידע תעבור לענן חיצוני. לגופים מסווגים בישראל, זו לא תוספת נוחות. זו דרישה בסיסית.
לדברי גלפנד, אחד האיומים החמורים ביותר על תשתיות שמריצות PET הוא ניצול חולשות Zero-Day לא מוכרות. תוקף שמגלה פרצה בספריית הצפנה או בשירות ענן, יכול לעקוף את כל מנגנוני ההגנה על הפרטיות, ואף אחד לא יידע שזה קרה.
בתעשיית הסייבר פועלות תוכניות מחקר שנועדו לגלות חולשות כאלה לפני שתוקפים מנצלים אותן. דוגמה בולטת היא Zero Day Initiative של חברת TrendAI, תוכנית מחקר החולשות (באג־באונטי) הגדולה בעולם, שמספקת טלאי וירטואלי, כלומר הגנה מפני הפרצה עוד לפני שיצרן התוכנה הוציא עדכון רשמי. לארגון שמפעיל תשתיות PET קריטיות, ההבדל בין קבלת הגנה תוך שעות לבין המתנה במשך שבועות לעדכון, הוא ההבדל בין מערכת שלמה למערכת שנפרצה.
אילוסטרציה
מי שומר על השומרים של AI?
מלבד אבטחת התשתית, ארגונים צריכים לשלוט בפועל גם במה שעובדים עושים עם כלי AI. פתרונות כגון AI Service Access מאפשרים לנטר ולבקר את הגישה לשירותים כגון ChatGPT, DeepSeek ו־Gemini, כולל סינון תוכן בזמן אמת, מניעת הדלפת מידע רגיש וחסימה של ניסיונות מניפולציה על המודל. שכבה נוספת של כלים כגון AI Guard ו־AI Scanner בודקת את המודלים עצמם, מזהה תוכן מזיק ומתריעה על דליפות ועל ניסיונות תקיפה.
ההנחיות של רשות הגנת הפרטיות, מבהיר גלפנד, הן צעד נכון וחשוב. אבל הן עונות על השאלה "על מה צריך להגן" ופחות על השאלה "איך מוודאים שההגנה עצמה עמידה". הטכנולוגיה לא תציל אף אחד אם הבסיס שעליו היא בנויה רעוע. השאלה שכל מנהל אבטחת מידע בישראל צריך לשאול היום היא לא "האם יש לנו PET" אלא "האם מי שאמור לשמור על הפרטיות שלנו מוגן בעצמו."
המלצות לשעת חירום
בעיקר עכשיו, בתקופה של מציאות ביטחונית מתוחה, ארגונים צריכים לחזק ולהתאים את אסטרטגיית האבטחה שלהם. גלפנד ממליץ על הצעדים האלה:
- הקשחת הגישה מרחוק: עם מעבר לעבודה מהבית וגיוס מילואים, נקודות הגישה מרחוק נהפכו ליעד מרכזי. יש לוודא אימות רב־שלבי (MFA) על כל גישה לתשתיות AI.
- ניטור מוגבר של שרשרת האספקה: קבוצות איראניות ידועות בשימוש בתקיפות של שרשרת האספקה. יש לבדוק כל עדכון לספריות ML וכלי AI לפני הטמעה.
- בידוד תשתיות AI קריטיות: מערכות AI שמשפיעות על החלטות קריטיות (רפואיות, ביטחוניות, פיננסיות) צריכות להיות מבודדות מרשתות אחרות.
- תרגול תגובה למתקפת AI: לא מספיק לתרגל תגובה לדליפת מידע. יש לתרגל תרחישים של הרעלת מודל (model poisoning) ומניפולציה על פלטי AI.
- גיבוי מודלים ונתוני אימון: במקרה של תקיפה שמשחיתה מודלים, יכולת שחזור מהירה היא קריטית.

