כלים מבוססי בינה מלאכותית (AI) הפכו לערוץ העיקרי ליציאת נתונים רגישים מארגונים. לפי הדו"ח, שניתח נתוני שימוש אמיתיים מדפדפני עובדים, היקף דליפת המידע באמצעות מערכות כמו ChatGPT, Claude ו־Copilot כבר עולה על זה של שירותי SaaS לא מנוהלים או שיתופי קבצים. כך חושף דו"ח חדש שפירסמה חברת אבטחת המידע LayerX.
לפי נתוני הדו"ח, 45% מהעובדים בארגונים משתמשים כיום בכלי GenAI, כאשר 67% מהשימושים נעשים באמצעות חשבונות אישיים שאינם מנוהלים. כ־40% מהקבצים המועלים לכלים הללו כוללים מידע אישי מזוהה (PII) או נתוני תשלום (PCI), ו־77% מהעובדים מדביקים מידע ישירות לחלון השיחה של הכלים – פעולה המהווה את ערוץ הדליפה המרכזי.
הדו"ח מצביע על כך שמערכות הגנת המידע המסורתיות (DLP) אינן מותאמות לאיומים החדשים, שכן הן מתמקדות בקבצים מאושרים ולא בפעולות בזמן אמת כמו העתקה והדבקה. עוד נמצא כי גם התחברות באמצעות חשבונות "ארגוניים" אינה מבטיחה אבטחה, מאחר שברוב המקרים אין פדרציה (SSO) פעילה, מה שמונע נראות ושליטה.
LayerX ממליצה לארגונים להחיל מדיניות ניהול זהויות אחידה, להגביל שימוש בחשבונות אישיים, ולהתייחס לאבטחת AI כקטגוריה מרכזית בניהול הסיכונים. מקור: The Hacker News.
