מחקר חדש חושף סיכוני פרטיות במודלי AI

אולי יעניין אותך גם

מודלי הבינה המלאכותית של מיקרוסופט (Copilot), גוגל (Gemini), מטא (Meta AI) ו-DeepSeek דורגו במקום הנמוך ביותר - כך מצאה חברת Incogni במחקר פרטיות שערכה בחודש שעבר. המחקר בדק כיצד מודלי שפה גדולים (LLM) משתמשים ואוספים מידע ממשתמשים, ועד כמה הם שקופים לגבי השימוש בו.

הסיבות שהמחקר מונה לממצאיו: איסוף מידע נרחב, מדיניות פרטיות מעורפלת או מקוטעת, ומחסור במנגנוני ביטול הסכמה לשימוש במידע של המשתמשים לשיפור השירות. כך לדוגמה, מודל Meta AI אסף בפועל מגוון רחב של מידע רגיש כגון שמות משתמשים, כתובות ומספרי טלפון, שמטא יכולה לשתף עם החברות בתאגיד שלה ועם משתפי פעולה במחקר; מיקרוסופט הבהירה כי Copilot לא אוסף נתונים באנדרואיד, אך לא הבהירה זאת לגבי פלטפורמת ה-IOS; מדיניות הפרטיות של DeepSeek הייתה הכי פחות אינפורמטיבית ומעורפלת. LLM רבים לא כיבדו אותות בקרת פרטיות נפוצים כמו robots.txt או תגיות "do not index", ו- OpenAI, גוגל ו-Anthropic היו בין אלו שדווחו כמי שהתעלמו מהנחיות אלו.

החברות שדורגו במקום הגבוה ביותר במחקר הפרטיות היו Mistral AI (Le Chat) ו-OpenAI (ChatGPT). במחקר נמצא כי מודל Le Chat של חב' מיסטראל הצרפתית אוסף מידע מינימלי בלבד, נמנע משיתוף מידע רב עם צדדים שלישיים ומספק למשתמשים שליטה מסוימת על השימוש בקלט שלהם (Prompt). ChatGPT בלט בזכות מדיניות פרטיות ושאלות נפוצות (FAQ) ברורים ואפשר למשתמשים לבחור שלא לאמן את המודל על בסיס קלט המשתמש. מקור: Cyber Insider (מאת: אלכס לקנדר).