סוכנות הגנת המידע הספרדית (AEPD) פרסמה לאחרונה ניתוח מעמיק של ההשלכות על פרטיות מידע הנובעות מהשימוש הגובר בסוכני בינה מלאכותית. המסמך נועד להדריך בעלי שליטה במידע ומעבדי מידע על ניהול המאפיינים הייחודיים של טכנולוגיה זו תוך עמידה בדרישות הרגולציה.
סוכן בינה מלאכותית מוגדר כמערכת המשתמשת במודלי שפה (LLMs) כדי להשיג יעדים מוגדרים באופן אוטונומי. הייחוד של "סוכני בינה מלאכותית " טמון ביכולתה לפעול באופן פרואקטיבי, לתכנן רצף פעולות ולפרק בעיות מורכבות ל"שרשרת מחשבות". המערכת מצוידת ברכיבי זיכרון לטווח קצר וארוך, המאפשרים לה לשמור הקשרים וחוויות עבר לשיפור קבלת ההחלטות.
המסמך של הרשות לפרטיות בספרד מזהיר מפני פגיעות בהגנת המידע. סוכנים אלו נדרשים לרוב לגישה נרחבת למאגרי מידע ארגוניים ואישיים, מה שעלול להוביל לעיבוד נתונים מאסיבי המנוגד לעקרון המזעור. איומים בולטים כוללים "הזרקת פקודות (שירה או עקיפה), שבה גורמים עוינים מטים את התנהגות הסוכן, ו"זליגת מודל" שבה מידע רגיש נחשף דרך שאילתות תמימות.
במישור הרגולטורי, השימוש בסוכנים מעלה אתגרים בנוגע לשקיפות ולזכויות נושאי הנתונים לפי ה-GDPR. הרשות בספרד מדגישה כי אוטונומיה גבוהה של סוכן עלולה להיחשב כקבלת החלטה אוטומטית לפי ה-GDPR, המחייבת לאפשר ערעור בפני בן אדם. בנוסף, העדר מידור של זיכרון הסוכן בין משימות שונות עלול לגרום לחשיפת מידע אישי בין משתמשים ופרויקטים שונים.
כדי להתמודד עם סיכונים אלו, הארגון נדרש להטמיע משילות הגנת מידע הדוקה. בין הצעדים המומלצים: יישום עקרונות עיצוב לפרטיות, קטלוג מקורות מידע לא מובנים, וסינון זרמי נתונים בזמן אמת למניעת חשיפת מידע עודף. בקרות נוספות כוללות הבטחת עקיבות (Traceability) של פעולות הסוכן ופיקוח אנושי אפקטיבי בנקודות קריטיות.
