רשות הגנת הפרטיות פרסמה השבוע המלצות לציבור כיצד להשתמש בבינה מלאכותית יוצרת (GAI), כדוגמת ChatGPT, Claude ודומים להם, כדי להימנע מחשיפת מידע אישי רגיש. ההמלצות פורסמו בהמשך לטיוטת ההנחיה על תחולת דיני הגנת הפרטיות על AI שהרשות פירסמה לפני מספר חודשים.
הרשות מתייחסת לסיכון של חשיפת מידע אישי שנובע משימוש של המערכות במידע שמוזן בהן לטובת אימון המודלים ושיפור תפקודם. ללא אמצעי הגנה. מערכות בינה מלאכותית כאלו יכולות לשכפל (reproduce) מידע ששימש לאימון שלהן ובכך לחשוף אותו. כזכור, מידע אישי של קטינים שהוזן ל-ChatGPT הופץ בטעות על ידי המודל. חברת OpenAI שילמה על מקרה זה קנס של 15 מיליון אירו.
הרשות ממליצה למשתמשים הפרטיים לנסח שאלות בצורה כללית, להימנע מלהזין מידע פרטי שאינו חיוני ולהימנע מלציין פרטים מזהים כגון שם, גיל ומיקום ומידע רגיש כמו מידע פיננסי ורפואי. הרשות עוד ממליצה למשתמשים להורות מפעם לפעם לכלי הבינה המלאכותית למחוק את כל המידע האישי שאספו ולהורות למפעילת הבינה המלאכותית שלא לאמן את המודל על המידע שמוזן בה, במידה ואפשרות זו קיימת.
