בעקבות תביעות - חברת AI תאסור שימוש על קטינים

חברת Character.AI הודיעה שהחל מ־25 בנובמבר תיאסר גישת משתמשים מתחת לגיל 18 לשירותי הצ’אטבוט שלה. הצעד נועד להתמודד עם חששות גוברים בנוגע לבטיחות ילדים בשימוש בבינה מלאכותית. במהלך החודש הקרוב תזהה החברה משתמשים קטינים ותטיל מגבלת שימוש יומית של שעתיים עד למועד כניסת האיסור לתוקף.

ההחלטה התקבלה לאחר שורה של תביעות נגד החברה, בהן תביעה שהוגשה על ידי משפחת נער מפלורידה שהתאבד לאחר אינטראקציות ממושכות עם צ’אטבוט של Character.AI. מקרים אלו עוררו דיון ציבורי נרחב על השפעתם הנפשית של "מלווים מבוססי בינה מלאכותית" (A.I. companions) על קטינים. גם חברות אחרות בתחום, ובהן OpenAI, נדרשו לבחון מחדש את מנגנוני הבטיחות שלהן, לרבות הטמעת בקרות הוריות.

במקביל, מחוקקים בארצות הברית מקדמים יוזמות חקיקה להגבלת גישת קטינים לצ’אטבוטים. סנאטורים ג’וש הולי וריצ’רד בלומנטל הציגו הצעת חוק פדרלית בנושא, ומושל קליפורניה גאווין ניוסום חתם לאחרונה על חוק המחייב חברות בינה מלאכותית להציב מנגנוני הגנה ייעודיים בצ'אטבוטים, שייכנס לתוקף ב־1 בינואר 2026.

Character.AI נוסדה בשנת 2021. היא מפעילה פלטפורמה ליצירת דמויות בינה מלאכותית מותאמות אישית. החברה מדווחת על כ־20 מיליון משתמשים חודשיים, מתוכם פחות מ־10% קטינים. מקור: The New York Times (מאת נטלִי רוֹצָ’ה וקשמיר היל)