הבוטים של מטא תחת מתקפה בגלל ייעוץ רפואי ושיחות רומנטיות

הצ'אטבוט של מטא, Big sis Billie (דמות של אישה צעירה) פיתה אדם מבוגר, בן 76 עם היסטוריה רפואית מורכבת, לפגוש אותו בניו יורק, אך האדם נפל בדרך ונפטר 3 ימים לאחר מכן - כך עולה מתחקיר שפורסם לפני שבועיים. במקביל - התובע הכללי של טקסס הודיע כי יחקור את מטא ו-Character.AI בחשד לאספקת שירותי בריאות-נפש מטעים לקטינים.

במקרה הראשון - בסדרת שיחות רומנטיות שניהל הצ'אטבוט עם האדם המבוגר (שסבל משבץ מוחי לפני עשור), הצ'אטבוט הבהיר שוב ושוב שהאישה לה הוא מתחזה היא אמיתית, ואף הזמין אותו לדירתה (עם כתובת). מטא סירבה להתייחס למותו של האדם המבוגר או להגיב לשאלות מדוע צ'אטבוטים יכולים לשקר למשתמשים שלספר להם שהם "אנשים אמיתיים" או ליזום שיחות רומנטיות. מקור: רויטרס (מאת: ג'ף הורוויץ). law.co.il מזכיר כי במסמך פנימי שדלף, נמצא כי עד לאחרונה מטא אפשרה לבוטים לקיים שיחות רומנטיות עם קטינים. בשום מקום במסמך מטא לא הציבה הגבלות שיחייבו בינה מלאכותית להצהיר שהיא אינה אדם אמיתי.

במקרה השני - התובע הכללי של טקסס פתח בחקירה בחשד שאנשים פגיעים (כמו ילדים ואנשים מבוגרים) עשויים לקבל ייעוץ רפואי הנחזה למקצועי מצ'אטבוטים, כמו Meta AI Studio ו-Character.AI, למרות שהם אינם תחת פיקוח ואין להם אף אישור לעסוק בתחום. החשד הוא שהצ'אטבוטים חורגים מייעוץ כללי בלבד, מתחזים לאנשי מקצוע מורשים ומטעים את המשתמשים כשטוענים שהייעוץ שלהם אמין ומספק. כמו כן, מאשים התובע כי הצ'אטבוטים מפרים את סודיות המידע ופרטיות המשתמשים, כאשר הם יכולים להשתמש בו לפרסום ממוקד ופיתוח אלגוריתמי, לפי תנאי השימוש שלהם. law.co.il מזכיר כי זו אינה הפעם הראשונה שהועלו טענות נגד Character.AI - כך לדוגמה, בשנה שעבר הועלו טענות שהשירות עודד ילדים לאלימות והתנהגות מינית.