מה האחריות של OpenAI לשקרים של ChatGPT?

אולי יעניין אותך גם

OpenAI מבקשת לדחות את תביעת לשון הרע שהגיש נגדה מנחה הרדיו מארק וולטרס, לאחר ש-ChatGPT סיפק מידע כוזב שלפיו וולטרס מעל בכספים.

המקרה התרחש כאשר עיתונאי ביקש מצ'אטקה לסכם עבורו תיק המתנהל בבית המשפט הפדרלי בוושינגטון בעניין Second Amendment Foundation v. Ferguson. ChatGPT סיפק סיכום של המקרה ובו ציין שוולטרס נתבע כביכול על "הונאה ומעילה של כספים" מהקרן שבה שימש כמנהל כספים ראשי וכגזבר.

וולטרס בתגובה תבע את OpenAI בטענה שלא רק שאינו צד לתיק אלא שמעולם לא הועסק בקרן המעורבת בו.

OpenAI טוענת שלא ניתן להשוות את המידע הכוזב שצ'אטקה סיפק להשמצה, שכן לשון הרע דורשת על-פי רוב הצהרה מכפישה או מעליבה הנאמרת מתוך ידיעה כי מדובר בשקר או תוך התעלמות מובהקת מהאמת. בניגוד לכך, כמודל בינה מלאכותית, ChatGPT מייצר תגובות המבוססות על דפוסים ודוגמאות ששימשו לאימונו; הוא אינו ישות אנושית ועל כן אין לו כוונה לפעול בזדון. מקור: Fagen Wasanni Technologies (מאת קנדיס קלארק).

law.co.il מעיר שמידע עובדתי כוזב שמספקות תוכנות לבינה מלאכותית יוצרת קרוי "הזיות" והוא אכן תוצאה של המודל התכנותי שלפיו הן עובדות. אינטיליגנטיות ככל שהתוכנות ההלו נראות, ביסודו של דבר הן מחברות מילים לפי אמות-מידה של הסתברות סטטיסטית ומכאן שהן יכולות, במחילה, לחנטרש בבטחון גמור.