ספקי שירותים או מוצרים של בינה מלאכותית (AI) בסין יידרשו להזהיר משתמשים מפני שימוש מופרז או התמכרות, לאבטח את מוצריהם, לסרוק את האלגוריתם שלהם ולהגן על המידע האישי הנאסף על ידם - כך לפי טיוטת אמצעי הביניים לניהול שירותים אינטראקטיביים אנושיים המבוססים על בינה מלאכותית, שפרסם מנהל המרחב הקיברנטי של סין ("CAC") להערות הציבור. הכללים יחולו על ספקים המפיצים בסין מוצרים ושירותים, שמדמים תכונות אנושיות, דפוסי מחשבה וסגנונות תקשורת אנושיים, או מקיימים אינטראקציה רגשית עם משתמשים באמצעות טקסט, תמונות, אודיו, וידאו וכו'. מקור: רויטרס (מאת: ליאנגפינג גאו וריאן וו).
הכללים קובעים גבולות גזרה למוצרי ושירותי AI בסין, לפיהם אסור לשירותי ומוצרי ה-AI לייצר או להפיץ תוכן "המסכן את הביטחון הלאומי של סין"; לייצר, להפיץ או לקדם תוכן מגונה (הימורים, אלימות או פשע); לייצר או להפיץ תוכן שמעליב אחרים; לספק הבטחות שווא; לפגוע בבריאות המשתמשים על ידי עידוד לפגיעה עצמית או באמצעות אלימות מילולית; לגרום למשתמשים לקבל החלטות בלתי סבירות באמצעות מניפולציה; להשיג מהמשתמשים מידע מסווג או רגיש; או הפרות חוקים, תקנות והוראות אחרות. כללים אלו מסדירים בצורה רחבה את התקשרות ה-AI ובני האדם, באופן נרחב יותר מגבולות הגזרה בחוק ה-AI Act האירופאי.
הכללים מבהירים כי ספקי AI אחראים בעיקר לאבטחה ולבטיחות של שירותי AI שמדמים תכונות אנושיות, לרבות בכל הנוגע לבריאות הנפש ומניפולציה רגשית. בנוסף, הכללים מכירים בכך שקטינים וקשישים הם בין הקבוצות הפגיעות ביותר המושפעות מ-AI שמדמה תכונות אנושיות וקובע אמצעים להגן על קבוצות אלו, כמו יצירת "מצב ילדים", מתן אפשרויות בטיחות מותאמות אישית, תזכורות בזמן אמת ומגבלות זמן שימוש. בעת אינטרקציה עם קטינים, על הספקים יהיה לקבל את ההסכמה המפורשת של האפוטרופוס. בעת אינטרקציה עם קשישים, על הספקים יהיה להגדיר אנשי קשר לחירום עבור שירותיהם.
הכללים מתייחסים למצבי שימוש אינטנסיבי בשירותי AI שמדמים תכונות אנושיות כגורם סיכון חשוב מאוד (כפי שמראים מקרים אחרונים של התאבדות ופגיעה בבריאות הנפש בארה"ב) וקובעים כללי עיצוב ברורים והקשריים להגנה על משתמשים, כמו תזכורות שהתוכן נוצר על ידי AI, תזכורות להשהות את השימוש בשירות ואפשרות סגירת חלון ממשק ה-AI באופן מיידי.
לסיכום, הכללים המוצעים מבהירים כי סין אכן מתמודדות מבחינת רגולציה עם AI (בשונה מהדימוי הראשוני לפיו היא נותנת ל-AI "להתפרע" ללא רגולציה), מכירה בסכנות הטמונות בו ומציעה אמצעים טכניים למניעת נזקים הקשורים לתקשורת בני אדם ו-AI. הטיוטה מהווה דוגמה טובה להתמקדות בסיכונים ספציפיים בשירותי AI המדמים תכונות אנושיות, הגנה על משתמשים פגיעים ומניעת נזקי AI. מקור: Luiza's Newsletter (מאת: לואיזה ירובסקי).
