ה-FTC מפרסם כללים לשימוש כדין בבינה מלאכותית

אולי יעניין אותך גם

נציבות הסחר הפדרלית בארה"ב (ה-FTC) פרסמה מדריך להטמעה ושימוש כדין בבינה מלאכותית בארגונים. המדריך שם דגש על הסכנות הפוטנציאליות הנשקפות משימוש בבינה מלאכותית ומציע פתרונות מעשיים לחברות על מנת שיעמדו בהוראות חוק ה-FTC האוסר על פרקטיקות מטעות או בלתי הוגנות במסחר. מדריך ה-FTC מתפרסם בזמן שנציבות האיחוד האירופי בעצמה מפרסמת טיוטת תקנות לאסדרת השימוש בבינה מלאכותית.

מדריך ה-FTC מציין שלצד היתרונות הגלומים בפיתוח ושימוש בבינה מלאכותית, טמונות בה סכנות לזכויות יסוד כמו שוויון במתן הזדמנויות שוות לבני מיעוטים. הטעם לכך הוא שפיתוח בינה מלאכותית יכול שיהיה מבוסס על מאגרי מידע שמשקפים בחסר או ביתר אוכלוסיות מסוימות, דבר שיכול לגרום לאלגוריתמים להפיק תוצאות מוטות המתחשבות בפרמטרים מפלים כמו צבע עור וגזע. ה-FTC גם התקין לאחרונה תקנות נגד שימוש באלגוריתמים המתבססים על נתונים מפלים ואסר על חברות לקבל החלטות באופן אוטומטי על בסיס אלגוריתמים אלו בנושאים של העסקה, דיור, אשראי וזכאות לשירותים בסיסיים.

מדריך ה-FTC מביא בין היתר את הדגשים האלה:

  • שימוש במאגרי מידע (data set) מלא אשר משקף את כלל הקבוצות באוכלוסיה ללא החסרת מידע על קבוצות מסוימות, בדגש על מיעוטים.
  • בדיקת האלגוריתמים המשמשים לקבלת החלטות - הן לפני השימוש הראשוני בהם והן לאורך זמן מעת לעת כדי לוודא ששימוש באלגוריתמים לא מביא לתוצאות מפלות ומטעות.
  • עידוד השקיפות והעצמאות ביחס לאופן בו ארגונים מפתחים ומשתמשים בטכנולוגית בינה מלאכותית בכלל, והאלגוריתמים שלהם בפרט, לצד מתן חופש ועצמאות לגופים מבקרים לחשוף פגמים או הטיות שעלולים להביא לתוצאות מפלות.
  • המינעות מהבטחות על היקף היכולות של האלגוריתמים המתפתחים ומידת הדיוק שלהם בתהליך קבלת ההחלטות וניתוח נתונים.
  • לקיחת אחריות על הפעילות בחברה ועל ההשלכות של שימוש בבינה מלאכותית. ה-FTC קורא לחברות לשאת באחריות ומאיים שאם לא, הוא יטיל עליהן את האחריות תוך התערבות רגולטורית.