משרד החדשנות מפרסם מדריך לשימוש אחראי בבינה מלאכותית במגזר הציבורי

אולי יעניין אותך גם

משרד החדשנות, המדע והטכנולוגיה פרסם טיוטת מדריך ראשון מסוגו לניהול סיכונים ושימוש אחראי בכלי בינה מלאכותית במגזר הציבורי. המדריך הוא המסמך הממשלתי המקצועי הראשון שמציע שיטות עבודה מומלצות לגופים ציבוריים בשימוש בבינה מלאכותית בתחומי פעילותם, תוך דגש על תיעוד, שקיפות והבנה של מגבלות הכלים, לצד עידוד לחדשנות ואוריינות בינה מלאכותית. הוא גובש על ידי מערך הדיגיטל הלאומי, מחלקת ייעוץ וחקיקה במשרד המשפטים והמרכז לרגולציה ומדיניות בינה מלאכותית במשרד החדשנות, בסיוע גורמים ציבוריים אחרים כמו מערך הסייבר הלאומי והרשות להגנת הפרטיות.

המדריך גובש על בסיס מספר עקרונות מנחים, ביניהם תפיסת ניהול סיכונים, דינמיות (הטמעת עדכונים תקופתיים), התאמה לעקרונות המדיניות הממשלתית (למשל, כפי שמשתקפים במסמך עקרונות המדיניות, הרגולציה והאתיקה בתחום הבינה המלאכותית) והתאמה לסטנדרטים ומסגרות אסדרה מובילים בעולם. הוא מורכב משני חלקים – הראשון מתאר את העקרונות הבסיסיים לשימוש אחראי בבינה מלאכותית, והשני מפרט את תפקידיהם של "אחראי משילות הבינה המלאכותית" ושל "אחראי היישום העסקי".

המדריך מציג חמישה עקרונות לשימוש אחראי בבינה מלאכותית:

  1. בינה מלאכותית לצמיחה, פיתוח בר קיימא ורווחת הכלל – יש לקיים פעולות יזומות לקידום בינה מלאכותית לתועלת האדם והסביבה,
  2. כיבוד שלטון החוק, זכויות אדם וערכים דמוקרטיים – יש לפתח, להטמיע ולהשתמש במערכות בינה מלאכותית בהתאם לערכים דמוקרטיים ולשלטון החוק, ובאופן המכבד זכויות אדם, לרבות פרטיות ואוטונומיה. בנוסף, יש לנקוט אמצעים להתמודדות עם תופעות המושפעות מבינה מלאכותית דוגמת דיסאינפורמציה. כל אלה, תחת פיקוח אנושי וניהול סיכוני, בהתאם לדין.
  3. שקיפות והסברתיות – יש לשקף לציבור את פעולת המערכת, לרבות יכולותיה ומגבלותיה, מקורות המידע שלה וההיגיון שבבסיסה. בנוסף, יש להגביר את מודעות הציבור למצבים בהם מתקיימת אינטראקציה עם בינה מלאכותית, ולספק לו מידע שיאפשר להתמודד עם התוצאות השליליות של המערכת.
  4. ביטחון ובטיחות – יש לפתח ולהשתמש במערכות בינה מלאכותית באופן שיבטיח שהן יהיו אמינות ובטוחות לאורך כל מחזור החיים שלהן ולא יהוו סיכון בטיחותי או בטחוני בלתי סביר. כמו כן, יש לפתח מנגנונים להתמודד עם מצבי סיכון שנגרמו בגלל המערכת.
  5. אחריותיות – הארגונים המשתמשים במערכות נדרשים לגלות אחריות לתפקודן התקין ולקיום העקרונות שבמדריך, באמצעות פיתוח מנגנוני ניהול סיכונים ואימוץ כללי התנהלות להתמודדות עם סיכונים דוגמת פגיעה בפרטיות, הטיות והפרת קניין רוחני.

זאת ועוד, המדריך מגדיר שני תפקידי מפתח שעל ארגונים במגזר הציבורי למנות:

  • אחראי משילות בינה מלאכותית – האחראי ברמה הארגונית על קביעה והפעלת הנהלים לשימוש אחראי בבינה מלאכותית. מוצע למנות לתפקיד זה את ה-Chief Data Officer של הארגון, אך אין מניעה למנות גורם אחר (כמו מנהל מערכות המידע או סמנכ"ל האסטרטגיה והמדיניות), כל עוד הוא בעל ידע רלוונטי בנושא שימוש אחראי בבינה מלאכותית. בין השאר, אחראי המשילות הוא הגורם שיתווה את המדיניות הכללית לשימוש אחראי בבינה מלאכותית, יקדם פיתוח כללים לניהול נתונים תוך שמירה על זכויות אדם ושוויון, יטמיע את המדיניות והכללים, יקיים מנגנון דיווח פנימי, ויטפל ב"תקריות AI" – מונח שטובע המדריך, המוגדר כ"אירוע שבו התממש סיכון AI (צפוי או לא צפוי)" – לרבות תחקורן והפקת לקחים.
  • אחראי יישום עסקי – הגורם העסקי בארגון, שיהיה אחראי על זיהוי הצורך העסקי במערכת בינה מלאכותית ואפיונו, התייעצות עם גורמים רלוונטיים (דוגמת ה-DPO או מנהל הפרויקט/המערכת), הפעלת תהליך ניהול הסיכונים ומתן הוראות למשתמשי הקצה – עובדי הארגון הציבורי שעתידים להשתמש במערכת. אחראי היישום העסקי יכול להיות מנהל אגף, יו"ר ועדה, גורם מקצועי האחראי על תהליך תכנון, תקצוב ובקרה פנימית, וכו'.

המדריך פתוח להערות הציבור ללא תאריך יעד מוגדר.