הצוות הבין-משרדי לבחינת שימושי בינה מלאכותית בסקטור הפיננסי פרסם אתמול ד"וח סופי. הדוח ממליץ לאמץ גישה מבוססת סיכונים לאסדרה של בינה מלאכותית, תוך התמקדות במערכות בעלות סיכון גבוה. הדוח עוסק במגוון סוגיות הנוגעות למערכות בינה מלאכותית. בין היתר ממליץ הדוח להתמודד עם סוגיית "הקופסה השחורה" בכך שגופים פיננסיים יידרשו להסביר את אופן פעולת המערכת, אולם לא יחויבו בהכרח להסביר באופן פרטני החלטות שקיבלה הבינה המלאכותית בכל מקרה ומקרה. עוד ממליץ הדוח, בנושא האחריות לפעילות מערכות בינה מלאכותית, כי זו תוטל על הגוף הפיננסי המפעיל את המערכת.
הדוח מציע ארגז כלים לאופן קבלת ההחלטות בנושא בינה מלאכותית, לניהול הסיכונים הנובעים ממערכות אלה ולאופן הבקרה והפיקוח עליהן. הדוח עוסק גם בהשלכות פוטנציאליות של הבינה המלאכותית על היבטי יציבות ותחרות במערכת הפיננסית, ובצורך להיערך לסיכונים הנובעים מהונאות ודיסאינפורמציה ובכלל זה לקדם חקיקה שתסייע לחקור אירועים של דיסאינפורמציה ולהסיר תכנים כוזבים.
בראש הצוות הבין-משרדי עמדו אמיר וסרמן, היועץ המשפטי של רשות ניירות ערך, ושרית פלבר, ראשת אשכול חדשנות טכנולוגית ותקציב בייעוץ וחקיקה (משפט כלכלי), משרד המשפטים. עוד היו שותפים בו נציגי משרד האוצר, רשות התחרות, רשות שוק ההון, ביטוח וחיסכון, והפיקוח על הבנקים בבנק ישראל.
המלצות מרכזיות בדוח:
- לאמץ גישה מבוססת סיכונים, תוך התמקדות במערכות בעלות סיכון גבוה. הדו"ח מסביר את אופן הערכת הסיכונים ביחס למערכות בינה מלאכותית, העשויות לשמש במגוון רחב של פעילויות פיננסיות.
- הסברתיות – בעיית "הקופסה השחורה" לפיה לא ניתן להסביר באופן מלא את תוצריהן של מערכות AI היא אחד האתגרים המורכבים ביחס לטכנולוגיה זו. הדוח מבחין בין הסברתיות כללית, בנוגע לאופן פעולת המערכת, ובין הסברתיות פרטנית, בנוגע להחלטות ספציפיות. בדוח מוצע לדרוש הסברתיות כללית אך לא להטיל חובת הסברתיות פרטנית בכל מקרה שבו מעורבת מערכת בינה מלאכותית. הדבר יידרש בהתאם לנסיבות ביחס למערכות בסיכון גבוה ובהעדר חלופות מפצות הולמות.
- יידוע וגילוי – הדו"ח מציע לדרוש יידוע לציבור בדבר עצם השימוש במערכות בינה מלאכותית ביתר שאת בשלב ראשוני של כניסת הטכנולוגיה, אלא אם כן הדבר ברור. בנוסף יש לקבוע חובות גילוי שישתלבו בדרישות הקיימות בתחום הפיננסיים לגבי השירות או המוצר המוצעים ללקוח, וזאת כאשר מערכת הבינה המלאכותית היא בעלת השפעה מהותית עליו. הגילוי צריך לעסוק במאפיינים הייחודיים הנובעים מטכנולוגיית בינה מלאכותית ולהינתן בשפה פשוטה ונייטרלית, תוך הימנעות מ- AI Washing, קרי הפרזה ביחס לתועלת משימוש בבינה מלאכותית.
- אחריות – אין מקום לסטות מהעיקרון המקובל ברגולציה הפיננסית, לפיו האחריות על פי דין מוטלת על הגוף המפוקח, והוא יחול גם ביחס למערכות בינה מלאכותית. הדוח עוסק בשאלת אחריותו של הגוף המפוקח כאשר הוא מתקשר עם צד שלישי (כגון מפתח מערכת בינה מלאכותית) וכן קובע כי ככלל יש לאסור הגבלת אחריות כלפי הלקוח בגין פעולת המערכת.
- תחרות - הדו"ח מונה מספר חששות תחרותיים שנובעים מהטמעת מודלים של בינה מלאכותית בתחום הפיננסיים בישראל. בין היתר, כח שוק של נותני שירותי בינה מלאכותית אל מול הגופים הפיננסיים, היעדר גישה למידע של שחקנים פיננסיים חדשים או קטנים, יתרונות לגודל ולהיקף של הגופים הפיננסיים הקיימים, וחשש מתיאום והתאמה. הדוח קובע כי דיני התחרות חלים גם ביחס לפעילות בינה מלאכותית ומציע בין היתר לבחון דרכים למניעת התפתחות כח שוק עודף.
- הונאות ודיסאינפורמציה – הדוח מרחיב בעניין סיכוני דיסאינפורמציה למערכת הפיננסית, החל מהתחזות ללקוחות וכלה בהשלכות מערכתיות רחבות. בשנה החולפת אפשר היה לראות כיצד סיכונים אלה מתחילים להתממש בישראל. הדוח מזהה אזורי סיכון ספציפיים, ממליץ על היערכות בצד הרגולטורים ובצד הגופים המפוקחים, וקורא לקדם כלים להתמודדות עם אירועי דיסאינפורמציה, שהן כר פורה להונאות.
- ממשל בינה מלאכותית - בהינתן קצב התפתחות הטכנולוגיה והשימושים המגוונים, הדוח ממליץ על רגולציה מבוססת עקרונות, ומציג 'ארגז כלים' שעניינו ממשל בינה מלאכותית (AI Governance) - אופן קבלת ההחלטות, ניהול הסיכונים, הבקרה והפיקוח על הפעלת מערכות בינה מלאכותית. הגופים הפיננסיים יוכלו ליישם את האמצעים בהתאם לשיקולים ונסיבות משתנים, כגון אופי השירות הניתן באמצעות מערכת הבינה המלאכותית, מהותיותו, פוטנציאל הפגיעה בפרט וכדומה.
מקור: הרשות לניירות ערך.
