חובת שקיפות על אודות השימוש בבינה מלאכותית וחובת בקרה אנושית על תוצריה. אלה מקצת החובות החדשות שבית המשפט העליון השית בפסק דין תקדימי בנושא בינה מלאכותית (עע"מ 63194-08-25 כהן נ' עיריית רמת גן ואח' (23.3.2026)). פסק הדין עסק בערעור שהגיש אב בשם בנו, תלמיד בחינוך המיוחד, לאחר שאגף החינוך בעיריית רמת גן דחה את בקשתו לקבל שירותי היסעים מבית האב למוסד החינוך, תוך הסתמכות על חוזר מנכ"ל משרד החינוך שאינו קיים וציטוטים פיקטיביים ממנו. מקור הטעות היה בהזיה של כלי בינה מלאכותית שבו השתמש אגף החינוך בחיבור התשובה לאב.
בית המשפט העליון (השופטים גרוסקופף וכנפי-שטייניץ והמשנה לנשיא סולברג) הדגיש כי פסק הדין לא נועד "לשפוך את התינוק עם המים" – לא עצם השימוש בבינה מלאכותית הוא הפסול, אלא השימוש בה ללא בקרה מתאימה, שתאפשר וידוא ואימות של נכונות הפלט שהפיקה. כאשר גוף מסתמך על פלט של בינה מלאכותית ללא בדיקה ראויה, הדבר עשוי להוביל לקבלת החלטות שגויות, הפוגעות בזכויות היחיד העומד מולו. הדבר נכון במיוחד בהקשר של פערי הכוח המובנים שבין גוף ציבורי ובין האזרח, שיתקשה בדרך כלל לגלות כי ההחלטה מבוססת על תוצר שגוי של מערכת בינה מלאכותית, המשפיעה לרעה באופן ממשי על מצבו.
למרות שפסק הדין ניתן ביחס לרשות ציבורית, ההיגיון הנורמטיבי העולה ממנו יכול לחול גם על ארגונים אחרים המאופיינים בפערי ידע וכוח, כדוגמת ארגונים הפועלים מול צרכנים או מעסיק המגייס עובדים. בעולם שבו חברות עושות שימוש יום-יומי בבינה מלאכותית – בניסוח תשובות ללקוחות, בטיפול בתלונות, בסינון תוכן, בהפעלת צ'אטבוטים, במתן המלצות תוכן, ועוד – קיים סיכון ממשי שהזיות וטעויות בכלי בינה מלאכותית ישפיעו לרעה על זכויותיהם של צרכנים, משתמשי קצה ועובדים.
ריכזנו עבורכם כמה המלצות להטמעה והשימוש במערכות בינה מלאכותית, הנובעות מפסיקת בית המשפט העליון:
- שקיפות! בית המשפט העליון ציין כי אף שטרם עוגנה בדין הישראלי חובת גילוי ביחס לשימוש בבינה מלאכותית, קיים הגיון בקביעת חובה כאמור – בייחוד במקרים בהם לשימוש בבינה מלאכותית יש השפעה משמעותית על היחיד. בחרו בגישה המקדמת שקיפות מול יחידים במקרים המתאימים (למשל, כאשר צרכן פונה לשירות לקוחות מבוסס צ'אטבוט).
- "Human in the Loop". פסק-הדין עמד על הצורך במעורבות ובקרה אנושיות בהטמעה והשימוש בבינה מלאכותית, והדגיש כי האחריות לתוצר הסופי אינה מתבטלת בשל העובדה שנעשה שימוש בכלי טכנולוגי. הקפידו על מעורבות אנושית בכל שלבי מחזור החיים של מערכות בינה מלאכותיות – החל מפיתוחן (במקרים הרלוונטיים), עבור בהטמעתן בארגון ועד לשימוש בהן ולקבלת החלטות בהתבסס על הפלט המתקבל מהן. תעדו את אמצעי הבקרה שננקטו בכל שלב.
- הטילו ספק. הכשל המרכזי בהתנהלות העיריה היה ההסתמכות על חוזר מנכ"ל בלתי-קיים ועל ציטוטים פיקטיביים ממנו. בית המשפט העליון עמד על כך שככל שתשובה נשמעת מקצועית, מסודרת ומבוססת יותר, יהיה קשה יותר לאדם פרטי להבין שנפל בה פגם. לכן אין להסתפק בכך שהתשובה שהפיקה מערכת בינה מלאכותית "נשמעת משכנעת" – בחנו בזהירות הנדרשת כל אסמכתה, ציטוט, מקור משפטי, או נתון עובדתי הנכללים בפלט.
- החליטו אתם. בית המשפט העליון התריע מפני מצבים בהם גוף מתפרק משיקול דעתו, ומבסס את החלטתו באופן בלעדי על מערכת בינה מלאכותית. הימנעו מהישענות בלעדית על תוצרי מערכות בינה מלאכותית בקבלת החלטות שעשויה להיות להן השפעה מהותית על לקוחות. קבלת ההחלטות בנושאים אלה צריכה לכלול בקרה אנושית אפקטיבית – והיקפה צריך להתרחב ככל שההשפעה הצפויה של ההחלטה משמעותית יותר.
- השגה וערעור. הטמיעו מנגנון להשגה על החלטות הנוגעת לזכויותיו של לקוח, שהתקבלו בארגון תוך שימוש בבינה מלאכותית, גם אם התוצר היה נתון לבקרה אנושית. מנגנון כזה צריך להיות מופעל על ידי גורמים אנושיים ולא על ידי כלי בינה מלאכותית. מטרתו היא לגשר על פערי המידע שבין גוף המקבל החלטה ביחס ליחיד בהתבסס על כלי בינה מלאכותית, ובין אותו יחיד.
- שליטה. מפו את המערכות וכלי הבינה המלאכותית בארגון, והנהיגו מדיניות פנים-ארגונית להטמעתם ולשימוש בהם, שתחול על עובדים, ספקים וגורמים רלוונטיים אחרים. על המדיניות לקבוע, בין היתר, באילו שימושים מותר להסתייע במערכות בינה מלאכותית, מתי נדרשת בקרה אנושית מוגברת, באיזה אופן יש לאמת את נכונותם ודיוקם של תוצרי בינה מלאכותית, ומי מוסמך לאשר תוצרים או החלטות המבוססים על בינה מלאכותית. מדיניות כזו תהיה כלי מרכזי לצמצום סיכונים ולחיזוק ממשל תאגידי אחראי ביחס לשימוש במערכות בינה מלאכותית.
קבוצת הסייבר, הפרטיות וזכויות היוצרים השיקה לאחרונה שירות DPO (Data Protection Officer – ממונה על הגנת הפרטיות). זהו שירות מקיף ומותאם אישית לכל ארגון, המיועד לספק מענה שלם לכל צורכי הפרטיות וההגנה על מידע אישי, לרבות שימוש בכלי AI. השירות כולל, בין היתר, בניה וניהול של תוכנית פרטיות מותאמת לארגון, הכנת מסמכי מדיניות ונהלים נדרשים, ביצוע תסקירי השפעה (DPIA) העשויים להידרש בעת שימוש בבינה מלאכותית לעיבוד מידע אישי ופעולות רבות נוספות הנדרשות להתאים את הארגון לרגולציה בתחומים אלה.
