אירופה: חוק הבינה המלאכותית התקבל

האיחוד האירופי (EU) אימץ היום את החוק השאפתני ביותר להסדרת בינה מלאכותית (AI). חוק הבינה המלאכותית של האיחוד האירופי, ה-AI Act, משתרע על פני יותר ממאתיים עמודים וחל הן על ספקי טכנולוגיה של AI והן על המשתמשים בטכנולוגיה במגזר הפרטי והציבורי. בדומה לחקיקה נוספת בתחום המידע והנתונים באיחוד האירופי, לחוק הבינה המלאכותית תחולה אקס-טריטוריאלית גם על חברות וארגונים שמחוץ לאיחוד האירופי.

רובן המוחלט של הוראות החוק ייכנסו לתוקף בשנת 2026.

ההוראות כוללות רשימה של מערכות AI אסורות לשימוש, מערכות בינה מלאכותית בסיכון גבוה ומערכות אחרות. כל אחת מהמערכות תוכפף לחובות בהתאם לדרגת הסיכון שיש בה. בנוסף, יוטלו חובות מחמירות על מודלים בסיסיים בעלי "השפעה גבוהה", כדוגמת מודלי שפה גדולים המניעים מערכות בינה מלאכותית כדוגמת ChatGPT – וזאת לאורך כל שלבי התכנון, הפיתוח, הייצור וההפצה שלהן. ה-AI Act ייאכף באמצעות קנסות עתק, היכולים להגיע עד ל-35 מיליון אירו או 7% מהמחזור השנתי העולמי של החברה המפרה, לפי הגבוה.

ה-AI Act  הוא אחד מבין שלוש קומות של הסדרה, שהאיחוד האירופי מגבש: בראש עומדת אמנה בנושא בינה מלאכותית, זכויות אדם, דמוקרטיה ושלטון החוק שגם היא אמורה להתקבל בקרוב, ובקומה שמתחת לחוק החדש מקדם האיחוד דירקטיבה שתסדיר שאלות של חבות בנזק שמקורו בבינה מלאכותית, נטלי ההוכחה וכללי הוכחת ראיות בתביעות הקשורות ל-AI.

מזכר זה מציג הבטים מרכזיים של חוק הבינה המלאכותית. מטבע הדברים, איננו יכולים לכסות את כולם במזכר ראשוני וקצר –

הגדרות והיקף. חוק הבינה המלאכותית חל גם על ספקים המציעים לשוק או מפעילים מערכות AI באיחוד, ללא קשר לשאלה אם הם נמצאים פיסית בתחומי האיחוד האירופי או מחוצה לו. החוק חל על משתמשים במערכות בינה מלאכותית שנמצאות בתוך האיחוד האירופי, ועל ספקים ומשתמשים של מערכות AI במדינות שלישיות, הנעזרות בפלט שמייצרות מערכות באיחוד האירופי. עם זאת, החוק אינו חל על מערכות AI המשמשות למטרות מחקר ופיתוח מדעי בלבד, ומרבית החוק אינו חל על אלו המשתמשים ב-AI במהלך פעילות אישית ולא מקצועית גרידא.

גישה מבוססת סיכון. ה-AI Act  נוקט בגישה מבוססת סיכון, המבדילה בין שימושים ב-AI היוצרים (i) סיכון שאי אפשר לקבלו; (ii) סיכון גבוה, ו-(iii) מערכות AI אחרות.

  • מערכות AI בסיכון שאי אפשר לקבל. החוק כולל רשימה של שימושים אסורים במערכות AI שהשימוש בהן נחשב בלתי מקובל ומפר את ערכי האיחוד האירופי, כגון שימוש בטכניקות תת-הכרתיות מניפולטיביות או הטעיה, ניצול חולשות, קציר נרחב של תמונות פנים מהאינטרנט או מצילומי אבטחה, סיווג על בסיס ניתוח התנהגותי, דירוג סטטוס חברתי, סיווג ביומטרי להסקת נתונים רגישים כגון נטייה מינית או אמונות דתיות, ומקרים של שימוש במערכות לניבוי התנהגויות לצרכי אכיפה (predictive policing).
  • מערכות AI בסיכון גבוה. החוק קובע כללים למערכות בינה מלאכותית היוצרות סיכון גבוה לבריאות ולבטיחות או לזכויות היסוד של האדם. מערכות AI בסיכון גבוה מותרות רק בכפוף לעמידה בדרישות מחייבות ובהערכת תאימות.
  • מערכות AI אחרות. מערכות AI מסוימות שאינן באות בגדר הסיווגים הקודמים והן בעלות סיכון נמוך לבריאות ולבטיחות או לזכויות היסוד של האדם, כפופות בעיקר לחובות שקיפות. לדוגמה, חובת גילוי לכך שהמערכת מבוססת על בינה מלאכותית או שהתוכן נוצר באמצעות AI. הדבר נועד כדי שהמשתמשים יוכלו לקבל החלטות מושכלות לגבי השימוש בהן.

שקיפות והגנה על זכויות יסוד. לפני הצבת מערכות AI בסיכון גבוה לשימוש בשוק, חוק הבינה המלאכותית דורש לבצע הערכה של השפעתן על זכויות היסוד. יתר על כן, מערכות אשר (i) מקיימות אינטראקציה עם בני אדם, (ii) משמשות לזיהוי רגשות או מסווגות בני אדם לקטגוריות חברתיות על סמך נתונים ביומטריים, או (iii) מייצרות או מבצעות מניפולציות של תוכן ("deep fake") – נדרשות ליידע את המשתמשים על כך. לדוגמה, כשאדם מנוטר על ידי מערכת לזיהוי רגשות, חובה להודיע לו על כך, או לסמן בדרך אפקטיבית תוכן שנוצר על ידי מערכות AI, בהתאם לסטנדרטים טכניים מוגדרים.

מערכות AI לשימוש כללי. החוק מתייחס למקרים מוגדרים של מערכות AI לשימוש כללי ("GPAI") שניתן להשתמש בהן למטרות שונות, לרבות כאשר מערכות אלו משולבת בהמשך עם מערכות אחרות בסיכון גבוה, כמו הדרישה לתיעוד תחזוקת המערכות ושיתוף פעולה עם הרשויות.

מודלים בסיסיים. ה-AI Act  כולל כללים ייחודיים למודלים בסיסיים. מודלים אלה הם מערכות גדולות ומיומנות המסוגלות לבצע מגוון רחב של משימות ייחודיות, כגון יצירת וידאו, טקסט ותמונות, שיחה בשפה רוחבית, מחשוב או יצירת קוד מחשב. דוגמה מובהקת למודלים כאלה הם  LLMs – Large Language Models שנמצאים בבסיס המוצרים ChatGPT, Google Gemini ודומיהם. המערכות הללו חייבות לעמוד בחובות שקיפות מוגדרות כדוגמת סימון וגילוי תוצרים ותכנים ככאלו שנוצרו או שונו על ידי AI, ומסירת הודעה למשתמשי מערכות לזיהוי רגשות או לסיווג בני אדם לקטגוריות חברתיות על סמך נתונים ביומטריים. חובות מחמירות עוד יותר יוטלו לאורך כל שלבי התכנון, הפיתוח, הייצור וההפצה על מודלים בסיסיים בעלי "השפעה גבוהה", שעברו אימון על כמות גדולה של נתונים מורכבים והם בעלי יכולות וביצועים מתקדמים מהממוצע.

חריגים לאכיפת החוק. בכפוף לאמצעי הגנה מתאימים, רשויות אכיפת החוק יורשו לשמור על יכולתן להשתמש במערכות AI שונות. לדוגמה, פרישת כלי בינה מלאכותית בסיכון גבוה שלא עברו את הליך הערכת התאימות כאשר הדבר נדרש במקרים דחופים. בנוסף, יותר השימוש במערכות זיהוי ביומטריות מרחוק בזמן אמת במקומות ציבוריים, כשדבר נחוץ למטרות אכיפת החוק (כגון מניעת איומים לפיגועי טרור, ומצוד אחר חשודים בפשעים חמורים).

תמיכה בחדשנות. חוק הבינה המלאכותית מציג ארגז חול רגולטורי של AI, שיאפשר לחברות ולמפתחי AI לפתח, לבדוק ולאמת מערכות AI חדשניות בהתאם לתנאי שוק מציאותיים, ותחת אמצעי הגנה.

מירשם למערכות AI בסיכון גבוה. ספקים של מערכות AI עצמאיות בסיכון גבוה ומשתמשים שהם גופים ציבוריים במערכת כאלה חייבים להירשם בבסיס נתונים ייעודי של האיחוד האירופי. הספקים נדרשים בנוסף לעמוד בחובות הניטור והדיווח, וחקירת תקריות ותקלות הקשורות ל-AI.

ממשל. משרד AI בתוך הנציבות האירופית יפקח על מודלי הבינה המלאכותית המתקדמים ביותר, יתרום לקידום תקנים ונוהלי בדיקה, ויאכוף את הכללים האחידים בכל מדינות האיחוד. פאנל מדעי של מומחים עצמאיים ייעץ למשרד לגבי מודלים של בינה מלאכותית לשימושים כלליים (GPAI). בנוסף, תפעל מועצת AI כגוף מתאם ומייעץ לנציבות, ויוקם פורום מייעץ לבעלי עניין כדוגמת נציגי תעשייה, ארגונים קטנים ובינוניים, חברות הזנק, החברה האזרחית והאקדמיה.

קנסות. הקנסות על הפרת חוק הבינה המלאכותית נקבעים כאחוז מהמחזור השנתי העולמי של החברה המפרה בשנת הכספים הקודמת או לפי סכום שנקבע מראש, הגבוה מבניהם: 35 מיליון אירו או 7% בגין הפרות של שימושי AI אסורים, 15 מיליון אירו או 3% בגין הפרות הוראות חוק הבינה המלאכותית ו-7.5 מיליון אירו או 1.5% בגין מתן מידע שגוי. השיעור המקסימלי של קנסות על ארגונים קטנים ובינוניים וחברות הזנק יהיה נמוך יותר. אדם או אישיות משפטית אחרת יהיו רשאים להגיש תלונה לרשות הרלוונטית בנוגע לאי ציות לחוק.

מסגרת זמן. חוק הבינה המלאכותית יחול שנתיים לאחר כניסתו לתוקף, למעט חריגים מסוימים. החוק צפוי להכנס לתוקף בחודש הקרוב ואכיפתו תחל ברבעון השני של 2026.