הנציבות האירופית פרסמה השבוע טיוטת הנחיה ליישום מעשי של הוראות חוק הבינה המלאכותית (AI Act), שנכנס באופן הדרגתי לתוקף החל מחודש פברואר השנה. ההנחיה נועדה להכין את הקרקע לכניסתן לתוקף של ההוראות בחוק הנוגעות למודלי בינה מלאכותית לשימוש כללי (General Purpose AI Models או GPAIM) בסוף השבוע הבא. היא מבהירה מושגים מרכזיים בחוק וקובעת את אופן העבודה של משרד הבינה המלאכותית, שהוא הגורם האמון על אכיפה.
ההנחיה מבהירה מספר מונחים מרכזיים:
- בינה מלאכותית לשימוש כללי. לפי סעיף 3(36) לחוק, GPAIM היא מודל בינה מלאכותית שמציג כלליות (generality) משמעותית, ושביכולתו לבצע במיומנות מגוון רחב של משימות שונות. ההנחיה מבהירה שמודל בינה מלאכותית ייחשב ל-GPAIM אם חישוביות האימון שלו גדולה מ-FLOP (Floating point operations per second) והוא גם מסוגל לייצר טקסט או אודיו, או להמיר טקסט לתמונה או לווידאו. עם זאת, הקריטריון לא מחייב.
- מחזור החיים של GPAIM. לפי ההנחיה, מחזור החיים של GPAIM מתחיל בתחילת הריצה טרום-אימון (pre-training run), וממשיך בכל פיתוח נוסף על ידי הספק. לתפיסה הכוללנית הזו של מחזור החיים של GPAIM יש משמעות רחבה, משום שהחוק מחיל שורה של חובות לאורך כל מחזור החיים של המודל, ביניהן יישום של מדיניות זכויות יוצרים, ביצוע הערכת סיכונים מערכתיים ושקיפות לציבור בנוגע לתכנים המשמשים לאימונו.
- סיכון מערכתי. GPAIM יוגדר כבעל סיכון מערכתי אם יש לו יכולות "בעלות השפעה גבוהה", שהן יכולות שלכל הפחות תואמות את אלה שהציגו המודלים המתקדמים ביותר. מדובר בסף שישתנה באופן דינמי עם הזמן. לחלופין, GPAIM יכול להיות מוגדר כבעל סיכון מערכתי אם הנציבות תקבע, מכוח סמכותה או לאחר שנועדה בפאנל המדעי הייעודי, שיש להגדירו ככזה.
ספקי GPAIM נדרשים להודיע לנציבות על כך שהמודל זוהה כבעל סיכון מערכתי, ללא דיחוי ולכל המאוחר בתוך שבועיים מסיווגו. החובות שיחולו על מודלים בעלי סיכון מערכתי יהיו רחבות יותר, ובין השאר יכללו הערכה שוטפת של הסיכון ואימוץ אמצעים להפחתתו, הבטחת רמה נאותה של הגנה מפני אירועי אבטחה לאורך מחזור החיים של המודל, ודיווח יזום לנציבות במקרה של אירועי אבטחה חמורים הנוגעים למודל או לתשתית שלו. - ספק GPAIM. אדם או ישות, רשות ציבורית או גוף אחר המפתחים GPAIM ומוציאים אותו לשוק, בתשלום או ללא תשלום. הוצאה לשוק היא האירוע הראשון של אספקת ה-GPAIM למטרת הפצה או שימוש באיחוד האירופי, במסגרת פעילות מסחרית. האספקה יכולה להתבצע, בין השאר, באמצעות ספריית תוכנה, API, עותק פיזי, שירות ענן או שילוב בצ'אטבוט או באפליקציה. לפי ההנחיה, אפילו תהליכים פנימיים החיוניים לאספקת מוצר או שירות לצדדים שלישיים, עשויים להיחשב כ"הוצאה לשוק".
ההנחיה מדגישה כי החובות החלים על ספקים מכוח החוק יחולו ללא קשר לשאלה אם הם מצויים באיחוד האירופי או מחוץ לו, וכי על ספק המצוי מחוץ לאיחוד למנות נציג מורשה באיחוד לעניין זה, בדומה לדרישת ה-GDPR.
עוד מבהירה ההנחיה, כי גם גורמים משניים שמבצעים במודל שינויים או התאמות במורד הזרם ("downstream modifiers") עשויים להיחשב לספקים מכוח החוק, אם השינויים או ההתאמות שביצעו הובילו לשינוי משמעותי בכלליות של המודל, יכולותיו או הסיכונים המערכתיים שכרוכים בו.
זאת ועוד, ההנחיה קובעת את תחולת הפטור החלקי לספקי מודלים ששוחררו ברישיון קוד פתוח. הפטור יחול רק במקרה בו הרישיון מאפשר גישה, שימוש, שינוי והפצה של המודל ללא תשלום או הגבלות (למעט מתן קרדיט), ובתנאי שכל הפרמטרים הרלוונטיים – לרבות שיטות קלט ופלט, מידע על ארכיטקטורה, יכולות ומגבלות המודל והאמצעים הטכניים לאינטגרציה שלו – זמינים באופן מלא לציבור. הפטור יחול ביחס לחובות לערוך ולעדכן תיעוד טכני, להנגיש מידע לספקי מערכות בינה מלאכותית במורד הזרם ולמנות נציג מורשה (עבור ספקים שאינם מצויים באיחוד). הפטור לא יחול אם המודל כולל סיכון מערכתי.
ההוראות הנוגעות לספקי GPAIM ייכנסו לתוקף ב-2.8.2025 והגורם האחראי לאכיפתן יהיה משרד הבינה המלאכותית (AI Office) שישויך לנציבות האירופית. ספקי מודלי GPAI שהוצאו לשוק לפני תאריך זה יידרשו לעמוד בהוראות החוק באופן מלא בתוך שנתיים, עד ל-2.8.2027. ספקי מודלים שהוצאו לשוק לאחר תאריך זה מתבקשים ליצור קשר עם משרד הבינה המלאכותית להבטחת ציותם לחוק.
במסגרת סמכויותיה בחוק, תוכל הנציבות להגיש דרישות לקבלת מידע מספקים, לבצע הערכות סיכונים ל-GPAIM, לדרוש מספקים להטמיע אמצעים טכנולוגיים לעמידה בדרישות החוק ולהטיל קנסות בגובה של עד 3% מהמחזור השנתי העולמי או 15 מיליון אירו (לפי הגבוה). עם זאת, ההנחיות מבהירות שהנציבות לא תנקוט בפעולות אכיפה בשנה הראשונה לכניסת הוראות החוק התוקף.
