הפנטגון הורה - מפסיקים להשתמש ב-Claude של אנתרופיק

אולי יעניין אותך גם

נשיא ארצות הברית דונלד טראמפ הורה לכל סוכנויות הממשל הפדרלי להפסיק להשתמש בטכנולוגיות הבינה המלאכותית של חברת Anthropic. זמן קצר לאחר מכן, שר ההגנה פיט הגסת' מימש את איום הממשל והגדיר את החברה כ"סיכון של שרשרת אספקה לביטחון הלאומי" (supply-chain risk), סיווג שמשמעותו איסור על קבלנים וספקים העובדים עם הצבא לקיים קשרי מסחר עם החברה. במקביל, OpenAI מסרה כי הגיעה להסכם עם משרד ההגנה לאספקת טכנולוגיית הבינה המלאכותית שלה לשימוש במערכות מסווגות.

אנתרופיק נדרשה להעניק למשרד ההגנה האמריקאי גישה בלתי מוגבלת למערכת הבינה המלאכותית שלה, בלא מנגנוני ההגנה (safeguards) שהחברה ביקשה להטמיע בשימוש, כך שמערכת הביטחון תוכל להשתמש במה שנרכש ככל שתרצה, כל עוד השימוש עומד בדין.

Anthropic הייתה מוכנה להגיע להסכם ולאשר שימושים חוקיים ב- AI לצרכי ביטחון לאומי, אך ביקשה לשמר מגבלות מסוימות. החברה לא הסכימה שהמודלים המתקדמים שלה ישמשו להפעלה של נשק אוטונומי מלא (fully autonomous weapons), ולא הסכימה לשימוש לצורך מעקב המוני בתוך ארה"ב אחר אזרחים (mass domestic surveillance).

הגדרת אנתרופיק כסיכון לשרשרת האספקה היא מהלך חריג במיוחד, שכן מנגנון דומה שימש בעבר בעיקר כלפי חברות זרות שנתפסו כסיכון ביטחוני. Anthropic הודיעה כי תתקוף את ההחלטה בבית המשפט.

ההוראה להפסיקה להשתמש ב-Claude של אנתרופיק עלולה להשפיע על עבודת גורמי מודיעין פדרליים המשתמשים במודלים של AI לניתוח מודיעיני. לכן נקבעה תקופת מעבר של שישה חודשים עבור הפנטגון וחלק מסוכנויות ההגנה על שארה"ב. מקור: The New York Times (מאת ג'ויאן ברנס ושירה פרנקל).