על אנתרופיק להסיר את אמצעי הבטיחות ממודל הבינה המלאכותית שלה עד יום שישי, או לשאת בהשלכות של איבוד החוזה מול הפנטגון וכניסה לרשימה השחורה של ארה"ב - כך איים אמש הפנטגון, בניסיון להפעיל לחץ על אנתרופיק להסיר את אמצעי הבטיחות של מודל הבינה המלאכותית שלה, קלוד, בכל הנוגע לשימוש צבאי.
לפי מקורות המעורים בנושא, אנתרופיק מסרבת להסיר לעת עתה הגבלות על הטמעת הטכנולוגיה בכלי נשק הנשלטים על ידי בינה מלאכותית, או הגבלות על השימוש בטכנולוגיה עבור מעקב המוני של אזרחים אמריקאים. אנתרופיק חוששת כי מערכות AI אינן אמינות מספיק להפעלת נשק באופן עצמאי, ושהשימוש בטכנולוגיה למעקב המוני אינו מוסדר רגולטורית.
ככל שאנתרופיק לא תענה לדרישת הפנטגון, הפנטגון מאיים כי יפעיל את "חוק ייצור הביטחון", שיחייב אותה לספר את קלוד ללא מגבלות עבור הפנטגון, ויוסיף את אנתרופיק לרשימה המפוקפקת של גורמים המהווים סיכון לשרשרת האספקה, הכוללת בדרך כלל גורמים מרוסיה או סין. לפי תפיסת הפנטגון, האחריות לשימוש החוקי בטכנולוגיה מוטלת על הפנטגון, כך שאנתרופיק לא צריכה להגבילה מראש. מקור: CNN (מאת: הדס גולד והיילי בריטצקי).
