ממשל ארה"ב אינו יכול להפעיל את כוחו כדי להעניש או לדכא את ביטויה של אנתרופיק, באופן בלתי חוקי, נקמני ושלא בהתאם לחוק - אלו הם טענותיה של אנתרופיק, המפעילה את מודל ה-AI קלוד (Claude), בשתי תביעות שהגישה בקליפורניה ובוושינגטון נגד החלטת משרד ההגנה האמריקאי. אנתרופיק נאלצה לערער על החלטת המשרד לאחר שהוא סיווג אותה בחודש שעבר כ"סיכון של שרשרת אספקה לביטחון הלאומי" (supply-chain risk).
הסכסוך, שנמשך כבר שבועות, נסוב סביב השאלה האם לצבא צריכה להיות גישה בלתי מוגבלת למערכות הבינה המלאכותית של אנתרופיק. אנתרופיק סרבה לאפשר לטכנולוגיה שלה לשמש למעקב המוני אחר אמריקאים או להפעלת נשק אוטונומי לחלוטין. שר ההגנה טען כי לפנטגון צריכה להיות גישה למערכות בינה מלאכותית "לכל מטרה חוקית" וכי אין להגביל אותה. אנטרופיק כינתה את פעולות המשרד "חסרות תקדים ובלתי חוקיות", וטוענת כי החוקה בארה"ב אינה מאפשרת לממשל להפעיל את כוחו העצום כדי להעניש חברה על "ביטוי מוגן" (אמונת החברה לגבי "מגבלות שירותי הבינה המלאכותית שלה ובנושאים חשובים של בטיחות בינה מלאכותית").
אנתרופיק טוענת כי ההליך לסיווג החברה כסיכון של שרשרת האספקה לא היה תקין - לא נעשתה הערכת סיכונים, לא ניתנה לאנתרופיק הזדמנות סבירה להגיב, לא התקבלה החלטה בכתב ולא נמסרה הודעה לקונגרס. אנתרופיק מאשימה גם את נשיא ארה"ב בחריגה מסמכות כאשר הורה לכל הסוכנויות הפדרליות להפסיק את השימוש בטכנולוגיה של אנתרופיק. אנתרופיק מבקשת מבית המשפט להשהות באופן מיידי את הסיווג שניתן לה בזמן שהתביעה מתנהלת ובסופו של דבר לבטל ולחסום ניסיונות מצד הממשל לסווגה ככזו. מקור: TechCrunch (מאת: רבקה בלן).
