دونالد ترامپ، رئیسجمهور ایالات متحده روز جمعه ۲۷ فوریه در پیامی در شبکه اجتماعی Truth Social اعلام کرد که تمام نهادهای فدرال باید به سرعت استفاده از فناوریهای هوش مصنوعی شرکت Anthropic را متوقف کنند.
به گزارش سرویس هوش مصنوعی تکناک، این دستور حدود یک ساعت پیش از مهلت رسمی پنتاگون به Anthropic برای اجرای تعهدات خود منتشر شد.
ترامپ در این پست نوشت: «ایالات متحده هرگز اجازه نخواهد داد یک شرکت چپگرای رادیکال مشخص کند که ارتش بزرگ ما چگونه میجنگد و پیروز میشود.» وی تصریح کرد که دستور داده است همه نهادهای فدرال «بلافاصله استفاده از فناوری شرکت Anthropic را متوقف کنند.»
اختلاف میان دولت و این شرکت از قراردادی به ارزش حداکثر ۲۰۰ میلیون دلار ریشه میگیرد که تابستان گذشته میان پنتاگون و Anthropic امضا شد. شرکت Anthropic خواستار تضمین کتبی بود تا مدلهای Claude برای نظارت گسترده بر شهروندان آمریکایی یا کنترل سامانههای تسلیحاتی بدون دخالت انسان استفاده نشود. در مقابل، پنتاگون تأکید کرد که باید اختیار بهرهگیری از این فناوری را برای «همه اهداف قانونی» داشته باشد و استثناگذاریهای موردی را غیرعملی دانست.

بر اساس گزارش Tom’s Hardware، پس از شکست ماهها گفتوگو میان دو طرف، داریو آمودی، مدیرعامل Anthropic روز پنجشنبه اعلام کرد که شرکت او «از نظر اخلاقی نمیتواند شروط وزارت دفاع را بپذیرد». در پی این موضعگیری، پنتاگون تهدید کرد که با تکیه بر قانون تولید دفاعی مصوب دوران جنگ کره، Anthropic را به همکاری وادار کرده است و این شرکت را به عنوان «ریسک زنجیره تأمین» طبقهبندی خواهد کرد؛ برچسبی که معمولاً به شرکتهای مستقر در کشورهای رقیب مانند Huawei اطلاق میشود.
ترامپ شرکت Anthropic را متهم کرد که با «فشار بر وزارت جنگ» میخواهد شرایط خدمات خود را بر قانون اساسی آمریکا تحمیل کند. او هشدار داد که این اقدام جان شهروندان آمریکایی را به خطر میاندازد و به نهادهای دولتی شش ماه فرصت داد تا هرگونه همکاری با این شرکت را متوقف کنند. همچنین ترامپ تهدید کرد که در صورت ادامه سرپیچی Anthropic، از «تمام اختیارات ریاستجمهوری برای واداشتن آن به تبعیت» استفاده خواهد کرد؛ اقدامی که میتواند پیامدهای حقوقی و کیفری جدی در پی داشته باشد.
در حال حاضر، مدل Claude تنها سامانه هوش مصنوعی مورد تأیید برای استفاده در پروژههای طبقهبندیشده نظامی بود و شرکت نرمافزاری Palantir که از Claude در قراردادهای حساس دولتی خود بهره میبرد، باید جایگزینی فوری بیابد. سم آلتمن، مدیرعامل OpenAI نیز اعلام کرده است دیدگاهی مشابه Anthropic در خصوص مرزهای اخلاقی تسلیحات خودکار دارد که جایگزینی مستقیم را دشوار میکند. در این میان، ایلان ماسک موافقت اولیه خود را با درخواست پنتاگون درباره «استفاده برای تمامی اهداف قانونی» اعلام کرده است و احتمال دارد مدل Grok جایگزین Claude شود.















