
برخی از بزرگترین بازیگران در دنیای هوش مصنوعی، موافقت کردهاند که دسترسی زودهنگام به مدلهای پیشرفته خود را برای آزمایش قبل از انتشار عمومی، به دولت آمریکا بدهند. این اعلامیه یک روز پس از انتشار گزارشی مبنی بر بررسی یک دستور اجرایی در این زمینه توسط دولت رئیس جمهور دونالد ترامپ منتشر شد.
روز سهشنبه، مرکز استانداردهای و نوآوری هوش مصنوعی وزارت بازرگانی اعلام کرد که گوگل، مایکروسافت و xAI پیش از این موافقت کردهاند تا دسترسی پیش از انتشار را برای ارزیابی قابلیتهای این سیستمها به دولت ارائه دهند.
کریس فال، مدیر این مرکز، در بیانیهای گفت: «علم اندازهگیری مستقل و دقیق برای درک هوش مصنوعی پیشرفته و پیامدهای امنیت ملی آن ضروری است. این همکاریهای گسترده صنعتی به ما کمک میکند تا کار خود را در راستای منافع عمومی در یک لحظه حساس، توسعه دهیم.»
روز دوشنبه، نیویورک تایمز گزارش داد که دولت ترامپ در حال بررسی یک دستور اجرایی برای ایجاد یک کارگروه است که مدلهای پیشرفته هوش مصنوعی را قبل از انتشار عمومی بررسی کند. طبق این گزارش، مقامات کاخ سفید هفته گذشته در جلساتی با مدیران Anthropic، Google و OpenAI درباره برنامههای نظارتی بحث و تبادل نظر کردند.
بحثها درباره دستور اجرایی تا حدی به دلیل اعلامیه ماه گذشته Anthropic مبنی بر توانایی مدل پیشگام Claude Mythos آن در یافتن نقاط ضعف در دفاعیات امنیت سایبری، آغاز شد که نگرانیهایی را در میان مقامات درباره پیامدهای امنیت ملی برانگیخت.
Anthropic به جای انتشار عمومی Claude Mythos و احتمالاً ایجاد یک هجوم دیوانهوار برای کشف و رفع اشکالات نرمافزارهایی مانند مرورگرهای وب و سیستمعاملها، دسترسی به آن را به تعداد محدودی از استارتاپها و سازمانها ارائه کرده است. موزیلا اعلام کرد که توانسته با استفاده از Mythos، 271 آسیبپذیری را پیدا کرده و برطرف کند در مرورگر وب فایرفاکس خود.
کاربران در Myriad – پلتفرم بازار پیشبینی که توسط شرکت مادر Decrypt، یعنی Dastan اداره میشود – اعتقاد ندارند که Anthropic مدل Claude Mythos را تا 30 ژوئن به طور گسترده منتشر خواهد کرد و در حال حاضر تنها 13% احتمال برای آن قائل هستند.
جداگانه، دولت با Anthropic بر سر دسترسی به مدلها درگیر شده است. دولت ترامپ و Anthropic در ماه فوریه پس از اینکه Anthropic درخواست دسترسی نامحدود به مدلهای هوش مصنوعی خود را رد کرد، وارد یک اختلاف قراردادی شدند.
پیت هگست، وزیر دفاع، متعاقباً اعلام کرد که Anthropic را به عنوان یک خطر زنجیره تامین برای امنیت ملی معرفی خواهد کرد. یک دادگاه استیناف فدرال از توقف موقت این تعیین وضعیت در طول روند دادگاه خودداری کرد. با این حال، هفته گذشته، Axios گزارش داد که کاخ سفید در حال بررسی این است که آیا مسیر خود را تغییر دهد و همکاری خود را با Anthropic از سر بگیرد یا خیر.
دستور اجرایی احتمالی نشاندهنده تغییر جهت شدید از موضع قبلی ترامپ در مورد مقررات هوش مصنوعی است، زیرا او از نظارت حداقلی بر این صنعت حمایت کرده بود.
او در ژوئیه گذشته گفت: «ما این صنعت را قطعاً به اوج خواهیم رساند، زیرا در حال حاضر این یک نوزاد زیباست که تازه متولد شده. ما باید این نوزاد را بزرگ کنیم و اجازه دهیم رشد کند. ما نمیتوانیم آن را متوقف کنیم. ما نمیتوانیم آن را با سیاست متوقف کنیم. ما نمیتوانیم آن را با قوانین احمقانه و حتی قوانین خنگ متوقف کنیم.»
ترامپ پس از بازگشت به قدرت در سال 2025، الزامات نظارتی دوره بایدن را که از توسعهدهندگان هوش مصنوعی میخواست ارزیابیهای ایمنی انجام دهند و درباره مدلهایی با کاربردهای نظامی بالقوه گزارش دهند، لغو کرد. در اولین روز کاری خود، او یک دستور اجرایی سال 2023 را که توسط رئیس جمهور سابق جو بایدن امضا شده بود و توسعهدهندگان سیستمهای هوش مصنوعی خطرناک را ملزم میکرد نتایج آزمایشهای ایمنی را قبل از انتشار عمومی با دولت به اشتراک بگذارند، لغو کرد.
اخیراً، دولت ترامپ یک چارچوب ملی برای تنظیم هوش مصنوعی پیشنهاد کرده است که استانداردهای ملی برای این فناوری را بدون ایجاد نهاد نظارتی جدید تعیین میکند. این فشار فدرال در بحبوحه تلاشهای ایالتی برای تنظیم هوش مصنوعی صورت میگیرد، که برخی از آنها با مخالفت نهادهای ترامپ مواجه شدهاند – از جمله یک قانون کلرادو در مورد «تبعیض الگوریتمی».