ai-giant-anthropic-anthropac-clash-trump-administration
شرکت بزرگ هوش مصنوعی Anthropic برای راه‌اندازی «AnthroPAC» در پی تقابل با دولت ترامپ ثبت نام کرد
توسعه‌دهنده کلود، شرکت Anthropic، یک کمیته اقدام سیاسی تأمین‌شده توسط کارکنان را در میان نبرد حقوقی با کاخ سفید و افزایش نظارت انتخاباتی بر هوش مصنوعی ثبت کرده است.
2026-04-04 منبع:decrypt.co

به طور خلاصه

  • شرکت Anthropic اسناد خود را به کمیسیون انتخابات فدرال (FEC) ارسال کرده است تا یک کمیته اقدام سیاسی با بودجه کارمندان به نام AnthroPAC ایجاد کند.
  • این اقدام پس از اختلاف با دولت ترامپ بر سر استفاده نظامی از مدل هوش مصنوعی Claude صورت می‌گیرد.
  • این پرونده نشان می‌دهد که چگونه شرکت‌های هوش مصنوعی در حال آماده شدن برای مشارکت مستقیم‌تر در سیاست ایالات متحده هستند.

غول هوش مصنوعی Anthropic مدارک لازم را به کمیسیون انتخابات فدرال (Federal Election Commission) ارسال کرده است تا یک کمیته اقدام سیاسی (political action committee) ایجاد کند، که این امر نشان‌دهنده ورود عمیق‌تر این شرکت به سیاست ایالات متحده است، زیرا رقابت بر سر سیاست‌گذاری‌های هوش مصنوعی و نبرد جاری آن با کاخ سفید شدت می‌گیرد.

این شرکت مستقر در سانفرانسیسکو، کمیته اقدام سیاسی Anthropic PBC، معروف به AnthroPAC را در پرونده‌ای که روز جمعه ثبت شد، به ثبت رساند. این کمیته به عنوان یک صندوق جداگانه و مستقل که به شرکت مرتبط است، سازماندهی شده و مجاز به انجام کمک‌های مالی سیاسی با بودجه‌ای است که توسط مشارکت‌های کارمندان تأمین می‌شود. بر اساس گزارشی از بلومبرگ، سقف این مشارکت‌ها برای هر کارمند ۵۰۰۰ دلار تعیین شده است.

کمیته‌های اقدام سیاسی (PAC) با بودجه کارمندان به شرکت‌ها اجازه می‌دهند تا کمک‌های داوطلبانه از کارمندان جمع‌آوری کرده و این وجوه را به نامزدها و کمیته‌های سیاسی توزیع کنند.

سایر شرکت‌های فناوری که کمیته‌های اقدام سیاسی (PAC) ایجاد کرده‌اند شامل گوگل، مایکروسافت و آمازون هستند. طبق داده‌های مالی کمپین از گروه تحقیقاتی غیرانتفاعی OpenSecrets، در سال ۲۰۲۴، تنها این سه PAC بیش از ۲.۳ میلیون دلار به نامزدهای سیاسی ایالات متحده کمک کردند. در حالی که کمک‌ها هم به جمهوری‌خواهان و هم به دموکرات‌ها اهدا شد، کمک‌های مالی در طول فصل کمپین ۲۰۲۴ بیشتر به سمت نامزدهای حزب جمهوری‌خواه (GOP) متمایل بود.

این اقدام Anthropic در بحبوحه تشدید درگیری با دولت رئیس جمهور دونالد ترامپ بر سر استفاده نظامی از سیستم‌های هوش مصنوعی آن صورت می‌گیرد.

در ماه فوریه، ترامپ به آژانس‌های فدرال دستور داد تا استفاده از فناوری Anthropic را متوقف کنند، این اتفاق پس از اختلافی بین این شرکت و پنتاگون بر سر چگونگی استقرار مدل هوش مصنوعی Claude توسط ارتش رخ داد. با وجود اولتیماتوم وزارت دفاع ایالات متحده، Anthropic از خواسته‌های پنتاگون برای حذف تدابیر امنیتی که استفاده از این سیستم را برای نظارت گسترده داخلی یا تسلیحات کشنده کاملاً خودمختار ممنوع می‌کند، سر باز زد.

در ماه مارس، Anthropic شکایتی فدرال را مطرح کرد و تصمیم دولت مبنی بر برچسب زدن این شرکت به عنوان "ریسک زنجیره تأمین" امنیت ملی را به چالش کشید، برچسبی که پیمانکاران پنتاگون را از تجارت با این شرکت منع می‌کرد. این شرکت استدلال کرد که این اقدام تلافی‌جویانه به دلیل امتناع آن از کاهش محدودیت‌ها در استفاده‌های نظامی از هوش مصنوعی آن بوده است.

هفته گذشته، قاضی منطقه ایالات متحده، ریتا لین، حکم منع موقت را برای جلوگیری از اجرای این برچسب صادر کرد و دریافت که اقدامات دولت به احتمال زیاد حقوق اصلاحیه اول و روند قانونی Anthropic را نقض کرده است.

Anthropic به طور عمومی به تأسیس این PAC اشاره‌ای نکرده است. با این حال، این اقدام در حالی صورت می‌گیرد که قانون‌گذاری هوش مصنوعی به یک موضوع رو به رشد در واشنگتن پیش از انتخابات میان‌دوره‌ای ایالات متحده تبدیل شده است و بر این نکته تأکید دارد که توسعه‌دهندگان هوش مصنوعی چگونه امیدوارند تا سال ۲۰۲۷ بر سیاست‌گذاری‌ها تأثیر بگذارند. در ماه فوریه، گزارشی از CNBC بیان کرد که در سال ۲۰۲۶، Anthropic ۲۰ میلیون دلار کمک مالی به Public First Action، گروهی که از تلاش‌ها برای توسعه تدابیر امنیتی هوش مصنوعی حمایت می‌کند، اهدا کرد.

Anthropic بلافاصله به درخواست دکریپت (Decrypt) برای اظهار نظر پاسخی نداد.

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!