anthropic-using-fear-based-marketing-to-promote-claude-mythos-sam-altman
آنتروپیک با استفاده از «بازاریابی مبتنی بر ترس» برای تبلیغ کلود میتوس: سم آلتمن
رئیس اوپن‌ای‌آی گفت هشدارها درباره مدل هوش مصنوعی رقیب Anthropic ممکن است بزرگنمایی شده باشد، زیرا توانایی‌های امنیت سایبری آن تحت بررسی قرار گرفته‌اند.
2026-04-23 منبع:decrypt.co

به‌طور خلاصه

  • سم آلتمن، مدیرعامل OpenAI، پیشنهاد کرده است که شرکت رقیب Anthropic از «بازاریابی مبتنی بر ترس» برای تبلیغ مدل Claude Mythos خود استفاده می‌کند.
  • Claude Mythos توانایی بی‌سابقه‌ای در یافتن آسیب‌پذیری‌های نرم‌افزاری از خود نشان داده است.
  • دولت‌ها و محققان در مورد خطرات دفاعی و تهاجمی مرتبط با Mythos هشدار داده‌اند.

سم آلتمن، مدیرعامل OpenAI، در برابر نگرانی‌های فزاینده درباره مدل جدید و قدرتمند هوش مصنوعی Claude Mythos از شرکت رقیب Anthropic موضع گرفت و اظهار داشت که این شرکت از «ترس» برای بازاریابی محصول خود استفاده می‌کند.

آلتمن در پادکست Core Memory که توسط روزنامه‌نگار حوزه فناوری، اشلی ونس، میزبانی می‌شود، استدلال کرد که استفاده از «بازاریابی مبتنی بر ترس» با هدف حفظ هوش مصنوعی در دست «گروه کوچکتری از مردم» انجام می‌شود.

آلتمن گفت: «شما می‌توانید این را به طرق مختلفی توجیه کنید و برخی از آن‌ها واقعی هستند، مانند نگرانی‌های امنیتی مشروع.»

«اما اگر آنچه می‌خواهید این است که 'ما نیاز به کنترل هوش مصنوعی داریم، فقط ما، چون ما افراد قابل اعتماد هستیم'، فکر می‌کنم بازاریابی مبتنی بر ترس احتمالاً مؤثرترین راه برای توجیه آن است.»

آلتمن اضافه کرد که در حالی که نگرانی‌های معتبری در مورد ایمنی هوش مصنوعی وجود دارد، «گفتن این جمله یک بازاریابی باورنکردنی است: 'ما بمبی ساخته‌ایم. ما قصد داریم آن را روی سر شما بیندازیم. ما به شما یک پناهگاه بمب به قیمت ۱۰۰ میلیون دلار خواهیم فروخت. شما به آن نیاز دارید تا تمام کارهایتان را انجام دهد، اما فقط در صورتی که ما شما را به عنوان مشتری انتخاب کنیم.'»

او اشاره کرد که متعادل کردن قابلیت‌های جدید هوش مصنوعی با اعتقاد OpenAI مبنی بر اینکه این فناوری باید در دسترس باشد، «همیشه آسان نیست.»

Claude Mythos از Anthropic

مدل Claude Mythos از Anthropic، که ماه گذشته معرفی شد، توجه شدید محققان، دولت‌ها و صنعت امنیت سایبری را به خود جلب کرده است، به ویژه پس از آزمایش‌هایی که نشان داد این مدل می‌تواند به طور مستقل آسیب‌پذیری‌های نرم‌افزاری را شناسایی کرده و عملیات سایبری پیچیده‌ای را اجرا کند. این مدل فقط از طریق یک برنامه محدود به مجموعه‌ای از سازمان‌ها توزیع می‌شود.

این عرضه، شکاف گسترده‌تری را در صنعت هوش مصنوعی در مورد نحوه استقرار سیستم‌های قدرتمند منعکس می‌کند؛ در حالی که برخی شرکت‌ها بر دسترسی کنترل‌شده تأکید دارند، برخی دیگر برای توزیع گسترده‌تر به منظور تسریع نوآوری و درک فناوری بحث می‌کنند.

Mythos به نقطه کانونی این بحث تبدیل شده است. قابلیت‌های این مدل توسط Anthropic هم به عنوان یک پیشرفت دفاعی – که امکان شناسایی سریع‌تر نقص‌های حیاتی نرم‌افزاری را فراهم می‌کند – و هم به عنوان یک خطر بالقوه تهاجمی در صورت سوءاستفاده، مطرح شده است. اوایل این ماه، در طول آزمایش‌ها، صدها آسیب‌پذیری را در مرورگر فایرفاکس موزیلا شناسایی کرد و همچنین توانایی انجام شبیه‌سازی حملات سایبری چند مرحله‌ای را نشان داد.

Anthropic دسترسی به این سیستم را از طریق پروژه Glasswing محدود کرده است و به شرکت‌های منتخبی از جمله آمازون، اپل و مایکروسافت اجازه آزمایش قابلیت‌های آن را داده است. این شرکت همچنین منابع قابل توجهی را به حمایت از تلاش‌های امنیتی متن‌باز اختصاص داده و استدلال می‌کند که مدافعان باید از این فناوری قبل از اینکه به طور گسترده‌تری در دسترس قرار گیرد، بهره‌مند شوند.


کارشناسان امنیتی هشدار می‌دهند که همان قابلیت‌هایی که به Mythos اجازه شناسایی آسیب‌پذیری‌ها را می‌دهند، می‌توانند برای بهره‌برداری از آن‌ها در مقیاس وسیع نیز استفاده شوند. آزمایش‌های موسسه امنیت هوش مصنوعی بریتانیا نشان داد که این مدل می‌تواند به طور مستقل عملیات سایبری پیچیده را به انجام برساند.

این مدل همچنین محدودیت‌های سیستم‌های ارزیابی موجود هوش مصنوعی را آشکار کرده است، و Anthropic اذعان کرده است که بسیاری از معیارهای فعلی امنیت سایبری برای اندازه‌گیری قابلیت‌های جدیدترین سیستم آن کافی نیستند.

با این حال، گروهی از محققان هفته گذشته ادعا کردند که توانسته‌اند یافته‌های Mythos را با استفاده از مدل‌های در دسترس عموم بازتولید کنند.

علیرغم درخواست‌هایی در بخش‌هایی از دولت ایالات متحده برای توقف استفاده از این فناوری به دلیل نگرانی‌ها در مورد کاربردهای بالقوه آن در جنگ و نظارت، آژانس امنیت ملی طبق گزارش‌ها، آزمایش نسخه پیش‌نمایش این مدل را در شبکه‌های طبقه‌بندی شده آغاز کرده است. در بازار پیش‌بینی Myriad، که متعلق به شرکت مادر Decrypt، Dastan است، کاربران احتمال ۴۹ درصدی برای انتشار Claude Mythos به عموم تا ۳۰ ژوئن قائل شده‌اند.

آلتمن اظهار داشت که لفاظی‌ها در مورد سیستم‌های هوش مصنوعی بسیار خطرناک ممکن است با بهبود قابلیت‌ها افزایش یابد، اما استدلال کرد که نباید همه این ادعاها را به طور کامل پذیرفت.

او گفت: «لفاظی‌های بسیار بیشتری در مورد مدل‌هایی که انتشارشان بیش از حد خطرناک است، وجود خواهد داشت. همچنین مدل‌های بسیار خطرناکی نیز وجود خواهند داشت که باید به روش‌های متفاوتی منتشر شوند. من مطمئنم که Mythos مدل عالی برای امنیت سایبری است، اما فکر می‌کنم ما برنامه‌ای داریم که در مورد نحوه ارائه این نوع قابلیت به جهان، احساس خوبی داریم.»

آلتمن همچنین پیشنهاداتی مبنی بر کاهش هزینه‌های زیرساختی OpenAI را رد کرد و گفت که این شرکت علی‌رغم روایت‌های در حال تغییر، به گسترش ظرفیت محاسباتی خود ادامه خواهد داد.

او گفت: «نمی‌دانم این از کجا می‌آید… مردم واقعاً می‌خواهند داستان عقب‌نشینی را بنویسند. اما خیلی زود دوباره اینطور خواهد شد که 'OpenAI چقدر بی‌پرواست. چطور می‌توانند این مقدار دیوانه‌وار را خرج کنند؟'»

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!