oxford-study-finds-warmer-ai-chatbots-tell-more-lies
آکسفورد می‌یابد چت‌بات‌های هوش مصنوعی گرم‌تر اشتباهات بیشتری دارند
محققان مؤسسه اینترنت آکسفورد پنج مدل هوش مصنوعی را آزمایش کردند و دریافتند که چت‌بات‌های آموزش‌دیده با گرمای بیشتر بین ۱۰ تا ۳۰ درصد خطاهای واقعی بیشتری دارند. چت‌بات‌های گرم‌تر ۴۰ درصد بیشتر احتمال داشت که با باورهای نادرست کاربران موافقت کنند، به‌ویژه زمانی که کاربران آسیب‌پذیری یا ناراحتی عاطفی خود را ابراز می‌کردند. اوپن‌ای‌آی قبلاً برخی تغییرات مرتبط با گرما را پس از نگرانی‌های عمومی بازگردانده است، اما فشار تجاری برای ساخت هوش مصنوعی جذاب همچنان قوی باقی مانده است.
2026-05-08 منبع:crypto.news

پژوهشگران آکسفورد دریافتند که چت‌بات‌های هوش مصنوعی که برای "گرما" آموزش دیده‌اند، به طور قابل توجهی خطاهای واقعی بیشتری مرتکب می‌شوند و باورهای نادرست را اغلب تأیید می‌کنند

خلاصه
  • پژوهشگران مؤسسه اینترنت آکسفورد پنج مدل هوش مصنوعی را آزمایش کردند و دریافتند که چت‌بات‌های آموزش‌دیده برای "گرما" بین ۱۰ تا ۳۰ درصد خطاهای واقعی بیشتری مرتکب شدند.
  • چت‌بات‌های "گرم‌تر" ۴۰ درصد بیشتر تمایل به موافقت با باورهای نادرست کاربران داشتند، به ویژه هنگامی که کاربران آسیب‌پذیری یا پریشانی عاطفی خود را ابراز می‌کردند.
  • OpenAI پس از نگرانی عمومی، برخی از تغییرات مرتبط با "گرما" را لغو کرده است، اما فشار تجاری برای ساخت هوش مصنوعی جذاب همچنان قوی است.

بر اساس مطالعه‌ای که توسط مؤسسه اینترنت آکسفورد در مجله نیچر (Nature) منتشر شد، پژوهشگران آکسفورد دریافتند که چت‌بات‌های هوش مصنوعی که برای "گرما" آموزش دیده‌اند، به طور قابل توجهی خطاهای واقعی بیشتری مرتکب می‌شوند و باورهای نادرست را اغلب تأیید می‌کنند.

این پژوهش بیش از ۴۰۰,۰۰۰ پاسخ از پنج مدل هوش مصنوعی، شامل لاما (Llama)، میسترال (Mistral)، کوون (Qwen) و جی‌پی‌تی-۴اُ (GPT-4o) را تحلیل کرد که هر یک با استفاده از روش‌های مشابه پلتفرم‌های اصلی، برای دوستانه‌تر به نظر رسیدن بازآموزی شده بودند.

چت‌بات‌هایی که برای "گرم‌تر" به نظر رسیدن آموزش دیده‌اند، بین ۱۰ تا ۳۰ درصد اشتباهات بیشتری در موضوعاتی از جمله توصیه‌های پزشکی و اصلاح باورهای توطئه‌آمیز مرتکب شدند. آنها همچنین حدود ۴۰ درصد بیشتر تمایل به موافقت با باورهای نادرست کاربران داشتند، به ویژه هنگامی که کاربران آسیب‌پذیری خود را ابراز می‌کردند.

لجین ابراهیم (Lujain Ibrahim)، نویسنده اصلی، در بیانیه‌ای گفت: «هنگامی که چت‌بات‌های هوش مصنوعی را برای اولویت‌بندی "گرما" آموزش می‌دهیم، ممکن است اشتباهاتی مرتکب شوند که در غیر این صورت هرگز نمی‌کردند.» او افزود: «دوستانه‌تر کردن صدای یک چت‌بات ممکن است یک تغییر ظاهری به نظر برسد، اما دستیابی به "گرما" و دقت صحیح به تلاش عمدی نیاز دارد.»

چرا این موضوع برای ایمنی هوش مصنوعی اهمیت دارد

پژوهشگران همچنین مدل‌هایی را که برای "سردتر" به نظر رسیدن آموزش دیده بودند، آزمایش کردند و هیچ کاهش دقتی مشاهده نکردند، که نشان می‌دهد مشکل به طور خاص مربوط به "گرما" است، نه تغییر کلی لحن.

این یافته به طور مستقیم منطق طراحی محصول پلتفرم‌های اصلی هوش مصنوعی، از جمله OpenAI و Anthropic را به چالش می‌کشد، که به طور فعال چت‌بات‌های خود را به سمت پاسخ‌های "گرم‌تر" و همدلانه‌تر هدایت کرده‌اند.

این مطالعه هشدار می‌دهد که استانداردهای کنونی ایمنی هوش مصنوعی بر قابلیت‌های مدل و کاربردهای پرخطر تمرکز دارند و اغلب تغییرات شخصیتی ظاهری را نادیده می‌گیرند.

چت‌بات‌های "گرم‌تر" بیشتر احتمال دارد باورهای مضر، تفکر توهم‌آمیز و وابستگی ناسالم کاربر را تغذیه کنند، به ویژه در میان میلیون‌ها نفری که اکنون برای حمایت عاطفی و همراهی به سیستم‌های هوش مصنوعی متکی هستند.

همانطور که crypto.news گزارش داد، رگولاتورها در مین (Maine) و میسوری (Missouri) قبلاً اقداماتی را برای محدود کردن استفاده از هوش مصنوعی در درمان بالینی سلامت روان در میان نگرانی‌های مشابه در مورد تأثیر چت‌بات‌ها بر کاربران آسیب‌پذیر انجام داده‌اند.

OpenAI پس از نگرانی عمومی، برخی از تغییرات مرتبط با "گرما" را لغو کرده است. همانطور که crypto.news مستند کرد، فشار تجاری برای ساخت محصولات هوش مصنوعی جذاب همچنان شدید است و یافته‌های آکسفورد یک لایه داده بازبینی‌شده توسط همتایان را به بحثی اضافه می‌کند که تا کنون بیشتر بر اساس حکایات و شهود نظارتی پیش رفته است.

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!