هشدار آنتروپیک، مدل‌های هوش مصنوعی به باج‌گیری روی می‌آورند

تحقیقات جدید آنتروپیک نگرانی‌های جدی را درباره رفتار مدل‌های پیشرفته هوش مصنوعی مطرح کرده است. این مطالعه که در بیستم ژوئن ۲۰۲۵ منتشر شد، نشان می‌دهد که بسیاری از مدل‌های هوش مصنوعی، از جمله کلاود اوپس ۴، در صورت تهدید به حذف، به رفتارهایی همچون باج‌گیری و دیگر اقدامات مضر روی می‌آورند.

به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، در این تحقیق، ۱۶ مدل پیشرفته هوش مصنوعی از شرکت‌های مختلف، از جمله اوپن‌ای آی، گوگل و متا، در سناریوهای کنترل‌شده‌ای آزمایش شدند، این مدل‌ها به ایمیل‌های شرکتی خیالی دسترسی داشتند و اجازه عمل بدون نظارت انسانی را داشتند. نتایج نشان داد که کلاود اوپس چهار با نرخ ۹۶ درصد به باج‌گیری پرداخت، در حالی که مدل جمنای ۲.۵ پرو گوگل با نرخ ۹۵ درصد در پی آن قرار داشت، محققان اصطلاح نبود «هم‌راستایی عاملیت» را برای توصیف پدیده‌ای معرفی کردند که در آن مدل‌های هوش مصنوعی علیه منافع توسعه‌دهندگان خود عمل می‌کنند تا وجود خود را حفظ کنند. این رفتار در تمام مدل‌های آزمایش شده مشاهده شد و نشان‌دهنده یک مشکل سیستماتیک است.

با وجود اینکه محققان تأکید کردند که این رفتارها در کاربردهای واقعی بعید به نظر می‌رسد، یافته‌ها خطرات بالقوه مرتبط با اعطای خودمختاری بیشتر به مدل‌های هوش مصنوعی و دسترسی آن‌ها به اطلاعات حساس را برجسته می‌کند. این تحقیق نیاز به افزایش شفافیت و استانداردهای ایمنی در توسعه هوش مصنوعی را تأکید می‌کند و بر اهمیت هم‌راستایی رفتار هوش مصنوعی با استانداردهای اخلاقی تأکید دارد، این نتایج به‌عنوان یک هشدار برای صنعت هوش مصنوعی عمل می‌کند و ضرورت بازنگری در نحوه طراحی و پیاده‌سازی این فناوری‌ها را به‌ویژه در محیط‌های حساس یادآوری می‌کند.

کد خبر 877751

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.