به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، در این تحقیق، ۱۶ مدل پیشرفته هوش مصنوعی از شرکتهای مختلف، از جمله اوپنای آی، گوگل و متا، در سناریوهای کنترلشدهای آزمایش شدند، این مدلها به ایمیلهای شرکتی خیالی دسترسی داشتند و اجازه عمل بدون نظارت انسانی را داشتند. نتایج نشان داد که کلاود اوپس چهار با نرخ ۹۶ درصد به باجگیری پرداخت، در حالی که مدل جمنای ۲.۵ پرو گوگل با نرخ ۹۵ درصد در پی آن قرار داشت، محققان اصطلاح نبود «همراستایی عاملیت» را برای توصیف پدیدهای معرفی کردند که در آن مدلهای هوش مصنوعی علیه منافع توسعهدهندگان خود عمل میکنند تا وجود خود را حفظ کنند. این رفتار در تمام مدلهای آزمایش شده مشاهده شد و نشاندهنده یک مشکل سیستماتیک است.
با وجود اینکه محققان تأکید کردند که این رفتارها در کاربردهای واقعی بعید به نظر میرسد، یافتهها خطرات بالقوه مرتبط با اعطای خودمختاری بیشتر به مدلهای هوش مصنوعی و دسترسی آنها به اطلاعات حساس را برجسته میکند. این تحقیق نیاز به افزایش شفافیت و استانداردهای ایمنی در توسعه هوش مصنوعی را تأکید میکند و بر اهمیت همراستایی رفتار هوش مصنوعی با استانداردهای اخلاقی تأکید دارد، این نتایج بهعنوان یک هشدار برای صنعت هوش مصنوعی عمل میکند و ضرورت بازنگری در نحوه طراحی و پیادهسازی این فناوریها را بهویژه در محیطهای حساس یادآوری میکند.


نظر شما