خبرگزاری ایمنا بهنقل از د ورج گزارش داد که شرکت Anthropic سیاست استفاده از مدل هوش مصنوعی خود «Claude» را با انتشار نسخهٔ جدیدی از «Responsible Scaling Policy» بازنگری کرده است، در این بهروزرسانی، استفاده از مدل برای توسعهٔ سلاحهای با کارایی بالا( بهویژه سلاحهای CBRN (شیمیایی، بیولوژیک، رادیولوژیک و هستهای)) بهطور کامل ممنوع اعلام شده است؛ اقدامی که در واکنش به افزایش تهدیدات جهانی و در جهت حفظ امنیت بینالمللی صورت گرفته است، علاوه بر محدودیتهای حوزه تسلیحاتی، Anthropic تدابیر حفاظتی در زمینه امنیت سایبری را تشدید کرده و صراحت استفاده از مدل برای تولید بدافزار، شناسایی آسیبپذیریهای شبکه و انجام حملات انکار سرویس را ممنوع کرده است تا از بهرهبرداری مخرب از فناوری جلوگیری شود.
رویکرد این شرکت نسبت به محتوای سیاسی نیز تعدیل شده است: بهجای اعمال ممنوعیتِ مطلق، محدودیتها تنها در مواردی اجرا میشوند که احتمالِ گمراهسازی عمومی یا اخلال در فرایندهای دموکراتیک وجود داشته باشد، این تغییر به Anthropic امکانِ بهرهگیری انعطافپذیرتر از مدل را میدهد و همزمان تلاش میکند امنیت اطلاعات و سلامتِ فرایندهای سیاسی را حفظ کند، در زمینه توصیههای فردی نیز شرکت محدودیتهایی وضع کرده تا استفادهٔ مدل در محیطهای تجاری با دقت کنترل شود؛ هدف این محدودیتها کاهش ریسکهای ناشی از کاربردهای پرخطر در حوزههای مختلف اعلام شده است.
Anthropic همچنین یک تیم مستقل متشکل از کارشناسان سیاستگذاری، امنیت سایبری، تحلیل داده و هوش مصنوعی تشکیل داده تا بهطور مستمر خطرات استفاده نادرست از مدل را شناسایی و مهار کند. این تیم با پژوهشگران، قانونگذاران و جامعه بینالمللی همکاری نزدیکی خواهد داشت تا حرکت شرکت در مسیر توسعهٔ مسئولانهٔ هوش مصنوعی تضمین شود، این تجدیدنظرها نمادی از تلاش Anthropic برای تنظیم و نظمدهی فضای پیچیده هوش مصنوعی است و میتواند الگویی برای سایر نهادهای فعال در این حوزه باشد؛ چرا که با گسترش کاربردهای هوش مصنوعی، اقدامات پیشگیرانه برای تضمین آیندهای امن و پایدار اهمیت فزایندهای پیدا کرده است.


نظر شما