هشدار درباره خطر سایبری چت‌بات‌های هوش مصنوعی

مقامات انگلیسی به تازگی درباره ریسک سایبری چت‌بات‌های هوش مصنوعی هشدار داده‌اند.

به گزارش سرویس ترجمه ایمنا، مرکز ملی امینتی سایبری انگلیس (NCSC) اعلام کرده است که کارشناسان موفق نشده‌اند مشکلات امنیتی احتمالی مربوط به الگوریتم‌هایی را به صورت کامل شناسایی کنند که قادر به ایجاد واکنش‌های مشابه انسان هستند و به مدل‌های زبانی بزرگ (LLM) مشهور هستند. طبق گزارش این مرکز، چنین ابزارهایی ممکن است خطرهایی به همراه داشته باشد، به ویژه اگر مدل‌های زبانی بزرگ به دیگر عناصر فرآیندهای تجاری سازمان متصل شده باشند.

مقامات انگلیسی در زمینه خطرات سایبری مربوط به هوش مصنوعی هشدار داده‌اند، آن‌ها اعلام کرده‌اند که چت‌بات‌های مبتنی بر هوش مصنوعی را می‌توان برای انجام کارهای خطرناک فریب داد. به نظر می‌رسد روش‌هایی کشف شده است که نشان می‌دهد با ارسال دستورهای نامناسب به چت‌بات‌ها می‌توان آن‌ها را گمراه کرد، اقدامات محافظتی را دور زد و این ابزارها را از کار انداخت. برای نمونه در صورتی که یک هکر سوالات مشخصی را در چت‌بات یک بانک وارد کند، می‌تواند سیستم را گمراه کند و تراکنش‌های غیرقانونی انجام دهد.

به گفته مرکز ملی امینتی سایبری انگلیس (NCSC)، سازمان‌هایی که با استفاده از مدل‌های زبانی بزرگ (LLM) سرویس‌هایی تولید می‌کنند، لازم است همانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه می‌کنند، مراقب آن باشند. از آنجایی که مقامات سراسر جهان در حال استفاده از مدل‌های زبانی بزرگ مانند ChatGPT هستند، لازم است از خطرهای احتمالی ناشی از آن نیز آگاهی لازم را داشته باشند تا احتمال بروز هرگونه مشکلی را کاهش دهند.

کد خبر 684173

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.