۲۶ تیر ۱۴۰۴ - ۰۷:۰۰
باگ خطرناک در Meta AI

یک باگ امنیتی در سیستم چت‌بات هوش مصنوعی Meta امکان دسترسی کاربران به پرامپت‌ها و پاسخ‌های خصوصی دیگران را فراهم می‌کرد. این نقص از دسامبر ۲۰۲۴ کشف شد و در ژانویه ۲۰۲۵ توسط تیم امنیتی Meta برطرف گردید.

به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، باگ بزرگ متا توسط Sandeep Hodkasia، بنیان‌گذار شرکت تست امنیت AppSecure، در تاریخ بیست‌وششم دسامبر ۲۰۲۴ گزارش شد. وی با بررسی ترافیک شبکه هنگام ویرایش پرامپت‌ها دریافت که سرور Meta به جای بررسی هویت کاربر، فقط عدد شناسایی (ID) پرامپت را پردازش می‌کند. بدین صورت، تغییر عدد قابل حدس، منجر به نمایش پرامپت و پاسخ‌های AI خصوصی کاربران دیگر می‌شد.

Meta برای گزارش این باگ ۱۰ هزار دلار از طریق برنامه باگ بانتی به Hodkasia پرداخت کرد و خود مشکل را در تاریخ بیست‌وچهارم ژانویه ۲۰۲۵ برطرف کرد. بررسی‌های شرکت نشان داده که تاکنون نشانه‌ای از سوءاستفاده یا سو بهره‌برداری مشاهده نشده است.

Meta تأیید کرده که این باگ به دلیل بررسی ناکافی صحت دسترسی رخ داده و در ژانویه اصلاح شده است، همچنین هیچ نشانه‌ای از سوء‌استفاده یافت نشده و محقق امنیتی نیز پاداش گرفته است .

این نقص نشان می‌دهد که طراحی امنیت در ابزارهای AI نیازمند بررسی دقیق‌تری است؛ بسیاری از سیستم‌ها هنوز به صورت پیشگیرانه برای جلوگیری از چنین مشکلاتی آماده نیستند، در حالی که Meta تلاش می‌کند با طراحی هشدارها، پست‌های عمومی اشتباهی را کنترل کند، این اتفاقات روایت ترس‌انگیزی از چالش‌های سریع‌التوسعه در حوزه هوش مصنوعی هستند.

این اتفاق به ما یادآوری می‌کند که حتی پلتفرم‌های بزرگ هم ممکن است در مسیر پیشرفته‌سازی AI، دچار خطاهای امنیتی شوند. Meta با واکنش سریع و پرداخت پاداش، گامی خوب برای رفع مشکل برداشت اما همچنان باید توجه بیشتری به طراحی دقیق‌تر و بررسی‌های در دسترسی داشته باشد. کاربران نیز بهتر است در اضافه کردن اطلاعات حساس به چت‌بات‌ها محتاط باشند تا از احتمال افشا جلوگیری شود.

کد خبر 885256

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.