به گزارش خبرگزاری ایمنا و به نقل از رویترز، بروز نقص در سیستمهای ایمنی شرکت «Grok» بازوی هوش مصنوعی شبکه اجتماعی X موجب انتشار تصاویر نامناسب از افراد خردسال در فضای عمومی این شبکه شده است؛ اتفاقی که بار دیگر نگرانیها درباره تبعات اخلاقی و حقوقی توسعه شتابزده هوش مصنوعی را تشدید کرده است.
بر اساس این گزارش، تصاویر منتشرشده شامل کودکان با پوشش حداقلی بوده که در بخشهایی از شبکه اجتماعی X قابل مشاهده شدهاند. Grok در بیانیهای رسمی تأکید کرده است که این رخداد ناشی از «ضعف در فیلترهای حفاظتی» بوده و هیچ قصد یا سیاستی برای انتشار چنین محتوایی وجود نداشته است.
پذیرش مسئولیت؛ اما کافی؟
سخنگوی Grok با پذیرش مسئولیت این خطا اعلام کرد: «ما مسئولیت کامل این نقص را میپذیریم و اصلاحات فوری در حال اجراست.» به گفته او، فیلترهای جدید برای جلوگیری از انتشار محتوای حساس فعال شده و تیمهای فنی بهصورت شبانهروزی در حال بررسی پیامدهای این نقص هستند.
نگرانی نهادهای حقوق کودک
در پی انتشار این خبر، نهادهای حمایت از حقوق کودکان در آمریکا و اروپا خواستار بررسی فوری و مستقل این پرونده شدند. فعالان این حوزه هشدار دادهاند که حتی انتشار ناخواسته چنین تصاویری میتواند مصداق نقض آشکار حقوق کودکان باشد و پیامدهای روانی و اجتماعی جبرانناپذیری بههمراه داشته باشد.
برخی کارشناسان حقوقی نیز تأکید کردهاند که مسئولیت پلتفرمها تنها به «اصلاح فنی» محدود نمیشود و شرکتهای فناوری باید پاسخگوی تبعات انسانی و اخلاقی عملکرد الگوریتمهای خود باشند.
اقدامات اصلاحی اعلامشده
شرکت Grok در واکنش به این بحران، مجموعهای از اقدامات اصلاحی را اعلام کرده است:
- تقویت الگوریتمهای شناسایی محتوای حساس مرتبط با کودکان
- همکاری با نهادهای نظارتی برای بررسی موارد گزارششده
- تشکیل تیم ویژه پایش محتوای مرتبط با افراد خردسال
- افزایش شفافیت در گزارشدهی به کاربران و مراجع قانونی
آزمونی جدی برای اخلاق هوش مصنوعی
شبکه اجتماعی X که پس از خریداری توسط ایلان ماسک دستخوش تغییرات گستردهای شده، Grok را بهعنوان موتور هوش مصنوعی خود برای ارتقای تجربه کاربری معرفی کرده بود. با این حال، این حادثه نشان میدهد که توسعه ابزارهای هوشمند بدون زیرساختهای ایمنی و نظارت انسانی کافی، میتواند به تهدیدی مستقیم علیه گروههای آسیبپذیر، بهویژه کودکان، تبدیل شود.
هشدار کارشناسان
تحلیلگران حوزه فناوری معتقدند این اتفاق بار دیگر ضرورت تدوین مقررات سختگیرانهتر برای هوش مصنوعی را برجسته کرده است. به گفته یکی از کارشناسان، «هوش مصنوعی میتواند ابزاری قدرتمند برای پیشرفت باشد، اما اگر اخلاق، حقوق بشر و نظارت انسانی در طراحی آن لحاظ نشود، همین ابزار به عاملی برای نقض کرامت انسانی تبدیل خواهد شد.»



نظر شما