۱۴ آبان ۱۴۰۴ - ۰۹:۲۹
بحران اعتماد در هوش مصنوعی

شرکت گوگل در اقدامی غیرمنتظره مدل زبانی Gemma را از سکو AI Studio خارج کرد. این تصمیم پس از آن گرفته شد که سناتور مارشا بلکبرن این مدل را به تولید محتوای افترا آمیز علیه خود متهم کرد؛ موضوعی که بار دیگر بحث‌های حقوقی و سیاسی درباره مسئولیت شرکت‌های فناوری در قبال خروجی هوش مصنوعی را داغ کرده است.

به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، گوگل به طور ناگهانی مدل «Gemma» را از دسترس توسعه‌دهندگان خارج کرد. این تصمیم پس از آن اتخاذ شد که سناتور جمهوری‌خواه Marsha Blackburn اعلام کرد خروجی این مدل شامل اطلاعات نادرست و مخرب دربارهٔ او بوده است. بلکبرن در بیانیه‌ای گفت: «این نمونه‌ای روشن از خطرات هوش مصنوعی بدون نظارت است» و خواستار پاسخگویی گوگل شد.

سخنگوی گوگل در واکنش به این اتهامات اعلام کرد که شرکت «به‌طور جدی» موضوع را بررسی می‌کند و به همین دلیل تصمیم گرفته است مدل Gemma را موقتاً از دسترس خارج کند. او افزود: «ایمنی و اعتماد کاربران برای ما در اولویت است و در حال کار روی بهبودهای لازم هستیم».

این اتفاق بار دیگر مباحث گسترده‌ای را درباره مسئولیت قانونی شرکت‌های فناوری در قبال محتوای تولیدشده توسط مدل‌های هوش مصنوعی برانگیخته است. برخی سیاست‌مداران آمریکایی معتقدند که باید قوانین سخت‌گیرانه‌تری برای جلوگیری از انتشار محتوای افتراآمیز یا گمراه‌کننده توسط هوش مصنوعی وضع شود، از سوی دیگر، کارشناسان حقوقی هشدار داده‌اند که تعیین مرز میان «خطای فنی مدل» و «افترا» کار ساده‌ای نیست و می‌تواند پیامدهای پیچیده‌ای برای آینده صنعت هوش مصنوعی داشته باشد.

حذف Gemma از پلتفرم AI Studio باعث شد بسیاری از توسعه‌دهندگانی که از این مدل برای پروژه‌های خود استفاده می‌کردند با مشکل مواجه شوند. گوگل وعده داده است که به‌زودی نسخه اصلاح‌شده یا جایگزینی برای این مدل ارائه خواهد کرد، اما زمان مشخصی برای بازگشت آن اعلام نشده است.

کد خبر 920791

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.