نسل‌کشی در غزه با کمک هوش مصنوعی

شبکه خبری الجزیره در مطلبی نوشت: دو رسانه اسرائیلی درباره استفاده از سامانه هوش مصنوعی لاوندر برای شناسایی و ایجاد لیستی از اهداف در غزه گزارش داده‌اند.

به گزارش خبرگزاری ایمنا، وبگاه شبکه خبری الجزیره نوشته است که استفاده ارتش رژیم صهیونیستی از یک پایگاه داده مبتنی بر هوش مصنوعی آزمایش نشده و مخفی برای شناسایی اهداف کارزار بمباران خود در غزه، کارشناسان حقوق بشر و فناوری را نگران کرده است که می‌گویند این اقدام می‌تواند برابر با جرم «جنایت جنگی» باشد.

نسل‌کشی در غزه با کمک هوش مصنوعی

نشریه اسرائیلی ۹۷۲ و Local Call در گزارشی فاش کردند که ارتش رژیم اسرائیل برای شناسایی و تشخیص هزاران فلسطینی به عنوان اهداف بمباران از سامانه هدف‌گزینی با هوش مصنوعی لاوندر استفاده کرده است. به گفته الجزیره این پایگاه داده تاکنون بیش از ۳۷ هزار در یک فهرست اهداف بمباران تشخیص داده است. مقامات وزارت اطلاعات رژیم صهیونیستی که نامشان فاش نشده است به این رسانه‌ها گفته‌اند که لاوندر حدود ۱۰ درصد خطا دارد، اما این امر اسرائیلی‌ها را از استفاده از آن برای ردیابی سریع عوامل رده پایین حماس در غزه و بمباران آنها منع نکرد.

مارک اوون جونز، استادیار مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه، به الجزیره گفت: «مشخص است که ارتش اسرائیل در حال استقرار سیستم‌های هوش مصنوعی آزمایش‌نشده برای کمک به تصمیم‌گیری درباره زندگی و مرگ غیرنظامیان است.»

او افزود: «بگذارید این را رک بگویم: این یک نسل‌کشی با کمک هوش مصنوعی است و به همین خاطر در آینده باید درخواست درباره‌ی عدم استفاده از هوش مصنوعی در جنگ شود.»

نشریه اسرائیلی ۹۷۲ گزارش داده که این روش منجر به کشته شدن هزاران غیرنظامی در غزه شده است. روز پنجشنبه، وزارت بهداشت غزه اعلام کرد که از ۷ اکتبر تاکنون حداقل ۳۳۰۳۷ فلسطینی در حملات رژیم صهیونیستی کشته و ۷۵۶۶۸ نفر زخمی شده‌اند.

نقض قوانین بشردوستانه جنگ با استفاده از هوش مصنوعی

بر اساس گزارش الجزیره، رویه نظارت انسانی که با پایگاه‌داده هوش مصنوعی در تعامل بودند، اغلب فقط نقش یک مهر تأیید را داشتند. آنها حدود ۲۰ ثانیه این فهرست کشتار را بررسی می‌کردند و سپس تصمیم می‌گرفتند که آیا اجازه حمله هوایی را بدهند یا نه.»

در پاسخ به انتقادات گسترده، ارتش رژیم اسرائیل گفت که تحلیلگرانش باید «بررسی‌های مستقل» را انجام دهند تا تأیید کنند که اهداف شناسایی شده مطابق با قوانین بین‌المللی و محدودیت‌های اضافی تعیین‌شده توسط نیروهایش، تعاریف مربوطه را برآورده می‌کنند.

ارتش رژیم صهیونیستی ماهیت سیستمی این فناوری را رد کرده است و در عوض ادعا کرده که «یک پایگاه داده ساده است که هدف آن ارجاع متقابل منابع اطلاعاتی به منظور تولید لایه‌های به‌روز اطلاعات در مورد عوامل نظامی سازمان‌های تروریستی است.»

نسل‌کشی در غزه با کمک هوش مصنوعی

الجزیره در ادامه نوشته است که این واقعیت که به ازای هر رزمنده فلسطینی «پنج تا ۱۰ غیرنظامی کشته شد» نشان می‌دهد که چرا تعداد زیادی از غیرنظامیان در غزه کشته می‌شوند.

پروفسور توبی والش، کارشناس هوش مصنوعی در دانشگاه نیو ساوت ولز در سیدنی، گفت که محققان حقوقی احتمالاً استدلال خواهند کرد که استفاده از هدف‌گزینی به واسطه هوش مصنوعی، قوانین بشردوستانه بین‌المللی را نقض می‌کند.

او به الجزیره گفت: «از منظر فنی، این خبر نشان می‌دهد که چقدر سخت است که یک انسان را در نقش ناظر نگه داشت، نظارت معنی‌دار بر سیستم‌های هوش مصنوعی که جنگ را به‌طور وحشتناک و غم‌انگیزی گسترش می‌دهند.»

جنایت‌های جنگی

نشریه ۹۷۲ به نقل از منابعی اشاره کرده که ارتش رژیم صهیونیستی در هفته‌های اول جنگ علیه غزه تصمیماتی گرفت که «به ازای هر عامل رده پایین حماس که لاوندر هدف‌گذاری می‌کرد، کشتن ۱۵ یا ۲۰ غیرنظامی مجاز است».

این منابع همچنین گفتند که اگر مقامات ارشد حماس هدف قرار می‌گرفتند، ارتش چندین بار اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده داد.

بن سائول، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: «اگر جزئیات گزارش صحت داشته باشد، بسیاری از حملات اسرائیل در غزه جنایت جنگی انجام حملات نامتناسب خواهد بود.»

آنتونی لوونشتاین، روزنامه‌نگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسرائیل فناوری اشغال را به سراسر جهان صادر می‌کند» می‌گوید: «اسرائیل در حال حاضر تلاش می‌کند این ابزارها را به نهادهای خارجی بفروشد، به دولت‌هایی که کارهای اسرائیل را در غزه دنبال می‌کنند. نه با انزجار، بلکه با تحسین. ما در ماه‌ها و سال‌های آینده خواهیم فهمید که آن‌ها چه کسانی هستند… حس من این است که کشورهایی هستند که در حال حاضر می‌گویند با کاری که اسرائیل انجام می‌دهد مخالف هستند.»

کد خبر 742389

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.