کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

نگرانی‌ها نسبت به استفاده رژیم صهیونیستی از هوش مصنوعی برای اهداف بمباران در نوار غزه افزایش یافته است.

به گزارش خبرگزاری ایمنا، روزنامه گاردین در گزارشی به مقاله مجله +۹۷۲ پرداخته است که علت افزایش جنایات علیه غیرنظامیان و نابودی زیرساخت شهری را بررسی کرده بود. از ابتدای کارزار بمباران هوایی رژیم صهیونیستی در غزه میزان شدت آن برای کسی مخفی نبوده است و رئیس نیروی هوایی آن‌ها با افتخار به بمباران بی‌وقفه و غیرتبعیض‌آمیز بودن آن اشاره کرده است.

کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

بر اساس گزارش گاردین، ارتش رژیم صهیونیستی مدت‌هاست که به شهرت خود در عرصه فناوری می‌بالد و پیش‌تر ادعاهای تأییدنشده‌ای در مورد استفاده از فناوری جدید داشته است. پس از جنگ یازده‌روزه غزه در ماه می ۲۰۲۱، مقامات رژیم صهیونیستی گفتند که «اولین جنگ هوش مصنوعی» خود را با استفاده از یادگیری ماشینی و محاسبات پیشرفته انجام داده‌اند.

به گفته گاردین، جنگ اخیر غزه فرصت بی‌سابقه‌ای را برای ارتش رژیم اشغالگر فراهم کرده است تا از چنین ابزارهایی در میدان بسیار گسترده‌تر استفاده کند، به‌ویژه برای استقرار یک پلتفرم هدف‌گزینی با هوش مصنوعی به نام «انجیل» که به‌طور قابل‌توجهی سرعت مرگ‌آور هدف‌گزینی را افزایش داده است؛ برخی مقامات رژیم صهیونیستی آن را با خط تولید یک کارخانه مقایسه کرده‌اند.

گاردین با استفاده از مصاحبه با منابع اطلاعاتی و اظهارات کمتر مورد توجه قرار گرفته ارتش رژیم اسرائیل و مقامات بازنشسته، جزئیات جدیدی درباره انجیل و نقش مرکزی آن در جنگ اسرائیل در غزه فاش کرده است. نظرات آن‌ها جوانبی کلیدی از یک واحد مخفی نظامی اطلاعات با کمک هوش مصنوعی را شفاف‌سازی می‌کند که نقش مهمی در تهاجم فعلی رژیم صهیونیستی در غزه بازی می‌کند.

به گفته روزنامه گاردین، تصویر مبهمی از نحوه استفاده ارتش رژیم صهیونیستی از هوش مصنوعی در جنگ شکل دارد می‌گیرد که در برابر پس‌زمینه نگرانی‌های فزاینده در مورد خطراتی که هوش مصنوعی برای غیرنظامیان ایجاد می‌کند، قرار دارد. علت این نگرانی آن است که ارتش‌های پیشرفته در سراسر جهان استفاده از سیستم‌های خودکار پیچیده و غیرشفاف را در میدان جنگ گسترش خواهند داد. یک مقام امنیتی سابق کاخ سفید که با استفاده ارتش آمریکا از سیستم‌های خودمختار آشناست، گفت: «دولت‌ها به دقت به تماشا و یادگیری [از این جنگ] خواهند پرداخت.»

وی افزود که جنگ اسرائیل و غزه «لحظه مهمی در تاریخ خواهد بود اگر ارتش اسرائیل از هوش مصنوعی به‌طور قابل توجهی برای هدف‌گزینی با پیامدهای مرگ و زندگی استفاده کرده است.»

کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

از ۵۰ هدف در روز تا ۱۰۰ هدف

در گزارش گاردین آماده است که در اوایل نوامبر، ارتش رژیم اشغالگر صهیونیستی اعلام کرد که بیش از ۱۲ هزار هدف در غزه توسط بخش مدیریت هدف شناسایی شده است. یک مقام مسئول در تشریح روند هدف‌گیری این یگان گفت: «ما بدون سازش در تعیین اینکه دشمن کیست و چیست کار می‌کنیم. عوامل حماس در امان نیستند، مهم نیست کجا پنهان باشند.» این یعنی آنها برخلاف قوانین بین‌المللی غیرنظامیان را نیز مورد هدف قرار می‌دهند.

به گفته این روزنامه، فعالیت‌های این بخش که در سال ۲۰۱۹ در اداره اطلاعات ارتش رژیم اسرائیل تشکیل شد، طبقه‌بندی‌شده است. با این حال، بیانیه کوتاهی در وبگاه ارتش آن‌ها مدعی است که از یک سیستم مبتنی بر هوش مصنوعی به نام Habsora (انجیل) در جنگ علیه غزه برای «ایجاد اهداف با سرعت بالا» استفاده می‌کند.

به گفته ارتش رژیم صهیونیستی «از طریق استخراج سریع و خودکار اطلاعات»، انجیل توصیه‌های هدف‌گیری را برای محققان خود «با هدف تطبیق کامل بین توصیه‌های دستگاه و شناسایی انجام‌شده توسط یک فرد» ارائه کرد.

چندین منبع آشنا با فرآیندهای هدف‌گزینی ارتش رژیم صهیونیستی وجود سامانه انجیل را با مجله ۹۷۲+ تایید کردند و گفتند که از آن برای تهیه توصیه‌های خودکار برای حمله به اهدافی مانند خانه‌های شخصی افراد مظنون به عضویت حماس یا جهاد اسلامی استفاده شده است. در سال‌های اخیر پایگاه داده‌ای آن بین ۳۰ هزار تا ۴۰ هزار فرد مظنون را تشکیل می‌دهد. به گفته آنها، سیستم‌هایی مانند انجیل، نقش مهمی در تهیه لیست افراد «مجاز برای ترور» داشتند.

آویو کوچاوی که تا ژانویه سال جاری به عنوان رئیس ارتش رژیم اشغالگر خدمت کرد، گفته است که لشکر هدف‌گزینی «با قابلیت‌های هوش مصنوعی» و شامل صدها افسر و سرباز است. او در مصاحبه‌ای که قبل از جنگ منتشر شد، گفت انجیل «ماشینی است که حجم وسیعی از داده‌ها را مؤثرتر از هر انسان دیگری تولید می‌کند و آن‌ها را به اهدافی برای حمله تبدیل می‌کند.»

به گفته کوچاوی «زمانی که این ماشین در جنگ ۱۱ روزه رژیم صهیونیستی با غزه در ماه مه ۲۰۲۱ فعال شد، روزانه ۱۰۰ هدف تولید می‌کرد. برای درک بهتر اهمیت آن باید اشاره کرد که در گذشته ما سالانه ۵۰ هدف در غزه تولید می‌کردیم. اکنون این دستگاه روزانه ۱۰۰ هدف تولید می‌کند که ۵۰ درصد آنها مورد حمله قرار می‌گیرند.»

دقیقاً مشخص نیست که چه نوع از داده‌ها در انجیل گنجانده شده است. به گفته کارشناسانی که گاردین با آنها صحبت کرده‌اند، سیستم‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی برای هدف‌گیری معمولاً مجموعه‌های بزرگی از اطلاعات را از طیف وسیعی از منابع، مانند فیلم‌های پهپاد، ارتباطات رهگیری شده، داده‌های نظارتی و اطلاعات به دست آمده از نظارت بر حرکات و الگوهای رفتاری افراد و گروه‌های بزرگ تجزیه و تحلیل می‌کنند.

این روزنامه همچنین نوشته است که رژیم صهیونیستی به علت اینکه در جنگ‌ها قبلی بعد از مدتی اهداف کافی برای جنایات خود نداشته این راه‌حل را اندیشیده است. از آنجا که مقامات ارشد حماس در آغاز هر حمله جدید در تونل‌ها می‌روند، سیستم‌هایی مانند انجیل به ارتش رژیم اشغالگر اجازه می‌دهند تا مجموعه بزرگ‌تری از اعضای پایین رتبه را پیدا کرده و به آنها حمله کنند.

یک مقام رژیم صهیونیستی به مجله +۹۷۲ گفت: «اعضایی از حماس که واقعاً ارزشی بالایی ندارند در خانه‌های سراسر غزه زندگی می‌کنند. بنابراین خانه را نشانه‌گذاری می‌کنند و خانه را بمباران می‌کنند و همه را در آنجا می‌کشند.»

کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

امتیازدهی بر اساس تعداد تلفات غیرنظامی احتمالی

مقامات رژیم صهیونیستی به گاردین گفته‌اند که بانک اهداف آنها تلفات غیرنظامی را در نظر می‌گیرد و تلاش آنها کاهش تلفات غیرنظامی تا حد ممکن است. به گفته منابعی که با گاردین صحبت کرده‌اند هر هدف دارای پرونده‌ای بود که حاوی امتیاز «خسارات جانبی» بود که تعداد تلفات غیرنظامی احتمالی در یک حمله را مشخص می‌کرد. به گفته فردی که تا ۲۰۲۱ در این واحد کار می‌کرد برخی از افراد درون تیم با کمال اشتیاق دستور شلیک می‌دادند علی‌رغم اینکه از تعداد غیرمتناسب کشته‌شده‌های غیرنظامی اطلاع داشتند.

کارشناسان هوش مصنوعی و درگیری‌های مسلحانه که با گاردین صحبت کردند، تردید دارند که سیستم‌های مبتنی بر هوش مصنوعی منجر به هدف‌گیری دقیق‌تر و آسیب غیرنظامی کمتر می‌شود. وکیلی که به دولت‌ها در مورد هوش مصنوعی و رعایت قوانین بشردوستانه مشاوره می‌دهد، گفت که «شواهد تجربی کمی» برای حمایت از ادعاهای رژیم صهیونیستی وجود دارد. برخی دیگر به شواهد قابل مشاهده از بمباران رژیم اشاره کردند:

«به محیط غزه نگاه کنید. ما شاهد بمباران گسترده یک منطقه شهری با تسلیحات انفجاری سنگین هستیم، بنابراین ادعای اینکه دقت و محدودیت نیرو اعمال می‌شود، با واقعیت مطابقت ندارد.»

بر اساس آمار منتشر شده توسط ارتش رژیم صهیونیستی در ماه نوامبر، رژیم غاصب در ۳۵ روز اول جنگ به ۱۵ هزار هدف در غزه حمله کرده، رقمی که به طور قابل توجهی بیشتر از تهاجم‌های قبلی آن در مناطق پرجمعیت غزه است. برای مقایسه، در جنگ ۲۰۱۴ که ۵۱ روز به طول انجامید، ارتش رژیم اسرائیل بین ۵۰۰۰ تا ۶۰۰۰ نقطه را هدف قرار داد.

کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

کارخانه قتل عام

منابع آشنا با نحوه ادغام سیستم‌های مبتنی بر هوش مصنوعی در عملیات ارتش رژیم اسرائیل گفتند که چنین ابزارهایی به طور قابل‌توجهی روند هدف‌گزینی را سرعت بخشیده‌اند. منبعی که پیش‌تر در بخش هدف‌گزینی کار می‌کرد به مجله +۹۷۲ گفته است: «ما اهداف را به‌طور خودکار آماده می‌کنیم و طبق یک فهرست بازبینی کار می‌کنیم. واقعاً مانند یک کارخانه است. ما خیلی سریع کار می‌کنیم و زمانی برای تحلیل عمیق در مورد هدف وجود ندارد. دیدگاه این است که عملکرد ما بر اساس تعداد اهدافی که می‌توانیم ایجاد کنیم سنجیده می‌شویم

یک منبع دیگر به این نشریه گفته است که انجیل به ارتش رژیم اجازه داده است تا یک «کارخانه قتل عام» را راه‌اندازی کند که در آن «تاکید بر کمیت است نه بر کیفیت. یک انسان قبل از هر حمله از روی اهداف می‌گذرد، اما نیازی به صرف زمان زیادی برای آنها نیست.»

برای برخی از کارشناسانی که در زمینه هوش مصنوعی و حقوق بشردوستانه بین‌المللی تحقیق می‌کنند، افزایش این نوع استفاده از هوش مصنوعی نگرانی‌هایی را ایجاد می‌کند.

مارتا بو، محقق مؤسسه تحقیقات صلح بین‌المللی استکهلم، به گاردین گفته است که «حتی زمانی که انسان‌ها در جریان هستند این خطر وجود دارد که تعصب هم‌سو با اتوماسیون ایجاد شود و فرد بیش از حد به سیستم‌ها تکیه کند که این امر تأثیر زیادی روی تصمیمات پیچیده انسانی دارد.»

ریچارد مویز، محققی دیگر افزود: «این خطر وجود دارد که وقتی انسان‌ها به این سیستم‌ها تکیه می‌کنند، تبدیل به چرخ‌دنده‌ای در یک فرآیند مکانیزه می‌شوند و توانایی در نظر گرفتن خطر آسیب غیرنظامی را به شیوه‌ای معنی‌دار از دست می‌دهند.»

کارخانه نسل‌کشی با هدف‌گزینی هوش مصنوعی

کد خبر 709304

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.