هوش مصنوعی چگونه به ابزار قتل تبدیل می‌‎شود؟

از قراردادهای میلیاردی پنتاگون با OpenAI و xAI تا سامانه‌های اسرائیلی که هزاران فلسطینی را بدون تأیید انسانی هدف قرار دادند؛ هوش مصنوعی حالا به مرگبارترین سلاح قرن تبدیل شده است.

به گزارش خبرگزاری ایمنا، در سال‌های اخیر، کاربرد هوش مصنوعی (AI) در حوزه نظامی به‌طور چشمگیری افزایش پیدا کرده است، این فناوری به‌خصوص در زمینه‌هایی همچون شناسایی اهداف، تحلیل داده‌های اطلاعاتی و تصمیم‌گیری‌های رزمی به کار گرفته می‌شود، با این حال استفاده از AI در جنگ‌ها و عملیات نظامی، نگرانی‌های جدی اخلاقی و حقوقی را ایجاد کرده است؛ یکی از مسائل اساسی در این زمینه، ماهیت «دوگانه» فناوری‌های AI است، این فناوری‌ها قابلیت استفاده در حوزه‌های غیرنظامی و نظامی را دارند و همین موضوع مرز بین کاربردهای مشروع و نامشروع آن‌ها را مبهم می‌کند و امکان سوءاستفاده را افزایش می‌دهد. برای مثال، به‌کارگیری مدل‌های عمومی AI همچون GPT و Grok در عملیات نظامی می‌تواند به تصمیم‌گیری‌های نادرست و آسیب به غیرنظامیان منجر شود. از سوی دیگر، به‌کارگیری AI در جنگ‌ها ممکن است موجب کاهش نقش انسان در فرایند تصمیم‌گیری شود، این مسئله می‌تواند مسئولیت‌پذیری در قبال اقدامات نظامی را تضعیف کند و احتمال وقوع اشتباهات و نقض حقوق بشر را افزایش دهد، برخی پژوهشگران هشدار داده‌اند که استفاده از AI بدون نظارت انسانی کافی، می‌تواند احتمال هدف‌گیری غیرنظامیان و نقض قوانین بشردوستانه بین‌المللی را بالا ببرد.

در سال‌های اخیر، با شتاب‌گرفتن تحولات فناورانه در حوزه هوش مصنوعی، نهادهای نظامی آمریکا نیز به‌طور فزاینده‌ای به بهره‌گیری از این فناوری برای ارتقای توان دفاعی، امنیتی و اطلاعاتی خود روی آورده‌اند. وزارت دفاع ایالات متحده، از طریق همکاری با شرکت‌های پیشرو در عرصه هوش مصنوعی، به‌دنبال توسعه سیستم‌هایی است که بتوانند در حوزه‌های حساس جنگی، تحلیل داده، و تصمیم‌سازی استراتژیک به‌کار گرفته شوند.

پنتاگون ماه گذشته نیز قراردادی ۲۰۰ میلیون دلاری با شرکت OpenAI برای توسعه قابلیت‌های اولیه هوش مصنوعی در حوزه‌های نظامی و امنیتی منعقد کرده بود؛ اقدامی که به گفته تحلیل‌گران، نشان‌دهنده تعمیق همکاری بین دولت آمریکا و شرکت‌های پیشرو در عرصه هوش مصنوعی است.

بر اساس دستور کاخ سفید در آوریل ۲۰۲۵، دولت فدرال موظف به گسترش استفاده از هوش مصنوعی در نهادهای مختلف شده است. در همین راستا، دونالد ترامپ رئیس‌جمهور آمریکا با لغو دستور اجرایی سال ۲۰۲۳ جو بایدن، مقررات مربوط به شفاف‌سازی و نظارت بر این فناوری را کاهش داده است.

این همکاری‌ها نشان‌دهنده ورود ایالات متحده به مرحله‌ای نوین از ترکیب فناوری و قدرت نظامی است؛ مرحله‌ای که در آن هوش مصنوعی نه‌تنها ابزار پشتیبان، بلکه بخشی تعیین‌کننده از دکترین امنیت ملی آمریکا خواهد بود.

هوش مصنوعی چگونه به ابزار قتل می‌‎شود؟

چالش‌های اخلاقی و حقوقی هوش مصنوعی نظامی

زینب اصغریان، استاد دانشگاه و کارشناس مسائل بین الملل در گفت‌وگو با خبرنگار ایمنا با اشاره به اهداف کلان وزارت دفاع آمریکا اظهار کرد: وزارت دفاع آمریکا به‌طور رسمی هدف خود را از همکاری با شرکت‌های هوش مصنوعی، افزایش «سرعت تصمیم‌گیری رزمی»، «پیش‌بینی‌پذیری تهدیدات» و «کاهش خطای انسانی» در محیط‌های جنگی اعلام کرده است، این امر بخشی از برنامه کلان موسوم به «فرماندهی و کنترل همه دامنه مشترک» یا JADC2 است که تلاش دارد یک شبکه منسجم از داده، تحلیل و اقدام در میدان نبرد ایجاد کند، به گفته مؤسسه بروکینگز، وزارت دفاع در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه هوش مصنوعی دولت فدرال را دریافت کرده است، از دیگر اهداف پنتاگون، کاهش هزینه‌های دفاعی از طریق خودکارسازی فرایندها و رقابت مؤثر با چین در زمینه تسلیحات هوشمند است، گزارش «کمیسیون ملی امنیت و هوش مصنوعی آمریکا» (NSCAI) در سال ۲۰۲۱ تصریح می‌کند که تسلط بر هوش مصنوعی «عنصر کلیدی پیروزی در رقابت راهبردی با چین» خواهد بود.

وی درباره نقش شرکت‌های خصوصی هوش مصنوعی افزود: شرکت OpenAI، توسعه‌دهنده مدل‌های زبانی همچون GPT-4، قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا برای ارائه نسخه‌های سفارشی‌شده مدل‌های خود در قالب برنامه «OpenAI برای حکومت» امضا کرده است. این برنامه شامل تولید ابزارهایی برای تحلیل اطلاعات طبقه‌بندی‌شده، استخراج الگوهای تهدید، و پشتیبانی از فرماندهان میدانی در تصمیم‌گیری است، در طرف دیگر، شرکت xAI به رهبری ایلان ماسک، مدل «Grok برای حکومت» را توسعه داده است، این مدل که بر پایه نسخه چهارم Grok (Grok-4) ساخته شده، به تحلیل فوری داده‌های حسگر، سیگنال‌های جنگ الکترونیک و استخراج توصیه‌های تاکتیکی در محیط‌های رزمی می‌پردازد. منابعی همچون رویترز و PC Gamer، تأیید می‌کنند که xAI نیز قراردادی مشابه ۲۰۰ میلیون دلاری با وزارت دفاع منعقد کرده است.

این استاد دانشگاه، به موضوع چارچوب‌های نظارتی پرداخت و گفت: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی کاربرد AI در حوزه نظامی را تصویب کرد، این اصول شامل پنج بند کلیدی‌اند: مسئولیت‌پذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان آسیب نرساندن غیرضروری، در سطح عملیاتی که پنتاگون از چارچوبی سنجش و ارزیابی موسوم به «Assurance Framework» استفاده می‌کند که به گفته مؤسسه RAND، ارزیابی‌های بر پایه شواهد فنی را در چرخه عمر سیستم تضمین می‌کند، همچنین اسناد قانونی همچون قانون مجوز دفاع ملی «National Defense Authorization Act (NDAA) 2021» و دستور اجرایی رئیس‌جمهور در اکتبر ۲۰۲۳، سازوکارهای نظارت مستقل و گزارش‌دهی شفاف برای پروژه‌های AI نظامی را الزام‌آور کرده‌اند و در سطح بین‌المللی، ایالات متحده یکی از امضاءکنندگان بیانیه مسئولیت‌پذیری در استفاده نظامی از AI با حضور ۵۱ کشور عضو OECD است.

اصغریان درباره چالش‌های اخلاقی و حقوقی گفت: استفاده از AI در تصمیم‌گیری‌های مرگ‌بار، مناقشات گسترده‌ای در حوزه اخلاق جنگ ایجاد کرده است. به گفته دیده‌بانی حقوق بشر، حذف یا کاهش حلقه انسانی در فرایند شناسایی و انهدام هدف، نقض اصول بنیادین حقوق بشردوستانه تلقی می‌شود، مدل‌های AI عمومی نظیر GPT و Grok ماهیت «دو منظوره» (dual-use) دارند؛ به‌گونه‌ای که نمی‌توان به‌روشنی مرز میان کاربرد غیرنظامی و نظامی آن‌ها را مشخص کرد. مؤسسه CSET وابسته به دانشگاه جورج‌تاون هشدار داده است که این وضعیت، زمینه‌ساز نشت فناوری و نقض رژیم کنترل صادرات خواهد بود.

وی به پیامدهای گسترده نظامی‌سازی هوش مصنوعی اشاره کرد و بیان کرد: شورای روابط خارجی آمریکا معتقد است سرعت بی‌سابقه در توسعه سلاح‌های م برپایه هوش مصنوعی توسط آمریکا، چین و روسیه، نشان‌دهنده شکل‌گیری یک رقابت تسلیحاتی فناورانه است. تحلیل شورای روابط خارجی آمریکا (CFR) هشدار می‌دهد که نبود چارچوب‌های بین‌المللی الزام‌آور، می‌تواند به وضعیتی مشابه جنگ سرد منجر شود، با توجه به تحولات پرشتاب جهانی، ایران باید راهبردهای دفاعی خود را به‌ویژه در حوزه دفاع شناختی بازنگری کند؛ زیرا در نبردهای آینده، برتری نه به‌صرف با سلاح، بلکه با داده، تحلیل و سرعت تصمیم‌گیری خواهد بود.

این استاد دانشگاه به موضوع «خصوصی‌سازی جنگ»، شباهت فنی میان سامانه‌های رژیم‌صهیونیستی در غزه و پروژه‌های هوش مصنوعی وزارت دفاع آمریکا، و در نهایت پیامدهای راهبردی برای جمهوری اسلامی ایران اشاره و عنوان کرد: مشارکت شرکت‌های خصوصی در امنیت ملی، خطر «خصوصی‌سازی جنگ» و تضاد منافع میان سود تجاری و اصول انسانی را تشدید می‌کند، بنیاد New America در این زمینه هشدار می‌دهد که این وضعیت، دموکراسی و نظارت مدنی را تضعیف می‌سازد، مطالعات میدانی نشان می‌دهد که ارتش رژیم صهیونیستی در حملات به غزه از سیستم‌هایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف انسانی استفاده کرده است.»

هوش مصنوعی به‌عنوان تهدید نوینی در راهبردهای دفاعی ایران مطرح شده و چالش‌های اخلاقی و امنیتی قابل توجهی را به همراه دارد. ورود فناوری‌های هوش مصنوعی به ساختار نظامی کشورهای قدرتمند، تحولی بزرگ در شیوه‌های جنگی ایجاد کرده است که ایران را ناگزیر به بازطراحی فوری دکترین دفاعی خود کرده است.

اصغریان توضیح داد: در روزنامه فرانسوی لوموند نوشت شده است که سامانه Lavender، با تحلیل داده‌های تماس، موقعیت مکانی و شبکه‌های اجتماعی، لیستی از ۳۷٬۰۰۰ مرد فلسطینی به‌عنوان مظنون تولید کرده بود. این لیست بدون راستی‌آزمایی دقیق انسانی، به عملیات هوایی تبدیل می‌شد، سامانه Gospel نیز داده‌های تصویری را برای رهگیری فرماندهان مقاومت در منازلشان استفاده می‌کرد. پروژه‌ای با عنوان «?Where’s Daddy» (پدر کجاست؟) اهداف را زمانی که در خانه بودند، مورد حمله قرار می‌داد.

وی به مقایسه میان سیستم‌های رژیم‌صهیونیستی و سامانه‌های هوش مصنوعی آمریکایی پرداخت و گفت: تحلیل تطبیقی میان سامانه‌های Lavender و Gospel با مدل‌های توسعه‌یافته توسط OpenAI و xAI حاکی از هم‌گرایی در چند حوزه است؛ حوزه نخست تحلیل داده‌های انبوه غیرساختاریافته که هر دو از داده‌های تماس، مکانی و رفتاری برای پیش‌بینی تهدید استفاده می‌کنند؛ دوم تصمیم‌سازی خودکار یا نیمه‌خودکار: است که خروجی سیستم به‌عنوان مبنای عملیات نظامی قرار می‌گیرد که بدون بررسی عمیق انسانی انجام می‌شود؛ سوم کاهش نقش انسان در حلقه تصمیم‌گیری مشابه آنچه RAND در پروژه‌های وزارت دفاع ایالات متحده آمریکا نسبت به آن هشدار داده است. چهارم پیش‌بینی تهدید بر اساس همبستگی آماری، نه شواهد حقوقی همان ضعف ساختاری که به قتل احتمالی غیرنظامیان در غزه منجر شد. پنجم مقیاس‌پذیری بالا است که هدف آن ، تولید سریع و بلادرنگ اهداف ضربتی در مقیاس بزرگ است؛ مشابه آنچه پنتاگون در سند «Data Advantage»(مزیت اطلاعات) به آن تصریح کرده است.

این استاد دانشگاه گفت: با توجه به تحولات فوق، ایران برای حفظ بازدارندگی مؤثر و تأمین امنیت ملی در قرن بیست‌ویکم، ناگزیر است دکترین دفاعی خود را به‌صورت فوری و در سه محور بازطراحی کند. محور نخست شامل توسعه سامانه بومی تحلیل اطلاعات پهپادی است که توانایی پردازش فوری تصاویر ویدئویی را داشته باشد. محور دوم طراحی مدل زبانی فارسی ویژه امنیت ملی به منظور تحلیل اسناد طبقه‌بندی‌شده و حمایت از فرماندهی میدانی است، محور سوم نیز ایجاد ساختار فرماندهی ترکیبی انسان‌ماشین به منظور تسریع در تصمیم‌گیری‌های بحرانی به شمار می‌رود.

اصغریان تصریح کرد: ورود هوش مصنوعی به ساختار نظامی آمریکا بدون تردید آغازگر عصری نوین در راهبردهای جنگی است، با این حال در غیاب چارچوب‌های اخلاقی قوی، شفافیت نهادی و نظارت حقوقی مؤثر، این تحولات می‌توانند تهدیدی جدی برای امنیت بین‌المللی و حقوق بشر به شمار روند. از این رو، ایران باید این تغییرات را تنها از منظر فناوری مشاهده نکند، بلکه آن‌ها را به‌عنوان نشانه‌ای از تحول در قواعد بازی جهانی بپذیرد، تأخیر در سازگاری با نظم فناورانه جدید به معنای عقب‌ماندگی راهبردی در سطوح حیاتی ملی خواهد بود. البته برخلاف ادعاهای ظاهری اخلاق‌مدارانه آمریکا، ایران به‌طورقطع اخلاق‌مدارانه عمل خواهد کرد و هرگز اجازه نخواهد داد فناوری جایگزین تصمیم‌گیری انسانی شود.

هوش مصنوعی چگونه به ابزار قتل می‌‎شود؟

به گزارش ایمنا، در عصر حاضر، هوش مصنوعی (AI) به‌عنوان یک فناوری دوگانه، هم در حوزه‌های غیرنظامی و هم در نظامی، به‌طور فزاینده‌ای در حال گسترش است. این ویژگی دوگانه، چالش‌های جدیدی را در زمینه‌های اخلاقی، حقوقی و امنیتی به‌وجود آورده است. در سطح بین‌المللی، فقدان یک چارچوب حکمرانی جامع برای استفاده از AI در حوزه نظامی، موجب ایجاد خلاءهای نظارتی و افزایش خطرات ناشی از سوءاستفاده‌های احتمالی شده است؛ در ایالات متحده، وزارت دفاع با هدف افزایش سرعت تصمیم‌گیری رزمی، پیش‌بینی تهدیدات و کاهش خطای انسانی، به‌طور گسترده‌ای از AI در عملیات‌های نظامی استفاده می‌کند، این امر با امضای قراردادهایی با شرکت‌های خصوصی همچون OpenAI و xAI، به‌منظور توسعه مدل‌های هوش مصنوعی سفارشی برای تحلیل اطلاعات طبقه‌بندی‌شده و پشتیبانی از فرماندهی میدانی، همراه بوده است، با این حال استفاده از این فناوری‌ها بدون نظارت انسانی کافی، نگرانی‌هایی را در مورد مسئولیت‌پذیری و احتمال نقض حقوق بشر به‌وجود آورده است، در سطح بین‌المللی، در حالی که برخی کشورها به تدوین اصول اخلاقی برای استفاده از AI در حوزه نظامی پرداخته‌اند، اما هنوز چارچوب‌های الزام‌آور و نظارت مؤثری برای جلوگیری از سوءاستفاده‌های احتمالی وجود ندارد، به عنوان نمونه بیانیه مسئولیت‌پذیری در استفاده نظامی از AI که توسط ۵۱ کشور امضا شده است، بیشتر جنبه توصیه‌ای دارد و فاقد سازوکارهای اجرایی مؤثر است، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهره‌برداری از مزایای این فناوری، خطرات و چالش‌های آن را نیز در نظر بگیرد. توسعه و اجرای اصول اخلاقی، نظارت مؤثر، و همکاری‌های بین‌المللی می‌تواند به استفاده مسئولانه و انسانی از AI در جنگ‌ها کمک کند.

کد خبر 886645

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.