به گزارش خبرگزاری ایمنا، در سالهای اخیر، کاربرد هوش مصنوعی (AI) در حوزه نظامی بهطور چشمگیری افزایش پیدا کرده است، این فناوری بهخصوص در زمینههایی همچون شناسایی اهداف، تحلیل دادههای اطلاعاتی و تصمیمگیریهای رزمی به کار گرفته میشود، با این حال استفاده از AI در جنگها و عملیات نظامی، نگرانیهای جدی اخلاقی و حقوقی را ایجاد کرده است؛ یکی از مسائل اساسی در این زمینه، ماهیت «دوگانه» فناوریهای AI است، این فناوریها قابلیت استفاده در حوزههای غیرنظامی و نظامی را دارند و همین موضوع مرز بین کاربردهای مشروع و نامشروع آنها را مبهم میکند و امکان سوءاستفاده را افزایش میدهد. برای مثال، بهکارگیری مدلهای عمومی AI همچون GPT و Grok در عملیات نظامی میتواند به تصمیمگیریهای نادرست و آسیب به غیرنظامیان منجر شود. از سوی دیگر، بهکارگیری AI در جنگها ممکن است موجب کاهش نقش انسان در فرایند تصمیمگیری شود، این مسئله میتواند مسئولیتپذیری در قبال اقدامات نظامی را تضعیف کند و احتمال وقوع اشتباهات و نقض حقوق بشر را افزایش دهد، برخی پژوهشگران هشدار دادهاند که استفاده از AI بدون نظارت انسانی کافی، میتواند احتمال هدفگیری غیرنظامیان و نقض قوانین بشردوستانه بینالمللی را بالا ببرد.
در سالهای اخیر، با شتابگرفتن تحولات فناورانه در حوزه هوش مصنوعی، نهادهای نظامی آمریکا نیز بهطور فزایندهای به بهرهگیری از این فناوری برای ارتقای توان دفاعی، امنیتی و اطلاعاتی خود روی آوردهاند. وزارت دفاع ایالات متحده، از طریق همکاری با شرکتهای پیشرو در عرصه هوش مصنوعی، بهدنبال توسعه سیستمهایی است که بتوانند در حوزههای حساس جنگی، تحلیل داده، و تصمیمسازی استراتژیک بهکار گرفته شوند.
پنتاگون ماه گذشته نیز قراردادی ۲۰۰ میلیون دلاری با شرکت OpenAI برای توسعه قابلیتهای اولیه هوش مصنوعی در حوزههای نظامی و امنیتی منعقد کرده بود؛ اقدامی که به گفته تحلیلگران، نشاندهنده تعمیق همکاری بین دولت آمریکا و شرکتهای پیشرو در عرصه هوش مصنوعی است.
بر اساس دستور کاخ سفید در آوریل ۲۰۲۵، دولت فدرال موظف به گسترش استفاده از هوش مصنوعی در نهادهای مختلف شده است. در همین راستا، دونالد ترامپ رئیسجمهور آمریکا با لغو دستور اجرایی سال ۲۰۲۳ جو بایدن، مقررات مربوط به شفافسازی و نظارت بر این فناوری را کاهش داده است.
این همکاریها نشاندهنده ورود ایالات متحده به مرحلهای نوین از ترکیب فناوری و قدرت نظامی است؛ مرحلهای که در آن هوش مصنوعی نهتنها ابزار پشتیبان، بلکه بخشی تعیینکننده از دکترین امنیت ملی آمریکا خواهد بود.

چالشهای اخلاقی و حقوقی هوش مصنوعی نظامی
زینب اصغریان، استاد دانشگاه و کارشناس مسائل بین الملل در گفتوگو با خبرنگار ایمنا با اشاره به اهداف کلان وزارت دفاع آمریکا اظهار کرد: وزارت دفاع آمریکا بهطور رسمی هدف خود را از همکاری با شرکتهای هوش مصنوعی، افزایش «سرعت تصمیمگیری رزمی»، «پیشبینیپذیری تهدیدات» و «کاهش خطای انسانی» در محیطهای جنگی اعلام کرده است، این امر بخشی از برنامه کلان موسوم به «فرماندهی و کنترل همه دامنه مشترک» یا JADC2 است که تلاش دارد یک شبکه منسجم از داده، تحلیل و اقدام در میدان نبرد ایجاد کند، به گفته مؤسسه بروکینگز، وزارت دفاع در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه هوش مصنوعی دولت فدرال را دریافت کرده است، از دیگر اهداف پنتاگون، کاهش هزینههای دفاعی از طریق خودکارسازی فرایندها و رقابت مؤثر با چین در زمینه تسلیحات هوشمند است، گزارش «کمیسیون ملی امنیت و هوش مصنوعی آمریکا» (NSCAI) در سال ۲۰۲۱ تصریح میکند که تسلط بر هوش مصنوعی «عنصر کلیدی پیروزی در رقابت راهبردی با چین» خواهد بود.
وی درباره نقش شرکتهای خصوصی هوش مصنوعی افزود: شرکت OpenAI، توسعهدهنده مدلهای زبانی همچون GPT-4، قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا برای ارائه نسخههای سفارشیشده مدلهای خود در قالب برنامه «OpenAI برای حکومت» امضا کرده است. این برنامه شامل تولید ابزارهایی برای تحلیل اطلاعات طبقهبندیشده، استخراج الگوهای تهدید، و پشتیبانی از فرماندهان میدانی در تصمیمگیری است، در طرف دیگر، شرکت xAI به رهبری ایلان ماسک، مدل «Grok برای حکومت» را توسعه داده است، این مدل که بر پایه نسخه چهارم Grok (Grok-4) ساخته شده، به تحلیل فوری دادههای حسگر، سیگنالهای جنگ الکترونیک و استخراج توصیههای تاکتیکی در محیطهای رزمی میپردازد. منابعی همچون رویترز و PC Gamer، تأیید میکنند که xAI نیز قراردادی مشابه ۲۰۰ میلیون دلاری با وزارت دفاع منعقد کرده است.
این استاد دانشگاه، به موضوع چارچوبهای نظارتی پرداخت و گفت: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی کاربرد AI در حوزه نظامی را تصویب کرد، این اصول شامل پنج بند کلیدیاند: مسئولیتپذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان آسیب نرساندن غیرضروری، در سطح عملیاتی که پنتاگون از چارچوبی سنجش و ارزیابی موسوم به «Assurance Framework» استفاده میکند که به گفته مؤسسه RAND، ارزیابیهای بر پایه شواهد فنی را در چرخه عمر سیستم تضمین میکند، همچنین اسناد قانونی همچون قانون مجوز دفاع ملی «National Defense Authorization Act (NDAA) 2021» و دستور اجرایی رئیسجمهور در اکتبر ۲۰۲۳، سازوکارهای نظارت مستقل و گزارشدهی شفاف برای پروژههای AI نظامی را الزامآور کردهاند و در سطح بینالمللی، ایالات متحده یکی از امضاءکنندگان بیانیه مسئولیتپذیری در استفاده نظامی از AI با حضور ۵۱ کشور عضو OECD است.
اصغریان درباره چالشهای اخلاقی و حقوقی گفت: استفاده از AI در تصمیمگیریهای مرگبار، مناقشات گستردهای در حوزه اخلاق جنگ ایجاد کرده است. به گفته دیدهبانی حقوق بشر، حذف یا کاهش حلقه انسانی در فرایند شناسایی و انهدام هدف، نقض اصول بنیادین حقوق بشردوستانه تلقی میشود، مدلهای AI عمومی نظیر GPT و Grok ماهیت «دو منظوره» (dual-use) دارند؛ بهگونهای که نمیتوان بهروشنی مرز میان کاربرد غیرنظامی و نظامی آنها را مشخص کرد. مؤسسه CSET وابسته به دانشگاه جورجتاون هشدار داده است که این وضعیت، زمینهساز نشت فناوری و نقض رژیم کنترل صادرات خواهد بود.
وی به پیامدهای گسترده نظامیسازی هوش مصنوعی اشاره کرد و بیان کرد: شورای روابط خارجی آمریکا معتقد است سرعت بیسابقه در توسعه سلاحهای م برپایه هوش مصنوعی توسط آمریکا، چین و روسیه، نشاندهنده شکلگیری یک رقابت تسلیحاتی فناورانه است. تحلیل شورای روابط خارجی آمریکا (CFR) هشدار میدهد که نبود چارچوبهای بینالمللی الزامآور، میتواند به وضعیتی مشابه جنگ سرد منجر شود، با توجه به تحولات پرشتاب جهانی، ایران باید راهبردهای دفاعی خود را بهویژه در حوزه دفاع شناختی بازنگری کند؛ زیرا در نبردهای آینده، برتری نه بهصرف با سلاح، بلکه با داده، تحلیل و سرعت تصمیمگیری خواهد بود.
این استاد دانشگاه به موضوع «خصوصیسازی جنگ»، شباهت فنی میان سامانههای رژیمصهیونیستی در غزه و پروژههای هوش مصنوعی وزارت دفاع آمریکا، و در نهایت پیامدهای راهبردی برای جمهوری اسلامی ایران اشاره و عنوان کرد: مشارکت شرکتهای خصوصی در امنیت ملی، خطر «خصوصیسازی جنگ» و تضاد منافع میان سود تجاری و اصول انسانی را تشدید میکند، بنیاد New America در این زمینه هشدار میدهد که این وضعیت، دموکراسی و نظارت مدنی را تضعیف میسازد، مطالعات میدانی نشان میدهد که ارتش رژیم صهیونیستی در حملات به غزه از سیستمهایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف انسانی استفاده کرده است.»
هوش مصنوعی بهعنوان تهدید نوینی در راهبردهای دفاعی ایران مطرح شده و چالشهای اخلاقی و امنیتی قابل توجهی را به همراه دارد. ورود فناوریهای هوش مصنوعی به ساختار نظامی کشورهای قدرتمند، تحولی بزرگ در شیوههای جنگی ایجاد کرده است که ایران را ناگزیر به بازطراحی فوری دکترین دفاعی خود کرده است.
اصغریان توضیح داد: در روزنامه فرانسوی لوموند نوشت شده است که سامانه Lavender، با تحلیل دادههای تماس، موقعیت مکانی و شبکههای اجتماعی، لیستی از ۳۷٬۰۰۰ مرد فلسطینی بهعنوان مظنون تولید کرده بود. این لیست بدون راستیآزمایی دقیق انسانی، به عملیات هوایی تبدیل میشد، سامانه Gospel نیز دادههای تصویری را برای رهگیری فرماندهان مقاومت در منازلشان استفاده میکرد. پروژهای با عنوان «?Where’s Daddy» (پدر کجاست؟) اهداف را زمانی که در خانه بودند، مورد حمله قرار میداد.
وی به مقایسه میان سیستمهای رژیمصهیونیستی و سامانههای هوش مصنوعی آمریکایی پرداخت و گفت: تحلیل تطبیقی میان سامانههای Lavender و Gospel با مدلهای توسعهیافته توسط OpenAI و xAI حاکی از همگرایی در چند حوزه است؛ حوزه نخست تحلیل دادههای انبوه غیرساختاریافته که هر دو از دادههای تماس، مکانی و رفتاری برای پیشبینی تهدید استفاده میکنند؛ دوم تصمیمسازی خودکار یا نیمهخودکار: است که خروجی سیستم بهعنوان مبنای عملیات نظامی قرار میگیرد که بدون بررسی عمیق انسانی انجام میشود؛ سوم کاهش نقش انسان در حلقه تصمیمگیری مشابه آنچه RAND در پروژههای وزارت دفاع ایالات متحده آمریکا نسبت به آن هشدار داده است. چهارم پیشبینی تهدید بر اساس همبستگی آماری، نه شواهد حقوقی همان ضعف ساختاری که به قتل احتمالی غیرنظامیان در غزه منجر شد. پنجم مقیاسپذیری بالا است که هدف آن ، تولید سریع و بلادرنگ اهداف ضربتی در مقیاس بزرگ است؛ مشابه آنچه پنتاگون در سند «Data Advantage»(مزیت اطلاعات) به آن تصریح کرده است.
این استاد دانشگاه گفت: با توجه به تحولات فوق، ایران برای حفظ بازدارندگی مؤثر و تأمین امنیت ملی در قرن بیستویکم، ناگزیر است دکترین دفاعی خود را بهصورت فوری و در سه محور بازطراحی کند. محور نخست شامل توسعه سامانه بومی تحلیل اطلاعات پهپادی است که توانایی پردازش فوری تصاویر ویدئویی را داشته باشد. محور دوم طراحی مدل زبانی فارسی ویژه امنیت ملی به منظور تحلیل اسناد طبقهبندیشده و حمایت از فرماندهی میدانی است، محور سوم نیز ایجاد ساختار فرماندهی ترکیبی انسانماشین به منظور تسریع در تصمیمگیریهای بحرانی به شمار میرود.
اصغریان تصریح کرد: ورود هوش مصنوعی به ساختار نظامی آمریکا بدون تردید آغازگر عصری نوین در راهبردهای جنگی است، با این حال در غیاب چارچوبهای اخلاقی قوی، شفافیت نهادی و نظارت حقوقی مؤثر، این تحولات میتوانند تهدیدی جدی برای امنیت بینالمللی و حقوق بشر به شمار روند. از این رو، ایران باید این تغییرات را تنها از منظر فناوری مشاهده نکند، بلکه آنها را بهعنوان نشانهای از تحول در قواعد بازی جهانی بپذیرد، تأخیر در سازگاری با نظم فناورانه جدید به معنای عقبماندگی راهبردی در سطوح حیاتی ملی خواهد بود. البته برخلاف ادعاهای ظاهری اخلاقمدارانه آمریکا، ایران بهطورقطع اخلاقمدارانه عمل خواهد کرد و هرگز اجازه نخواهد داد فناوری جایگزین تصمیمگیری انسانی شود.

به گزارش ایمنا، در عصر حاضر، هوش مصنوعی (AI) بهعنوان یک فناوری دوگانه، هم در حوزههای غیرنظامی و هم در نظامی، بهطور فزایندهای در حال گسترش است. این ویژگی دوگانه، چالشهای جدیدی را در زمینههای اخلاقی، حقوقی و امنیتی بهوجود آورده است. در سطح بینالمللی، فقدان یک چارچوب حکمرانی جامع برای استفاده از AI در حوزه نظامی، موجب ایجاد خلاءهای نظارتی و افزایش خطرات ناشی از سوءاستفادههای احتمالی شده است؛ در ایالات متحده، وزارت دفاع با هدف افزایش سرعت تصمیمگیری رزمی، پیشبینی تهدیدات و کاهش خطای انسانی، بهطور گستردهای از AI در عملیاتهای نظامی استفاده میکند، این امر با امضای قراردادهایی با شرکتهای خصوصی همچون OpenAI و xAI، بهمنظور توسعه مدلهای هوش مصنوعی سفارشی برای تحلیل اطلاعات طبقهبندیشده و پشتیبانی از فرماندهی میدانی، همراه بوده است، با این حال استفاده از این فناوریها بدون نظارت انسانی کافی، نگرانیهایی را در مورد مسئولیتپذیری و احتمال نقض حقوق بشر بهوجود آورده است، در سطح بینالمللی، در حالی که برخی کشورها به تدوین اصول اخلاقی برای استفاده از AI در حوزه نظامی پرداختهاند، اما هنوز چارچوبهای الزامآور و نظارت مؤثری برای جلوگیری از سوءاستفادههای احتمالی وجود ندارد، به عنوان نمونه بیانیه مسئولیتپذیری در استفاده نظامی از AI که توسط ۵۱ کشور امضا شده است، بیشتر جنبه توصیهای دارد و فاقد سازوکارهای اجرایی مؤثر است، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهرهبرداری از مزایای این فناوری، خطرات و چالشهای آن را نیز در نظر بگیرد. توسعه و اجرای اصول اخلاقی، نظارت مؤثر، و همکاریهای بینالمللی میتواند به استفاده مسئولانه و انسانی از AI در جنگها کمک کند.


نظر شما