سناریوهای احتمالی برای جنگهای آینده!
نسلی تازه از سربازان و فرماندهان نظامی در راه هستند. آنها خشمگین نمیشوند اما بیرحم هستند!

به گزارش مشرق، در همین لحظه که این سطرها را میخوانید، کارگروههای بینالمللی و کنفرانسهایی مانند «سایکان ۲۰۲۵» در گوشه و کنار جهان در حال مذاکرهاند تا سرنوشت کنترل جنگهای آینده را از دستان بشریت خارج نکنند!
موضوعی که به یک دغدغه جدی در دنیا تبدیل شده است.
آگاهی نسبت به ماهیت این تحولات و آمادهشدن برای آن، یک نیاز ضروری برای امروز هر کشوری است.
قواعد کهنه برای بازیگران تازه
برای دههها، جنگ تحت حاکمیت مجموعهای از اصول شناختهشده اداره میشد.
اصولی که شاید سخت و خشن بودند، اما ریشه در درک و قضاوت انسانی داشتند.
حالا اما، بازیگران تازهای وارد میدان شدهاند: سامانههای تسلیحاتی خودمختار (LAWS).
این سامانهها، ماشینهایی هستند که میتوانند بدون دخالت مستقیم انسان، اهدافی را شناسایی، انتخاب و به آنها حمله کنند.
شاید در نگاه اول به نظر برسد که این فناوری نوظهور نیازمند قوانین جدیدی است، اما جامعه جهانی در حال حاضر بر یک اصل به قول خوشان بنیادین اصرار دارد: حقوق بینالملل خنثی از لحاظ فناوری است.
این اصل به این معناست که قوانین موجود، از جمله منشور سازمان ملل و حقوق بینالملل بشردوستانه، به طور کامل بر قابلیتهای هوش مصنوعی نظامی حاکم هستند.
این پیام به طور مداوم از منابع مهمی مانند قطعنامههای مجمع عمومی سازمان ملل و گزارشهای گروه کارشناسان دولتی در مورد سامانههای تسلیحاتی خودمختار مرگبار به گوش میرسد.
به زبان ساده، همانطور که یک تفنگ یا یک هواپیما باید از قوانین جنگ پیروی کند، یک سامانه هوشمند نیز موظف است این کار را انجام دهد.
این شامل اصول اساسیای مانند تمایز (تفکیک رزمندگان از غیرنظامیان)، تناسب (سنجش آسیب غیرنظامیان در برابر دستاورد نظامی) و احتیاط در حمله میشود.
اما آیا یک ماشین میتواند به این مفاهیم انسانی پایبند باشد؟
وقتی جعبه سیاه، سرنوشت را تعیین میکند
درست در همین نقطه است که تئوری با واقعیت فاصله میگیرد.
با وجود تأکید بر حاکمیت قوانین موجود، به کارگیری سامانههای نظامی مجهز به هوش مصنوعی چالشهای عملیاتی و حقوقی بیسابقهای ایجاد کرده است.
بزرگترین مشکل، غیرقابل پیشبینی بودن و مبهم بودن عملکرد آنهاست.
بسیاری از این سیستمها بر الگوریتمهای یادگیری ماشینی و شبکههای عصبی تکیه دارند که به مثابه یک «جعبه سیاه» عمل میکنند.
شما ورودی و خروجی را میبینید، اما نمیتوانید دقیقاً بفهمید که چرا و چگونه سامانه به یک تصمیم خاص رسیده است.
این ابهام در محیطهای پیچیده و پویای جنگی به شدت خطرناک است.
تصور کنید یک سامانه خودران در یک منطقه شهری پرجمعیت، ناگهان یک هدف را به اشتباه غیرنظامی تشخیص میدهد یا به دلیل دادههای مغرضانه، رفتاری غیرمنتظره و مخرب از خود نشان میدهد.
اینجاست که سوالات حیاتی مطرح میشوند: آیا یک ماشین میتواند به طور مداوم اصول تمایز و تناسب را در سناریوهای جنگی واقعی رعایت کند؟
و مهمتر از آن، اگر یک سامانه هوش مصنوعی مرتکب نقض قوانین بینالمللی شود، چه کسی مسئول است؟
برنامهنویس؟
فرمانده؟
یا سازنده؟
تلاشی جهانی برای یافتن یک پاسخ
ظاهراً جامعه بینالملل از این نگرانیها غافل نبوده است.
در قلب این تلاشها، گروه کارشناسان دولتی در مورد سامانههای تسلیحاتی خودمختار مرگبار قرار دارد که در سال ۲۰۱۶ در چارچوب کنوانسیون سلاحهای متعارف خاص تأسیس شد.
هدف این گروه، دستیابی به اجماع تا سال ۲۰۲۶ بر روی یک پیشنویس سند قانونی برای کنترل این سلاحهاست.
این فرآیند با تصویب یازده اصل راهنما در سال ۲۰۱۹ آغاز شد که بر لزوم حفظ مسئولیت انسانی در تمام مراحل چرخه عمر سامانههای تسلیحاتی تأکید داشتند.
این گروه در حال حاضر بر روی یک «متن در حال تدوین» کار میکند.
این سند به نوعی پیشنویس اولیه برای یک توافقنامه نهایی است که نشاندهنده نقاط اجماع میان کشورهاست.
رویکرد غالب در این متن، «رویکرد دو لایه» است که توسط دبیرکل سازمان ملل نیز حمایت میشود.
این رویکرد به طور قاطع، سامانههایی را که ذاتاً «بیرویه» عمل میکنند، باعث رنج غیرضروری میشوند یا غیرقابل کنترل هستند، ممنوع میکند.
برای سایر سامانهها نیز مقررات دقیق وضع میکند تا اطمینان حاصل شود که همیشه تحت کنترل معنادار انسانی قرار دارند.
کنترل معنادار انسانی: خط قرمز گمشده؟
یکی از اساسیترین و چالشبرانگیزترین مفاهیم در این مذاکرات، «کنترل معنادار انسانی» است.
این اصطلاح به این معناست که در هر مرحله از تصمیمگیری یک سامانه هوش مصنوعی، انسان باید نقش اساسی و معناداری داشته باشد.
اما معنای دقیق این «کنترل» چیست؟
آیا یک انسان باید دکمه شلیک را فشار دهد؟
یا صرفاً نظارت بر عملکرد سامانه کافی است؟
این موضوع هنوز به وضوح تعریف نشده است.
متن در حال تدوین اشاره دارد که مسئولیت نهایی باید با انسانها باقی بماند، نه با ماشینها.
این امر مستلزم ایجاد فرآیندهای ملی مؤثر برای تحقیق در مورد حوادث، گزارش نقضها و تضمین پاسخگویی مؤثر است.
اما در محیط نبرد با سرعت بالا، آیا یک انسان فرصت کافی برای مداخله یا لغو تصمیم یک سامانه خودکار را خواهد داشت؟
فراتر از میدان جنگ: نگاهی به کاربردهای پنهان
در حالی که عموم مردم تمرکز خود را بر روی سلاحهای خودمختار مرگبار گذاشتهاند، قطعنامههای اخیر سازمان ملل نگاهی فراتر را ضروری دانستهاند.
قطعنامه ۷۹/۲۳۹ مجمع عمومی در سال ۲۰۲۴ تصریح کرد که قوانین بینالملل باید نه تنها بر تسلیحات کاملاً خودمختار، بلکه بر تمام مراحل چرخه عمر هوش مصنوعی در محیطهای نظامی اعمال شود.
این بدان معناست که کاربردهای هوش مصنوعی از مرحله تحقیق و توسعه تا استقرار و حتی بررسی پس از استفاده، تحت نظارت قوانین قرار میگیرند.
این کاربردها بسیار گستردهتر از آن چیزی هستند که تصور میکنیم.
از تحلیل اطلاعات و شناسایی الگوها گرفته تا سیستمهای پشتیبانی تصمیم و عملیات سایبری، هوش مصنوعی در حال نفوذ به لایههای پنهان جنگ است.
این امر سؤالات جدیدی را در مورد حاکمیت حقوق بینالملل حقوق بشر و مسئولیت دولتی در قبال طراحی و استفاده از این سامانهها مطرح میکند.
سرمایهگذاری روی صلح یا مسابقه تسلیحاتی جدید؟
فراتر از مذاکرات رسمی، بازیگران دیگری نیز وارد میدان شدهاند.
کمیسیون جهانی هوش مصنوعی مسئولانه در حوزه نظامی که در سال ۲۰۲۳ در لاهه راهاندازی شد، نمونهای از این تلاشهاست.
این کمیسیون با هدف شناسایی بهترین شیوهها و استانداردهای فنی، رویکردی فراگیر را در پیش گرفته و نمایندگان دولتها، صنعت و جامعه مدنی را گرد هم آورده است.
همچنین، کمیته بینالمللی صلیب سرخ نیز با موضعگیریهای خود، خواستار ممنوعیت کامل تسلیحات خودمختار غیرقابل پیشبینی و همچنین ممنوعیت استفاده از آنها برای هدف قرار دادن انسانها شده است.
اگر این پیشنهادات پذیرفته شوند، توسعه و استفاده از سایر تسلیحات خودکار تحت مقررات جامعی قرار خواهد گرفت.
اما در پشت پرده، مسابقه تسلیحاتی جدیدی در حال شکلگیری است.
قدرتهای بزرگ در حال رقابت برای دستیابی به برتری در این فناوری هستند و این رقابت میتواند بیثباتی ژئوپلیتیکی را افزایش دهد و شکاف میان کشورهای ثروتمند و فقیر را عمیقتر سازد.
پایان یک دوره: انسان، به عنوان یک عامل جنگی
بشریت در آستانه یک تصمیم تاریخی قرار دارد.
آیا آینده جنگ توسط معاهدهای الزامآور کنترل خواهد شد یا با مجموعهای از هنجارهای غیرالزامآور؟
مذاکرات آینده در گروه کارشناسان دولتی و سایر نهادهای بینالمللی آزمون واقعی برای جامعه جهانی خواهد بود تا نشان دهد آیا میتواند با سرعت پیشرفتهای فناورانه، همگام شود یا خیر.
از سوی دیگر، سرنوشت «کنترل معنادار انسانی» در هالهای از ابهام باقی مانده است.
آیا در نهایت تعریف روشنی از آن ارائه خواهد شد؟
آیا سازوکارهای لازم برای تضمین مسئولیت کیفری فردی در صورت نقض قوانین وجود خواهد داشت؟
اینها سؤالاتی هستند که پاسخ به آنها میتواند سرنوشت جنگ و صلح را برای نسلهای آینده تعیین کند.
اگرچه این بحثها در سالنهای کنفرانس و میان دیپلماتها جریان دارد، اما پیامدهای آن به زندگی روزمره بشر گره خورده است.
یک جهان با تسلیحات کاملاً خودمختار میتواند یک جنگ «تمیز» و «بدون تلفات انسانی» را در ذهن رهبران نظامی و سیاسی تداعی کند، که این امر میتواند تصمیم برای آغاز جنگ را بسیار آسانتر از گذشته کند.
در این صورت، جنگ ممکن است به یک ابزار سیاسی بیدردسر تبدیل شود.
اصطلاحات تخصصی
چرخه عمر (Lifecycle): تمام مراحل یک سامانه، از تحقیق و توسعه تا استقرار و پایان کار.
کنترل معنادار انسانی (Meaningful Human Control): درجهای از نظارت و تصمیمگیری که باید توسط یک انسان بر یک سامانه خودکار اعمال شود تا از عملکرد قانونی و اخلاقی آن اطمینان حاصل شود.
بیرویه (Indiscriminate): اقدامی که اهداف نظامی و غیرنظامی را از هم تمیز نمیدهد.