خبیر‌نیوز | خلاصه خبر

چهارشنبه، 12 شهریور 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

سناریوهای احتمالی برای جنگ‌های آینده!

مشرق | سیاسی | یکشنبه، 09 شهریور 1404 - 17:52
نسلی تازه از سربازان و فرماندهان نظامی در راه هستند. آن‌ها خشمگین نمی‌شوند اما بی‌رحم هستند!
كنترل،سامانه،انساني،جنگ،هوش،مصنوعي،قوانين،خودمختار،نظامي،تسل ...

به گزارش مشرق، در همین لحظه که این سطرها را می‌خوانید، کارگروه‌های بین‌المللی و کنفرانس‌هایی مانند «سای‌کان ۲۰۲۵» در گوشه و کنار جهان در حال مذاکره‌اند تا سرنوشت کنترل جنگ‌های آینده را از دستان بشریت خارج نکنند!
موضوعی که به یک دغدغه جدی در دنیا تبدیل شده است.
آگاهی نسبت به ماهیت این تحولات و آماده‌شدن برای آن، یک نیاز ضروری برای امروز هر کشوری است.
قواعد کهنه برای بازیگران تازه
برای دهه‌ها، جنگ تحت حاکمیت مجموعه‌ای از اصول شناخته‌شده اداره می‌شد.
اصولی که شاید سخت و خشن بودند، اما ریشه در درک و قضاوت انسانی داشتند.
حالا اما، بازیگران تازه‌ای وارد میدان شده‌اند: سامانه‌های تسلیحاتی خودمختار (LAWS).
این سامانه‌ها، ماشین‌هایی هستند که می‌توانند بدون دخالت مستقیم انسان، اهدافی را شناسایی، انتخاب و به آن‌ها حمله کنند.
شاید در نگاه اول به نظر برسد که این فناوری نوظهور نیازمند قوانین جدیدی است، اما جامعه جهانی در حال حاضر بر یک اصل به قول خوشان بنیادین اصرار دارد: حقوق بین‌الملل خنثی از لحاظ فناوری است.
این اصل به این معناست که قوانین موجود، از جمله منشور سازمان ملل و حقوق بین‌الملل بشردوستانه، به طور کامل بر قابلیت‌های هوش مصنوعی نظامی حاکم هستند.
این پیام به طور مداوم از منابع مهمی مانند قطعنامه‌های مجمع عمومی سازمان ملل و گزارش‌های گروه کارشناسان دولتی در مورد سامانه‌های تسلیحاتی خودمختار مرگبار به گوش می‌رسد.
به زبان ساده، همان‌طور که یک تفنگ یا یک هواپیما باید از قوانین جنگ پیروی کند، یک سامانه هوشمند نیز موظف است این کار را انجام دهد.
این شامل اصول اساسی‌ای مانند تمایز (تفکیک رزمندگان از غیرنظامیان)، تناسب (سنجش آسیب غیرنظامیان در برابر دستاورد نظامی) و احتیاط در حمله می‌شود.
اما آیا یک ماشین می‌تواند به این مفاهیم انسانی پایبند باشد؟
وقتی جعبه سیاه، سرنوشت را تعیین می‌کند
درست در همین نقطه است که تئوری با واقعیت فاصله می‌گیرد.
با وجود تأکید بر حاکمیت قوانین موجود، به کارگیری سامانه‌های نظامی مجهز به هوش مصنوعی چالش‌های عملیاتی و حقوقی بی‌سابقه‌ای ایجاد کرده است.
بزرگ‌ترین مشکل، غیرقابل پیش‌بینی بودن و مبهم بودن عملکرد آن‌هاست.
بسیاری از این سیستم‌ها بر الگوریتم‌های یادگیری ماشینی و شبکه‌های عصبی تکیه دارند که به مثابه یک «جعبه سیاه» عمل می‌کنند.
شما ورودی و خروجی را می‌بینید، اما نمی‌توانید دقیقاً بفهمید که چرا و چگونه سامانه به یک تصمیم خاص رسیده است.
این ابهام در محیط‌های پیچیده و پویای جنگی به شدت خطرناک است.
تصور کنید یک سامانه خودران در یک منطقه شهری پرجمعیت، ناگهان یک هدف را به اشتباه غیرنظامی تشخیص می‌دهد یا به دلیل داده‌های مغرضانه، رفتاری غیرمنتظره و مخرب از خود نشان می‌دهد.
اینجاست که سوالات حیاتی مطرح می‌شوند: آیا یک ماشین می‌تواند به طور مداوم اصول تمایز و تناسب را در سناریوهای جنگی واقعی رعایت کند؟
و مهم‌تر از آن، اگر یک سامانه هوش مصنوعی مرتکب نقض قوانین بین‌المللی شود، چه کسی مسئول است؟
برنامه‌نویس؟
فرمانده؟
یا سازنده؟
تلاشی جهانی برای یافتن یک پاسخ
ظاهراً جامعه بین‌الملل از این نگرانی‌ها غافل نبوده است.
در قلب این تلاش‌ها، گروه کارشناسان دولتی در مورد سامانه‌های تسلیحاتی خودمختار مرگبار قرار دارد که در سال ۲۰۱۶ در چارچوب کنوانسیون سلاح‌های متعارف خاص تأسیس شد.
هدف این گروه، دستیابی به اجماع تا سال ۲۰۲۶ بر روی یک پیش‌نویس سند قانونی برای کنترل این سلاح‌هاست.
این فرآیند با تصویب یازده اصل راهنما در سال ۲۰۱۹ آغاز شد که بر لزوم حفظ مسئولیت انسانی در تمام مراحل چرخه عمر سامانه‌های تسلیحاتی تأکید داشتند.
این گروه در حال حاضر بر روی یک «متن در حال تدوین» کار می‌کند.
این سند به نوعی پیش‌نویس اولیه برای یک توافقنامه نهایی است که نشان‌دهنده نقاط اجماع میان کشورهاست.
رویکرد غالب در این متن، «رویکرد دو لایه» است که توسط دبیرکل سازمان ملل نیز حمایت می‌شود.
این رویکرد به طور قاطع، سامانه‌هایی را که ذاتاً «بی‌رویه» عمل می‌کنند، باعث رنج غیرضروری می‌شوند یا غیرقابل کنترل هستند، ممنوع می‌کند.
برای سایر سامانه‌ها نیز مقررات دقیق وضع می‌کند تا اطمینان حاصل شود که همیشه تحت کنترل معنادار انسانی قرار دارند.
کنترل معنادار انسانی: خط قرمز گمشده؟
یکی از اساسی‌ترین و چالش‌برانگیزترین مفاهیم در این مذاکرات، «کنترل معنادار انسانی» است.
این اصطلاح به این معناست که در هر مرحله از تصمیم‌گیری یک سامانه هوش مصنوعی، انسان باید نقش اساسی و معناداری داشته باشد.
اما معنای دقیق این «کنترل» چیست؟
آیا یک انسان باید دکمه شلیک را فشار دهد؟
یا صرفاً نظارت بر عملکرد سامانه کافی است؟
این موضوع هنوز به وضوح تعریف نشده است.
متن در حال تدوین اشاره دارد که مسئولیت نهایی باید با انسان‌ها باقی بماند، نه با ماشین‌ها.
این امر مستلزم ایجاد فرآیندهای ملی مؤثر برای تحقیق در مورد حوادث، گزارش نقض‌ها و تضمین پاسخگویی مؤثر است.
اما در محیط نبرد با سرعت بالا، آیا یک انسان فرصت کافی برای مداخله یا لغو تصمیم یک سامانه خودکار را خواهد داشت؟
فراتر از میدان جنگ: نگاهی به کاربردهای پنهان
در حالی که عموم مردم تمرکز خود را بر روی سلاح‌های خودمختار مرگبار گذاشته‌اند، قطعنامه‌های اخیر سازمان ملل نگاهی فراتر را ضروری دانسته‌اند.
قطعنامه ۷۹/۲۳۹ مجمع عمومی در سال ۲۰۲۴ تصریح کرد که قوانین بین‌الملل باید نه تنها بر تسلیحات کاملاً خودمختار، بلکه بر تمام مراحل چرخه عمر هوش مصنوعی در محیط‌های نظامی اعمال شود.
این بدان معناست که کاربردهای هوش مصنوعی از مرحله تحقیق و توسعه تا استقرار و حتی بررسی پس از استفاده، تحت نظارت قوانین قرار می‌گیرند.
این کاربردها بسیار گسترده‌تر از آن چیزی هستند که تصور می‌کنیم.
از تحلیل اطلاعات و شناسایی الگوها گرفته تا سیستم‌های پشتیبانی تصمیم و عملیات سایبری، هوش مصنوعی در حال نفوذ به لایه‌های پنهان جنگ است.
این امر سؤالات جدیدی را در مورد حاکمیت حقوق بین‌الملل حقوق بشر و مسئولیت دولتی در قبال طراحی و استفاده از این سامانه‌ها مطرح می‌کند.
سرمایه‌گذاری روی صلح یا مسابقه تسلیحاتی جدید؟
فراتر از مذاکرات رسمی، بازیگران دیگری نیز وارد میدان شده‌اند.
کمیسیون جهانی هوش مصنوعی مسئولانه در حوزه نظامی که در سال ۲۰۲۳ در لاهه راه‌اندازی شد، نمونه‌ای از این تلاش‌هاست.
این کمیسیون با هدف شناسایی بهترین شیوه‌ها و استانداردهای فنی، رویکردی فراگیر را در پیش گرفته و نمایندگان دولت‌ها، صنعت و جامعه مدنی را گرد هم آورده است.
همچنین، کمیته بین‌المللی صلیب سرخ نیز با موضع‌گیری‌های خود، خواستار ممنوعیت کامل تسلیحات خودمختار غیرقابل پیش‌بینی و همچنین ممنوعیت استفاده از آن‌ها برای هدف قرار دادن انسان‌ها شده است.
اگر این پیشنهادات پذیرفته شوند، توسعه و استفاده از سایر تسلیحات خودکار تحت مقررات جامعی قرار خواهد گرفت.
اما در پشت پرده، مسابقه تسلیحاتی جدیدی در حال شکل‌گیری است.
قدرت‌های بزرگ در حال رقابت برای دستیابی به برتری در این فناوری هستند و این رقابت می‌تواند بی‌ثباتی ژئوپلیتیکی را افزایش دهد و شکاف میان کشورهای ثروتمند و فقیر را عمیق‌تر سازد.
پایان یک دوره: انسان، به عنوان یک عامل جنگی
بشریت در آستانه یک تصمیم تاریخی قرار دارد.
آیا آینده جنگ توسط معاهده‌ای الزام‌آور کنترل خواهد شد یا با مجموعه‌ای از هنجارهای غیرالزام‌آور؟
مذاکرات آینده در گروه کارشناسان دولتی و سایر نهادهای بین‌المللی آزمون واقعی برای جامعه جهانی خواهد بود تا نشان دهد آیا می‌تواند با سرعت پیشرفت‌های فناورانه، همگام شود یا خیر.
از سوی دیگر، سرنوشت «کنترل معنادار انسانی» در هاله‌ای از ابهام باقی مانده است.
آیا در نهایت تعریف روشنی از آن ارائه خواهد شد؟
آیا سازوکارهای لازم برای تضمین مسئولیت کیفری فردی در صورت نقض قوانین وجود خواهد داشت؟
این‌ها سؤالاتی هستند که پاسخ به آن‌ها می‌تواند سرنوشت جنگ و صلح را برای نسل‌های آینده تعیین کند.
اگرچه این بحث‌ها در سالن‌های کنفرانس و میان دیپلمات‌ها جریان دارد، اما پیامدهای آن به زندگی روزمره بشر گره خورده است.
یک جهان با تسلیحات کاملاً خودمختار می‌تواند یک جنگ «تمیز» و «بدون تلفات انسانی» را در ذهن رهبران نظامی و سیاسی تداعی کند، که این امر می‌تواند تصمیم برای آغاز جنگ را بسیار آسان‌تر از گذشته کند.
در این صورت، جنگ ممکن است به یک ابزار سیاسی بی‌دردسر تبدیل شود.
اصطلاحات تخصصی
چرخه عمر (Lifecycle): تمام مراحل یک سامانه، از تحقیق و توسعه تا استقرار و پایان کار.
کنترل معنادار انسانی (Meaningful Human Control): درجه‌ای از نظارت و تصمیم‌گیری که باید توسط یک انسان بر یک سامانه خودکار اعمال شود تا از عملکرد قانونی و اخلاقی آن اطمینان حاصل شود.
بی‌رویه (Indiscriminate): اقدامی که اهداف نظامی و غیرنظامی را از هم تمیز نمی‌دهد.