خبیر‌نیوز | خلاصه خبر

پنجشنبه، 01 آبان 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

روبات‌های قاتل یا تصمیمات انسانی؛ مسئولیت جنگ‌های هوشمند با کی است؟

مهر | دانش و فناوری | پنجشنبه، 01 آبان 1404 - 08:41
هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است. اما پرسش بنیادینی این است که وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه کسی پاسخ‌گو خواهد بود؟
هوش،مصنوعي،مسئوليت،نظامي،انساني،جنگ،اخلاقي،طراحي،تصميم،هوشمن ...

به گزارش خبرنگار مهر؛ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالی‌ترین و در عین حال تحول‌آفرین‌ترین رویدادهای فناورانه قرن بیست‌ویکم بوده است.
این فناوری که زمانی صرفاً در تحلیل داده‌ها و پیش‌بینی الگوهای رفتاری کاربرد داشت، اکنون در قلب سامانه‌های دفاعی، اطلاعاتی و تهاجمی قدرت‌های بزرگ جهان جای گرفته است.
از سامانه‌های شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشک‌های هدایت‌شونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است.
اما پرسش بنیادینی همچنان در این میان مطرح است: وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه کسی پاسخ‌گو خواهد بود؟
آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته است؟
پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هسته‌ای و سامانه‌های بدون سرنشین، نه‌تنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید می‌کند.
وونگ یادآور شد که تا امروز مهار جنگ هسته‌ای به واسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده است، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است.
به گفته‌ی او، این فناوری‌ها می‌توانند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابل پیش‌بینی درگیری‌ها شوند.
این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت»(Accountability Gap) بازتاب یافته؛ پدیده‌ای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحث‌برانگیزترین موضوعات عصر حاضر تبدیل شده است.
ابعاد استفاده از هوش مصنوعی در جنگ
هوش مصنوعی پدیده‌ای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمی‌گردد، اما تحولات اخیر در یادگیری ماشین و شبکه‌های عصبی عملاً مرز میان تصمیم‌سازی انسانی و ماشینی را کمرنگ کرده‌اند.
امروز هوش مصنوعی از شبیه‌سازی‌های آموزشی و بازی‌های جنگی گرفته تا سامانه‌های تصمیم‌یار در هدف‌گیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده است.
نمونه بحث‌برانگیز اخیر، سامانه «Lavender» متعلق به رژیم اشغالگر قدس محسوب می‌شود که ارتش رژیم صهیونیستی از آن در نسل کشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده است.
بر اساس گزارش‌های منتشر شده، این سامانه، مبتنی بر تحلیل داده‌های کلان، فهرستی از اهداف بالقوه تولید می‌کرد که سپس در عملیات هوایی مورد استفاده قرار می‌گرفت.
به عقیده کارشناسان، این قبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت می‌کنند، زیرا تصمیم درباره‌ی مرگ و زندگی را از انسان به الگوریتم می‌سپارند.
از سوی دیگر، بسیاری از متخصصان بر این باورند که نباید تمام کاربردهای نظامی هوش مصنوعی را هم‌سنگ دانست.
بخش بزرگی از این فناوری‌ها صرفاً برای آموزش، شبیه‌سازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده می‌شوند.
بنابراین، نقطه‌ی بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیم‌گیری مرگبار دخالت مستقیم پیدا می‌کند.
شکاف مسئولیت: از افسانه «ربات قاتل» تا واقعیت تصمیم انسانی
بحث «شکاف مسئولیت» زمانی مطرح می‌شود که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ در چنین شرایطی باید به این پرسش بنیادین پاسخ داد که چه کسی باید مسئول اقدامات نظامی صورت گرفته باشد؟
رسانه‌ها این مسئله را با واژه‌هایی همچون «ربات‌های قاتل» دامن زده‌اند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطوره‌سازی شباهت دارد تا واقعیت فنی.
حقیقت این است که هیچ سامانه‌ی خودکاری تاکنون موضوع مسئولیت حقوقی نبوده است.
مسئولیت همواره متوجه طراحان، مجریان و فرماندهان است و شامل ابزارها نمی‌شود.
همان‌گونه که در پرونده‌ی رسوایی تخصیص اعتبار وام «Robodebt» در کشور استرالیا، نه سیستم محاسبه‌گر بدهی، بلکه دولت مسئول شناخته شد، در حوزه‌ی نظامی نیز پرسش از مسئولیت باید متوجه تصمیم‌گیرندگان انسانی باشد.
این امر به دلیل آن است که هوش مصنوعی خارج از سلسله‌مراتب فرماندهی نظامی وجود ندارد.
هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیم‌های انسانی ساخته و به‌کار گرفته می‌شود.
بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی است و مسئله‌ی واقعی، شفافیت در زنجیره‌ی تصمیم‌سازی و تنظیم‌گری انسان‌ها به شمار می‌رود.
زنجیره مسئولیت در چرخه عمر سیستم‌های نظامی هوش مصنوعی
هر سیستم پیچیده‌ای، از جمله سامانه‌های هوش مصنوعی نظامی، در چرخه‌ای متشکل از مراحل طراحی، توسعه، استقرار، بهره‌برداری و بازنشستگی عمل می‌کند.
در هر یک از این مراحل، انسان‌ها تصمیم‌هایی می‌گیرند که بر قابلیت‌ها و محدودیت‌های سیستم تأثیر می‌گذارد.
از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی است.
در واقع، خطاهای سیستم‌های هوشمند، بازتابی از تصمیم‌های انسانی در طراحی و آموزش آن‌هاست.
اگر سامانه‌ای در جنگ اهداف غیرنظامی را اشتباه شناسایی می‌کند، مسئولیت به داده‌های آموزشی، معیارهای هدف‌گیری و سیاست‌های اجرایی بازمی‌گردد و هوش مصنوعی به‌عنوان موجودی مستقل در این فرایند مسئول نیست.
بنابراین، مقررات‌گذاری در حوزه‌ی تسلیحات مبتنی بر هوش مصنوعی در اصل باید بر انسان‌های فعال در زنجیره به‌کارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد.
تدوین چارچوب‌های نظارتی بدون درک این چرخه، در بهترین حالت ناکارآمد و در بدترین حالت خطرناک است.
آیا هوش مصنوعی واقعاً ماهیت جنگ را تغییر می‌دهد؟
ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی تا حدودی اغراق‌آمیز است.
جنگ در طول تاریخ، میدان اراده‌ها و قضاوت‌های انسانی بوده است؛ تصمیماتی که نه تنها بر اساس داده و منطق، بلکه بر مبنای ترس، امید، ایدئولوژی و قدرت اتخاذ می‌شوند.
فناوری‌های نوین صرفاً ابزارهایی هستند که این تصمیمات را سریع‌تر، دقیق‌تر و گاه بی‌رحمانه‌تر می‌سازند و به هیچ وجه جایگزینی برای انسان نیستند.
اگرچه هوش مصنوعی می‌تواند سرعت، دقت و حجم تحلیل‌های اطلاعاتی را چند برابر کند، اما هنوز در چارچوب اراده‌ی انسانی و منطق سیاست‌گذاری نظامی عمل می‌کند.
در این میان، مسئله‌ی بنیادین نه حذف انسان از چرخه‌ی تصمیم‌گیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایه‌های پیشینی‌تر یعنی طراحی، آموزش و تصمیم‌سازی الگوریتمی است.
در جنگ‌های داده‌محور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتم‌های تشخیص هدف، تعریف آستانه‌های تصمیم، تنظیم داده‌های آموزشی و تعیین قواعد درگیری شکل می‌گیرند.
در این ساختار جدید، فرمانده می‌تواند در ظاهر از صحنه‌ی تصمیم‌گیری کنار بایستد، در حالی که خطا درون کدها و مدل‌ها نهادینه شده است.
از این منظر، هوش مصنوعی نه ماهیت جنگ را به‌طور ماهوی دگرگون می‌کند و نه از الزام‌های اخلاقی می‌گریزد؛ بلکه لایه‌های مسئولیت را بازتوزیع می‌کند و میان خطوط کد، تصمیمات طراحی و فرمان‌های اجرایی پنهان می‌سازد.
بدین ترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بی‌توجهی انسان به عمق اثرات تصمیمات فناورانه نهفته است.
بازتعریف مسئولیت در عصر جنگ هوشمند
هوش مصنوعی، علی‌رغم تمام پیچیدگی‌های فنی، فلسفی و اخلاقی، نه موجودی خودمختار است و نه بی‌وجدان؛ بلکه آینه‌ای از انتخاب‌ها، سوگیری‌ها و ارزش‌های انسانی است که در طراحی، آموزش و استفاده از آن نقش دارند.
به بیان دیگر، آنچه از هوش مصنوعی در میدان نبرد می‌بینیم، در واقع بازتاب تفکر استراتژیک و نظام اخلاقی جوامعی است که آن را به کار می‌گیرند.
بحران مسئولیت در کاربردهای نظامی فناوری مذکور از آن‌جا ناشی می‌شود که سازوکارهای سنتی پاسخ‌گویی که مبتنی بر فرماندهی متمرکز، تصمیم‌گیری انسانی و ساختارهای سلسله‌مراتبی بوده‌اند، دیگر با واقعیت زنجیره‌های تصمیم‌سازی شبکه‌ای و فناورانه سازگار نیستند.
امروز، هر تصمیم نظامی نه فقط نتیجه دستور یک فرمانده، بلکه محصول هم‌زمان طراحی نرم‌افزار، پردازش داده، تنظیم الگوریتم و تفسیر خروجی مدل است.
از همین روی، چالش پیش‌رو، ایجاد نظامی از تنظیم‌گری هوشمند و میان‌رشته‌ای است که بتواند این زنجیره‌ی چندلایه‌ی مسئولیت را شفاف و قابل ردیابی کند.
این نظام باید هم شفافیت فنی داشته باشد و هم پاسخ‌گویی حقوقی، تا از فاجعه‌ی «شکاف مسئولیت» در میدان نبرد جلوگیری نماید.
در نهایت، همان‌طور که بسیاری از تحلیل‌های جدید در حوزه امنیت بین‌الملل تأکید دارند، هوش مصنوعی جنگ را به‌صورت خودکار و مستقل از انسان اداره نمی‌کند؛ بلکه مسئولیت انسانی را در شبکه‌ای پیچیده‌تر از تعامل میان کد، داده، سیاست و تصمیم توزیع می‌کند.
اگر جامعه جهانی نتواند این مسئولیت را به‌درستی بازتعریف و نهادینه کند، خطر واقعی نه از جانب ربات‌های قاتل، بلکه از سوی انسان‌هایی است که در پشت آن‌ها پنهان می‌شوند و از پاسخ‌گویی می‌گریزند.