هوش مصنوعی در خدمت اشغالگری؛ ارتش اسرائیل و فانتزی «جنگ اخلاقی»
ارتش اسرائیل با ادعای استفاده «اخلاقی» از هوش مصنوعی، خشونت ساختاری علیه فلسطینیان را دیجیتالی کرده و جنگ را به صنعتی تمامعیار تبدیل کرده است.

باشگاه خبرنگاران جوان، سمیه خلیلی - تحولات پنج سال اخیر ارتش اسرائیل که جرزالم پست آن را «انقلاب دیجیتال در جنگ» توصیف میکند، نه صرفاً یک تغییر تکنولوژیک بلکه بخشی از روندی خطرناک است: بهکارگیری هوش مصنوعی و دادههای بزرگ برای مشروعیتبخشی به خشونت سازمانیافته علیه ملتهای تحت اشغال.
روایت رسمی میگوید که ارتش اسرائیل اکنون یک «ماشین جنگی شبکهمحور» است که میتواند همزمان در زمین، هوا، دریا و فضای سایبری بجنگد، اهداف را ظرف چند ساعت شناسایی کند و با سرعت بیسابقه حمله نماید.
اما در لایههای عمیقتر، مسئله نه نوآوری فناورانه بلکه دیجیتالی شدن آپارتاید و کشتار است.
«انقلاب دیجیتال» یا دیجیتالیسازی خشونت؟
جرزالم پست روایت خود را با ستایش از ژنرال بازنشسته آویو کوچاوی آغاز میکند که ارتش اسرائیل را از سیستمهای قدیمی فکس و سرورهای منسوخ، به سوی میدان جنگ دیجیتال برد.
امروز صدها متخصص، مدلهای هوش مصنوعی را طراحی میکنند تا جریان دادهها را از پهپادها، شنودها و سامانههای نظارتی به فرماندهیها منتقل کنند.
بنا بر این گزارش، اگر این تحول صورت نمیگرفت، دستکم ۵۰۰۰ سرباز اسرائیلی بیشتر کشته میشدند و هزاران نیروی مقاومت زنده میماندند.
این زبان به ظاهر تکنیکی در حقیقت بیان دیگری است از منطق برتریطلبانه صهیونیسم: ارزش جان سرباز اسرائیلی بینهایت بالاتر از جان فلسطینی است؛ فناوری باید بهکار گرفته شود تا تلفات اشغالگر به حداقل برسد، ولو آنکه بهایش کشتار وسیع غیرنظامیان در غزه یا لبنان باشد.
وقتی میگویند «۵۰۰۰ سرباز نجات یافتند»، باید پرسید: چه تعداد کودک، زن و غیرنظامی در نتیجه همین «نجات» کشته شدند؟
سرعت در شناسایی اهداف؛ سرعت در مرگ
در سال ۲۰۰۹، ارتش اسرائیل سالانه حدود ۵۰ تا ۱۰۰ هدف جدید شناسایی میکرد.
امروز به ادعای جرزالم پست، این عدد به ۴۰۰ هدف در روز رسیده است.
این جهش سرسامآور محصول ترکیب هوش مصنوعی با کلاندادههاست: الگوریتمها دادههای شنود، تصاویر ماهوارهای، ویدیوهای پهپاد و حتی اطلاعات تلفنهای همراه را تحلیل میکنند و به سرعت «اهداف بالقوه» را تحویل میدهند.
اما پشت این زبان سرد و فنی، واقعیتی خونین نهفته است: هر «هدف» میتواند خانهای مسکونی، مدرسهای در غزه یا کلینیکی در لبنان باشد.
وقتی حملههای هوش مصنوعیمحور به ادعای خود اسرائیل ۸۰ درصد حملات اخیر را تشکیل میدهند، یعنی هزاران زندگی انسانی قربانی الگوریتمهایی شدهاند که ارزش واقعی زندگی فلسطینی را در محاسبات خود لحاظ نمیکنند.
اسرائیل میگوید این الگوریتمها «غیرنظامیان را از مبارزان تفکیک میکنند»، اما گزارشهای مستقل بارها نشان دادهاند که همین سیستمها خطاهای فاجعهباری مرتکب شدهاند: بمباران بیمارستانها، مدارس و پناهگاهها.
این خطاها تصادفی نیستند؛ آنها بخشی از ساختار سیستماتیک یک جنگ نابرابرند که زیر پوشش «هوش مصنوعی اخلاقی» توجیه میشوند.
«انسان در حلقه تصمیمگیری» یا توهم اخلاقی؟
ارتش اسرائیل ادعا میکند که «انسانها همیشه در حلقه تصمیمگیری باقی میمانند» تا حملات با قوانین بینالمللی همخوان باشد.
اما این توجیه بیشتر به یک ترفند تبلیغاتی شبیه است تا واقعیت عملی.
وقتی سیستمها صدها هدف را در روز تولید میکنند و فرماندهان زیر فشار سرعت و حجم بالای دادهها قرار دارند، امکان بررسی انسانی واقعی کاهش مییابد.
به بیان دیگر، حضور انسان در حلقه بیشتر نمادین است؛ ماشینی که میچرخد، فرماندهای که صرفاً مهر تأیید میزند.
از سوی دیگر، قوانین بینالمللی خود در جهان سیاست دوگانه تفسیر میشوند.
اسرائیل و حامیان غربیاش بارها نشان دادهاند که تعریفشان از «اهداف مشروع» بسیار گسترده است و شامل ایستگاههای برق، دفاتر رسانهای، خانههای مسکونی و حتی کاروانهای امدادی میشود.
در چنین شرایطی، چه تفاوتی دارد که الگوریتم هدف را انتخاب کند یا یک افسر؟
نتیجه یکی است: تخریب زیرساختهای حیاتی و قتل غیرنظامیان.
چالش فرهنگی یا طبیعیسازی خشونت؟
جرزالم پست از «چالش فرهنگی» در ارتش اسرائیل سخن میگوید: افسران ارشد در برابر دیجیتالی شدن مقاومت داشتند، اما نهایتاً با آن کنار آمدند.
رسانه اسرائیلی این مقاومت را به عبور از «دریای سرخ» تشبیه میکند، گویی یک مانع الهی بر سر راه «پیشرفت» برداشته شده است.
اما واقعیت آن است که این «چالش فرهنگی» چیزی جز تردید اخلاقی اولیه نسبت به سپردن مرگ و زندگی به دست الگوریتمها نبود.
با گذر زمان، وقتی کشتار دیجیتالی نهادینه شد و مقاومت درونی افسران شکست، طبیعیسازی خشونت الگوریتمیک آغاز شد.
از این پس، قتل با هوش مصنوعی نه تنها غیرعادی نیست، بلکه به عنوان «پیشرفت نظامی» جشن گرفته میشود.
شکست ۷ اکتبر و محدودیتهای فناوری
جرزالم پست به نکتهای مهم هم اشاره میکند: حمله حماس در ۷ اکتبر ۲۰۲۳ نشان داد که اتکای مطلق به فناوری بدون دانش انسانی کافی نیست.
اسرائیل، علیرغم میلیاردها دلار سرمایهگذاری در هوش مصنوعی و دادههای بزرگ، نتوانست حملهای را که در برابر چشمش آماده میشد، پیشبینی کند.
این شکست بیانگر تناقض بنیادین است: هوش مصنوعی شاید بتواند دادهها را پردازش کند، اما قادر به درک زمینه اجتماعی و انسانی مقاومت نیست.
فناوری نمیتواند توضیح دهد چرا مردمی که دههها تحت محاصره و اشغال زندگی کردهاند، مقاومت میکنند.
الگوریتمها شاید تونلها و راکتها را شناسایی کنند، اما روح مبارزه انسانی را نمیتوانند بسنجند.
این همان چیزی است که اسرائیل حتی با پیشرفتهترین فناوریها هم قادر به مهار آن نخواهد بود.
میراثی خطرناک برای منطقه و جهان
امروز اسرائیل خود را پیشگام «اولین جنگ هوش مصنوعی» مینامد.
این روایت اگرچه برای حامیان تلآویو نشانهای از برتری فناورانه است، اما برای منطقه و جهان هشداری جدی است.
اگر کشتار الگوریتمیک به عنوان «جنگ اخلاقی» معرفی و پذیرفته شود، آنگاه در آینده شاهد موجی از جنگهای مشابه خواهیم بود؛ جنگهایی که در آن انسانیت بیش از پیش حذف میشود و تصمیم به مرگ و زندگی به دست کُدها و مدلهای آماری سپرده میشود.
از این منظر، میراث ارتش اسرائیل چیزی جز خطر جهانیسازی خشونت دیجیتال نیست.
همانطور که تسلیحات هستهای با بمباران هیروشیما و ناکازاکی مشروعیت یافتند و سپس به مسابقه تسلیحاتی بدل شدند، هوش مصنوعی نظامی اسرائیل نیز میتواند الگویی خطرناک برای دیگر کشورها شود.
نتیجه چیزی جز مسابقهای تازه برای تولید ماشینهای کشتار دقیقتر و سریعتر نخواهد بود.
فانتزی «جنگ اخلاقی» فرو میریزد
ادعای اسرائیل مبنی بر اینکه هوش مصنوعی جنگ را «اخلاقیتر» میکند، چیزی جز یک فانتزی تبلیغاتی نیست.
واقعیت میدانی در غزه، لبنان و دیگر جبههها چیز دیگری میگوید: هزاران غیرنظامی کشته شدهاند، زیرساختهای حیاتی نابود شده و نسلهای تازهای از آوارگان شکل گرفتهاند.
دیجیتالی کردن کشتار، خشونت را اخلاقیتر نمیکند؛ بلکه آن را پنهانتر و سردتر میسازد.
پشت هر «هدف» یک انسان است، یک خانواده، یک زندگی.
هوش مصنوعی شاید بتواند دادهها را پردازش کند، اما نمیتواند ارزش جان انسانها را درک کند.
به همین دلیل، هرچند ارتش اسرائیل میکوشد خود را بهعنوان پیشگام جنگهای آینده معرفی کند، اما در حقیقت تنها کاری که انجام داده، تبدیل آپارتاید و اشغالگری به یک پروژه فناورانه پر زرق و برق است.
آیندهای که آنها وعده میدهند نه آینده امنیت و اخلاق، بلکه آیندهای است که در آن جنگ به یک صنعت دیجیتال بیپایان بدل میشود.