پنتاگون از هوش مصنوعی کلود برای ربودن مادورو استفاده کرد
گزارشها حاکی از آن است که ارتش آمریکا در عملیات ژانویه برای ربودن نیکلاس مادورو از مدل هوش مصنوعی کلود شرکت آنتروپیک استفاده کرده است؛ فناوری که طبق خطمشی این شرکت نباید در خشونت یا نظارت به کار گرفته شود.
باشگاه خبرنگاران جوان؛ اعظم پورکند - گزارشهای خبرگزاری آکسیوس و وال استریت ژورنال حاکی از آن است که ارتش آمریکا در عملیات ماه گذشته برای ربودن نیکلاس مادورو، رئیسجمهور ونزوئلا، به طور فعال از مدل هوش مصنوعی کلود شرکت آنتروپیک استفاده کرده است.
این گزارشها نشان میدهد که فناوری این شرکت نقشی مستقیم در عملیات خارج از کشور ایفا کرده است.
آکسیوس و وال استریت ژورنال هر دو روز جمعه گزارش دادند که کلود در طول عملیات مورد استفاده قرار گرفته است، نه صرفاً در مراحل آمادهسازی.
نقش دقیق آن هنوز مشخص نیست، اگرچه ارتش پیشتر از مدلهای هوش مصنوعی برای تجزیه و تحلیل تصاویر ماهوارهای و اطلاعات در زمان واقعی استفاده کرده است.
خطمشیهای استفاده از فناوری این آزمایشگاه هوش مصنوعی مستقر در سانفرانسیسکو به صراحت استفاده از فناوریاش را برای «تسهیل خشونت، توسعه سلاحها یا انجام نظارت» ممنوع میکند.
در این یورش در ۳ ژانویه، هیچ شهروند آمریکایی کشته نشد، اما دهها سرباز و پرسنل امنیتی ونزوئلایی و کوبایی جان باختند.
سخنگوی آنتروپیک به آکسیوس گفت: «نمیتوانیم در مورد استفاده از کلود یا هر مدل هوش مصنوعی دیگری در هر عملیات خاص، خواه محرمانه یا غیرمحرمانه، اظهار نظر کنیم.
هرگونه استفاده از کلود – چه در بخش خصوصی و چه در دولت – ملزم به رعایت خطمشیهای استفاده ما است.»
رقبای آنتروپیک، یعنی اوپنایآی، گوگل و ایکسایآی متعلق به ایلان ماسک، همگی قراردادهایی دارند که به پنتاگون دسترسی به مدلهایشان را بدون بسیاری از محدودیتهایی که برای کاربران عادی اعمال میشود، میدهد.
اما تنها کلود از طریق مشارکت با شرکت پالانتیر تکنولوژیها، بر روی پلتفرمهای طبقهبندیشدهای که برای محرمانهترین کارهای ارتش آمریکا استفاده میشود، مستقر شده است.
این افشاگری در زمان ناخوشایندی برای این شرکت رخ میدهد.
آنتروپیک هفتههای اخیر را صرف تأکید عمومی بر تعهد خود به اقدامات ایمنی در زمینه هوش مصنوعی و معرفی خود به عنوان جایگزین ایمن در صنعت هوش مصنوعی کرده بود.
داریو آمودی، مدیرعامل آنتروپیک، نسبت به خطرات وجودی ناشی از استفاده بیحدوحصر از هوش مصنوعی هشدار داده است.
روز دوشنبه، مرینانک شارما، رئیس تیم تحقیقات ایمنی آنتروپیک، ناگهان با هشداری رمزآلود مبنی بر اینکه «جهان در خطر است» استعفا داد.
چند روز بعد، این شرکت ۲۰ میلیون دلار در یک گروه حمایت سیاسی که طرفدار مقررات قوی هوش مصنوعی است، سرمایهگذاری کرد.
گزارشها حاکی از آن است که آنتروپیک در حال مذاکره با پنتاگون بر سر کاهش محدودیتها برای استفاده از هوش مصنوعی در هدفگیری خودکار سلاحها و نظارت داخلی است.
این اختلاف نظر باعث توقف یک قرارداد تا سقف ۲۰۰ میلیون دلاری شده است، و پیت هگست، وزیر جنگ، متعهد شده است از مدلهایی استفاده نخواهد کرد که «به شما اجازه جنگیدن نمیدهند.»
منبع: آرتی