خبیر‌نیوز | خلاصه خبر

سه شنبه، 05 اسفند 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

قرارداد پنتاگون با شرکت ایلان ماسک برای استفاده نظامی از «گروک»

باشگاه خبرنگاران | بین‌الملل | سه شنبه، 05 اسفند 1404 - 10:18
وزارت جنگ آمریکا در اقدامی تازه، با شرکت هوش مصنوعی ایلان ماسک برای استفاده از چت‌بات «گروک» در سامانه‌های نظامی محرمانه قرارداد امضا کرد.
شركت،هوش،مصنوعي،مدل،ايمني،كلود،پنتاگون،نظامي،توافقي،خطرات،جا ...

باشگاه خبرنگاران جوان ؛ اعظم پورکند - به گزارش رسانه‌ها، وزارت جنگ ایالات متحده قراردادی را با شرکت xAI متعلق به ایلان ماسک برای ادغام چت‌بات «گروک» در سامانه‌های نظامی طبقه‌بندی‌شده امضا کرده است.
این اقدام فشار را بر شرکت رقیب، «آنتروپیک» که از برداشتن محدودیت‌های ایمنی مدل «کلود» خود خودداری کرده، افزایش می‌دهد.
این قرارداد که نخستین بار توسط نیویورک تایمز گزارش شد و روز دوشنبه توسط آکسیوس تأیید گردید، گروک را به دومین سامانه هوش مصنوعی تأییدشده برای استفاده در شبکه‌های حساس نظامی تبدیل می‌کند؛ شبکه‌هایی که محل تحلیل اطلاعات، توسعه تسلیحات و عملیات میدانی هستند.
تاکنون، کلودِ شرکت آنتروپیک از طریق مشارکت با پالانتیر تکنالوجیز(Palantir Technologies) تنها مدل در دسترس در این پلتفرم‌های طبقه‌بندی‌شده بود.
این توافق در حالی صورت می‌گیرد که پیت هگست، وزیر جنگ آمریکا، داریو آمودی، مدیرعامل آنتروپیک را برای جلسه‌ای تنش‌آمیز در پنتاگون فراخوانده است.
به گفته آکسیوس، انتظار می‌رود هگست یک ضرب‌الاجل به آمودی ارائه دهد: موافقت با در دسترس قرار دادن کلود برای «همه اهداف قانونی» بدون محدودیت‌های اضافی، یا مواجهه با پیامد‌هایی از جمله احتمالاً تعیین به عنوان «خطر زنجیره تأمین» – برچسبی که معمولاً برای نهاد‌های مرتبط با دشمنان خارجی استفاده می‌شود.
آنتروپیک در برابر خواسته پنتاگون برای حذف محدودیت‌هایی که مانع از استفاده فناوری‌اش برای نظارت گسترده بر آمریکایی‌ها یا به کارگیری آن در سامانه‌های تسلیحاتی کاملاً خودمختار و بدون دخالت انسان می‌شود، مقاومت کرده است.
بر اساس گزارش‌ها، xAI با این خواسته‌ها موافقت کرده، اما این شرکت هنوز به این گزارش‌ها واکنش نشان نداده است.
همچنین گفته می‌شود گوگل نیز به توافقی برای استفاده طبقه‌بندی‌شده از مدل «جمینای» نزدیک شده، در حالی که اوپن‌ای‌آی همچنان «فاصله زیادی» با چنین توافقی دارد و مشغول کار روی فناوری ایمنی است.
مقامات پنتاگون اذعان دارند که جایگزینی آنتروپیک در سامانه‌های طبقه‌بندی‌شده می‌تواند باعث اختلالات کوتاه‌مدت شود.
مدل کلود ماه گذشته در عملیات ربودن نیکلاس مادورو، رئیس‌جمهور ونزوئلا، استفاده شد که اولین نمونه شناخته‌شده از نقش مستقیم هوش مصنوعی در یک یورش نظامی فعال بود.
آنتروپیک خود را به عنوان جایگزینی با اولویت ایمنی در صنعت هوش مصنوعی معرفی کرده است.
مدیرعامل آمودی بار‌ها درباره خطرات وجودی ناشی از هوش مصنوعی مهارنشده، از جمله «خطرات خودمختاری» هشدار داده است.
مریننک شارما، رهبر تیم تحقیقاتی محدودیت‌های ایمنی این شرکت، هفته گذشته به طور ناگهانی استعفا داد و هشداری مبهم داد که «جهان در خطر است.»
منبع: راشاتودی