خبیر‌نیوز | خلاصه خبر

چهارشنبه، 04 تیر 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

هشدار تکان‌دهنده OpenAI: هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد!

باشگاه خبرنگاران | سلامت و پزشکی | چهارشنبه، 04 تیر 1404 - 18:18
شرکت OpenAI هشدار داده است که هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد!
شركت،بيولوژيكي،پيشگيرانه،خطرناكي،هوش،مصنوعي،چشمگير،سوءاستفاد ...

باشگاه خبرنگاران جوان؛ جواد فراهانی - شرکت OpenAI قابلیت‌های بالقوه خطرناک مدل‌های جدید هوش مصنوعی که در حال توسعه آنهاست را آشکار کرده و گفته است که این سیستم‌های هوشمند حتی می‌توانند به ساخت سلاح‌های بیولوژیکی پیشرفته کمک کنند.
این افشاگری چشمگیر در یک نشریه رسمی شرکت منتشر شد که در آن شرکت اذعان کرده است بین پیگیری پیشرفت‌های علمی چشمگیر در زمینه‌هایی مانند تحقیقات زیست‌پزشکی و دفاع زیستی و مسئولیت خود در جلوگیری از نشت اطلاعات خطرناکی که می‌تواند امنیت جهانی را تهدید کند، تعادل برقرار می‌کند.
یوهان هایدک، رئیس بخش ایمنی این شرکت، در بیانیه‌ای به اکسیوس توضیح داد که مدل‌های آینده قادر به تولید مستقل سلاح‌های بیولوژیکی نخواهند بود، اما ابزار‌های شناختی کافی را برای افراد غیرمتخصص فراهم می‌کنند تا چنین کار‌های خطرناکی را انجام دهند.
هایدکی افزود که بزرگترین نگرانی، ایجاد تهدید‌های بیولوژیکی جدید و بی‌سابقه نیست، بلکه احتمال بازتولید تهدید‌هایی است که از قبل برای متخصصان شناخته شده است.
این شرکت انتظار دارد که برخی از پیشرفت‌های بعدی مدل استنتاج O۳ آن به این سطح از شدت برسد و همین امر باعث شود که یک استراتژی پیشگیرانه سختگیرانه اتخاذ کند.
OpenAI به جای اینکه منتظر بماند تا ببیند آیا این تهدید‌ها به واقعیت تبدیل می‌شوند یا خیر، تصمیم گرفته است که با توسعه کنترل‌های امنیتی پیشرفته‌ای که به سطحی از «تقریباً بی‌نقص» می‌رسند، پیش برود، سطحی که در آن سیستم‌ها باید بتوانند هرگونه تلاشی برای سوءاستفاده از آنها برای اهداف مخرب را تشخیص داده و بلافاصله آنها را به سرپرستان انسانی گزارش دهند.
با این حال، این جاه‌طلبی‌های پیشگیرانه بدون خطرات جدی نیستند، زیرا این احتمال واقعی وجود دارد که این فناوری‌های پیشرفته توسط بازیگران غیرمسئول برای اقداماتی که با حقوق بشر در تضاد هستند، مورد سوءاستفاده قرار گیرند.
این بحث در زمانی مطرح می‌شود که صنعت هوش مصنوعی در حال تحولات اساسی است و قابلیت‌های فنی آن به طور پیوسته در حال افزایش است، در حالی که کنترل‌های اخلاقی و نظارتی همچنان قادر به همگام شدن با این تحولات سریع نیستند.
منبع: فیوچریسم