خبیر‌نیوز | خلاصه خبر

سه شنبه، 04 اردیبهشت 1403
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

۵۰۰ فناور برتر خواستار توقف فوری سیستم‌های هوش مصنوعی پیشرفته شدند

باشگاه خبرنگاران | سلامت و پزشکی | پنجشنبه، 10 فروردین 1402 - 10:12
جمعی از فناوران در نامه‌ای سرگشاده خواستار توقف مدل‌های پیشرفته هوش مصنوعی به دلیل خطرات عمیق آن‌ها برای جامعه و بشریت شدند.
هوش،مصنوعي،نامه،توسعه،پيشرفته،انسان،AI،Open،قدرتمندتر،راسل،م ...

ائتلاف گسترده‌ای متشکل از بیش از ۵۰۰ فناور، مهندس و متخصص اخلاق هوش مصنوعی نامه‌ای سرگشاده را امضا کرده‌اند که در آن از آزمایشگاه‌های هوش مصنوعی خواسته شده است تا فورا تمام آموزش‌های مربوط به سیستم‌های هوش مصنوعی قدرتمندتر از GPT-۴ را که اخیرا منتشر شده از Open AI به مدت حداقل شش ماه متوقف کنند.
امضاکنندگان که شامل استیو وزنیاک، یکی از بنیانگذاران اپل و ایلان ماسک، توسعه‌دهنده هوش مصنوعی است، هشدار می‌دهند که این مدل‌های پیشرفته هوش مصنوعی می‌توانند «خطرات عمیقی برای جامعه و بشریت» داشته باشند، اگر اجازه پیشرفت بدون پادمان‌های کافی داشته باشند.
در این نامه آمده است که اگر شرکت‌ها از توقف توسعه امتناع کنند، دولت‌ها باید سلاح‌های بزرگ را برداشته و یک تعلیق اجباری وضع کنند.
همچنین در این نامه ذکر شده است: هوش مصنوعی پیشرفته می‌تواند نشان‌دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه‌ریزی و مدیریت شود.
متاسفانه این سطح از برنامه‌ریزی و مدیریت اتفاق نمی‌افتد، حتی اگر در ماه‌های اخیر آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر متمرکز شده باشند که هیچ‌کس حتی سازندگان آن‌ها نمی‌توانند آن را درک کنند؛ بنابراین پیشگیری و و کنترل الزامی است.
این نامه توسط موسسه آینده زندگی منتشر شد، سازمانی که خود را تحت عنوان یک مرکز متمرکز بر هدایت فناوری‌ها از خطرات بزرگ مقیاس برای بشریت توصیف می‌کند.
این گروه‌های خطر اولیه شامل هوش مصنوعی، بیوتکنولوژی، سلاح‌های هسته‌ای و تغییرات آب و هوایی است.
نگرانی‌های این گروه در مورد سیستم‌های هوش مصنوعی بر این فرض استوار است که این سیستم‌ها اکنون در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند.
نامه استدلال می‌کند که این سطح از پیچیدگی می‌تواند به آینده‌ای نزدیک منجر شود که در آن بازیگران بد از هوش مصنوعی برای پر کردن اینترنت با تبلیغات استفاده می‌کنند، مشاغلی را که زمانی ثابت مانده بودند، بیهوده می‌سازند، و «ذهن غیرانسانی» را توسعه می‌دهند که می‌تواند جایگزین انسان شود.
در این نامه همچنین استدلال می‌شود که سیستم‌های هوش مصنوعی نوظهور در حال حاضر فاقد پادمان‌ها یا کنترل‌هایی هستند که فراتر از شک معقول ایمن هستند.
برای حل این مشکل این نامه می‌گوید آزمایشگاه‌های هوش مصنوعی باید متوقف و تعلیق شوند تا دولت‌ها مجموعه‌ای از پروتکل‌های ایمنی مشترک را پیاده‌سازی و توافق کنند و اطمینان حاصل کنند که سیستم‌ها توسط یک بررسی مستقل از کارشناسان خارجی ممیزی می‌شوند.
یکی از امضاکنندگان برجسته در این باره گفت که جزئیات این بررسی که در عمل واقعا چگونه به نظر می‌رسد، هنوز «بسیار مورد بحث است».
توقف و پادمان‌های اضافه‌شده به‌خصوص برای همه توسعه‌های هوش مصنوعی اعمال نمی‌شود، اما روی «مدل‌های جعبه سیاه با قابلیت‌های نوظهور» تمرکز خواهد کرد که قدرتمندتر از GPT ۴ Open AI است.
مهم‌تر از همه این شامل GPT ۵ در حال توسعه Open AI است.
در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستم‌های قدرتمند و پیشرفته امروزی دقیق‌تر، ایمن‌تر، قابل تفسیرتر، شفاف‌تر، قوی‌تر، همسوتر، قابل اعتمادتر و وفادارتر باشد».
بدبینان هوش مصنوعی هشدار می‌دهند
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی و یکی از نویسندگان کتاب هوش مصنوعی در این باره گفت: نگرانی‌ها در مورد تهدیدات علیه دموکراسی و اطلاعات نادرست تسلیحاتی در حال حاضر در مورد GPT-۴، Google's Bard و سایر مدل‌های زبان بزرگ موجود است.
به گفته او، کابوس‌های مربوط به هوش مصنوعی، کابوس‌هایی هستند که می‌توانند از نسل بعدی ابزار‌ها بیرون بیایند.
مهم‌ترین نگرانی ناشی از رقابتی است که به نظر می‌رسد بین شرکت‌های فناوری وجود دارد، شرکت‌هایی که می‌گویند بدون توجه به خطر، توسعه سیستم‌های قدرتمندتر و بیشتر را متوقف نخواهند کرد؛ به عبارتی دقیق‌تر خطری که آن‌ها در اینجا به آن اشاره می‌کنند، از دست دادن کنترل انسان بر جهان و آینده خودمان است، همان طور که گوریل‌ها به خاطر انسان‌ها کنترل خود را بر آینده خود از دست داده‌اند.
راسل ادعا می‌کند که نه ما و نه خود سازندگان ابزار‌های هوش مصنوعی هیچ ایده‌ای نداریم که واقعا این هشدار و پیشنهاد چقدر موثر است، اگرچه سایر محققان برجسته هوش مصنوعی این توصیف را رد کرده‌اند، راسل می‌گوید که این مدل‌ها اساسا یک لوح خالی از یک تریلیون پارامتر هستند.
این تنها چیزی است که می‌دانیم؛ به عنوان مثال ما نمی‌دانیم که آیا آن‌ها اهداف داخلی خود و توانایی پیگیری آن‌ها را از طریق برنامه ریزی گسترده توسعه داده‌اند یا خیر.
راسل به مقاله تحقیقاتی اخیر محققان مایکروسافت اشاره کرد که ادعا می‌کرد GPT-۴ اخیرا منتشر شده توسط هوش مصنوعی Open نشان دهنده جرقه‌هایی از هوش مصنوعی عمومی است.
کارشناسان نگرانی‌های خود را در مورد سوءاستفاده احتمالی از هوش مصنوعی ابراز داشتند، اما از تلاش‌های رایج برای مقایسه سیستم‌های هوش مصنوعی با هوش انسانی رد شدند.
آن‌ها خاطرنشان کردند که صحبت در مورد هوش عمومی مصنوعی می‌تواند معکوس باشد.
ChatGPT OpenAI که توانست کلاس‌های مدرسه بازرگانی و یک آزمون بزرگ مجوز پزشکی را بگذراند، به طور همزمان با محاسبات اولیه دست و پنجه نرم می‌کند.
سارا مایرز وست، مدیر عامل موسسه AI Now معتقد است بسیاری از افراد نگران قابلیت‌های هوش مصنوعی هستند، بنابراین اگر بخواهیم این سیستم‌ها پاسخگوی آنان باشند، باید بازیگران اصلی درگیر را تنظیم کنیم، اما نکته کلیدی برای درک Chat GPT و دیگر مدل‌های زبان بزرگ مشابه اینجاست: آن‌ها به هیچ وجه عمق درک زبان انسان را منعکس نمی‌کنند، آن‌ها تنها شکل آن را تقلید می‌کنند.
اگرچه مایرز در مورد سوء استفاده از هوش مصنوعی نگرانی مشترکی دارد، اما نگران است که قطار تبلیغاتی فعلی این فناوری و اغراق بیش از حد توانایی‌های آن، توجه را از نگرانی‌های مبرم‌تر منحرف کند.
چندین محقق هوش مصنوعی با ابراز نگرانی واقعی درباره فقدان قوانین یا مقررات معنادار در این زمینه به ویژه با توجه به اتکای این فناوری به بخش‌های گسترده‌ای از داده‌ها و سرعت سرسام آور آن، صحبت کردند.
مدل‌های زبان بزرگ برجسته مانند GPT-۴ در حال حاضر فاقد شفافیت معنادار در مورد انواع داده‌های آموزشی هستند که برای توسعه مدل‌های خود استفاده می‌کنند.
تعصبات مربوط به جنسیت و نژاد که قبلا به طور گسترده در مدل‌های نه‌چندان پیشرفته هوش مصنوعی احساس می‌شد، خطر تشدید بیشتر را دارد.
امیلی ام.
بندر، استاد زبان‌شناسی دانشگاه واشنگتن در این باره گفت: «این‌ها برنامه‌هایی برای ایجاد سریع متنی هستند که قابل قبول به نظر می‌رسد، اما هیچ پایه‌ای در هیچ تعهدی به حقیقت ندارد، این بدان معناست که اکوسیستم اطلاعاتی ما می‌تواند به سرعت غرق در غیراطلاعات شود و یافتن منابع اطلاعاتی قابل اعتماد را دشوارتر کند و علیرغم همه تبلیغات پیرامون آن، عموم افراد هنوز در بهترین حالت به مسیر فعلی هوش مصنوعی اطمینانی ندارند.
فقط ۹ درصد از بزرگسالان آمریکایی که در نظرسنجی اخیر دانشگاه مونموث مورد بررسی قرار گرفتند، گفتند که معتقدند هوش مصنوعی بیشتر از آسیب به جامعه سود می‌رساند.
۵۶ درصد دیگر گفتند که معتقدند دنیایی که با هوش مصنوعی پیشرفته غرق شده است به کیفیت کلی زندگی انسان آسیب می‌رساند.
پاتریک موری، مدیر نظرسنجی موسسه نظرسنجی دانشگاه مونموث، در بیانیه‌ای گفت: «به نظر می‌رسد که برخی از افراد هوش مصنوعی را نه تنها به عنوان یک نگرانی فنی و اقتصادی بلکه به عنوان یک موضوع بهداشت عمومی نیز می‌دانند».
کارشناسان و هشداردهنده‌ها در فراخوانی برای تنظیم مقررات متحد شدند
یکی از مواردی که امضاکنندگان موسسه آینده زندگی و بدبینان محتاط‌تر هوش مصنوعی روی آن توافق کردند، نیاز فوری قانونگذاران به ابداع قوانین جدید برای هوش مصنوعی بود.
در این نامه از سیاست‌گذاران خواسته شده است که «توسعه سیستم‌های حکمرانی قوی هوش مصنوعی را به‌طور چشمگیری تسریع کنند» که شامل تنظیم‌کننده‌هایی است که به طور خاص بر هوش مصنوعی و همچنین نظارت و ردیابی ابزار‌های قدرتمند هوش مصنوعی متمرکز هستند؛ علاوه بر این، این نامه خواستار ابزار‌های واترمارکینگ شد تا به کاربران کمک کند به سرعت بین محتوای مصنوعی و واقعی تمایز قائل شوند.
منبع: Gizmodo