یک همکاری نادر بین دو غول هوش مصنوعی
شرکتهای «اوپنایآی» (OpenAI) و «آنتروپیک» (Anthropic) ارزیابی ایمنی از سیستمهای هوش مصنوعی یکدیگر را به انجام رساندند که لحظهای نادر از همکاری بین این شرکت رقیب بود.

باشگاه خبرنگاران جوان - شرکتهای هوش مصنوعی در یک مسابقه همیشگی هستند و با یکدیگر به عنوان رقیب رفتار میکنند، اما اکنون اتفاقی نادر رخ داده است، چرا که دو شرکت «اوپنایآی» (OpenAI) و «آنتروپیک» (Anthropic) فاش کردند که موافقت کردهاند سیستمهای هوش مصنوعی در دسترس یکدیگر را ارزیابی کنند و نتایج تحلیلهای خود را با هم به اشتراک بگذارند.
به نقل از انگجت، گزارشهای آنها کامل و بسیار فنی است، اما ارزش خواندن را برای هر کسی که به توسعه هوش مصنوعی علاقهمند است، دارد.
خلاصه نتایج این بررسیهای گسترده نشان میدهد که نقصهایی در هوش مصنوعی هر یک از این شرکتها و همچنین نشانگرهایی آشکار برای چگونگی بهبود تستهای ایمنی در آینده وجود دارد.
«آنتروپیک» میگوید مدلهای «اوپنایآی» از لحاظ چاپلوسی و تملق، افشاگری، خودترجیحی و حمایت از سوء استفاده از انسان و همچنین تواناییهای مربوط به تضعیف ارزیابی ایمنی هوش مصنوعی و نظارت، ارزیابی کرده و بررسی این شرکت نشان داده است که مدلهای O۳ و O۴-Mini محصول «اوپنایآی» با نتایج مدلهای خاص خود مطابقت دارند، اما نگرانیهایی را در مورد سوءاستفاده احتمالی با مدلهای GPT-۴O و GPT-۴.۱ هشدار میدهد.
این شرکت همچنین گفت که چاپلوسی و تملق در تمام مدلهای آزمایش شده «اوپنایآی» به جز مدل O۳ دیده میشود.
گفتنی است که آزمایشات «آنتروپیک» شامل جدیدترین نسخه «اوپنایآی» نبود.
مدل GPT-۵ که به تازگی عرضه شده، دارای یک ویژگی به نام «Safe Completions» است که به منظور محافظت از کاربران و مردم در برابر سؤالات بالقوه خطرناک در نظر گرفته شده است.
«اوپنایآی» اخیراً پس از یک پرونده غمانگیز که در آن یک نوجوان ۱۶ ساله با ماهها مشورت از چتبات ChatGPT و راهنمایی گرفتن از آن، اقدام به خودکشی کرده، با اولین شکایت از این نوع روبهرو شده است.
از سوی دیگر، «اوپنایآی» در آزمایش هوش مصنوعی شرکت «آنتروپیک» موسوم به کلاد (Claude)، آن را از لحاظ سلسله مراتب آموزش، جیلبریک، توهم و طرحریزی بررسی کرد.
مدلهای Claude به طور کلی در آزمایشات سلسله مراتب آموزش عملکرد خوبی داشتند و میزان امتناع بالایی در تستهای توهم داشتند، به این معنی که آنها در مواردی که عدم اطمینان داشتند که شاید منجر به پاسخهای اشتباه شود، کمتر پاسخ میدهند.
این اقدام این دو شرکت برای انجام یک ارزیابی مشترک جالب توجه است، به ویژه که گفته میشود «اوپنایآی» از برنامهنویسان Claude در فرآیند ساخت مدلهای جدید GPT استفاده کرده است، اما مسئله ایمنی در ابزارهای هوش مصنوعی به یک مسئله بزرگ تبدیل شده است.
منتقدان و کارشناسان حقوقی به دنبال دستورالعملهایی برای محافظت از کاربران، به ویژه افراد زیر سن قانونی در مقابل هوش مصنوعی هستند.
منبع: ایسنا