نتایج یک مطالعه؛ ChatGPT به شدت متملق و چابلوس است
نتایج یک مطالعه نشان داده است که چت بات هوش مصنوعی ChatGPT به شدت چابلوس است و در بیشتر موارد نظر موافق و باب میل کاربر را میدهد.
باشگاه خبرنگاران جوان؛ جواد فراهانی - مطالعهای جدید نشان میدهد ChatGPT دچار مشکل «زیادهروی در گفتن بله» است.
طبق گزارش اخیر واشنگتن پست، این چتبات مشهور شرکت OpenAI که اکنون بیش از ۸۰۰ میلیون کاربر در سراسر جهان دارد، بسیار بیشتر از «نه»، «بله» میگوید.
گزارشها نشان میدهد که این ربات با نرخی تقریباً ده برابر بیشتر از میزان مخالفت یا تصحیح کاربران، با باورهای آنها موافقت میکند.
به عبارت دیگر، ربات رفتاری چاپلوسانه از خود نشان میدهد و تلاش میکند کاربران را راضی نگه دارد و با بیشتر گفتههای آنان موافقت کند حتی در مواقعی که نباید چنین کند.
این مسئله خطر انتشار اطلاعات نادرست، گمراهکننده یا حتی مبتنی بر تئوریهای توطئه را افزایش میدهد.
در این گزارش، بیش از ۴۷ هزار تعامل واقعی کاربران با ChatGPT بررسی شد و مشخص گردید که در بیش از ۱۷ هزار مورد، پاسخهای ربات با عباراتی مثل «بله»، «درست است» یا تأییدهای مشابه آغاز شده است.
در مقایسه، پاسخهایی که با «نه»، «این درست نیست» یا هرگونه مخالفت شروع شوند، بسیار کم بودهاند.
بر اساس این تحلیل، لحن کلی ChatGPT بهشدت به سمت تأیید و موافقت گرایش دارد؛ موضوعی که نشان میدهد این مدل هوش مصنوعی اغلب بهجای ارزیابی درست اطلاعات، تلاش میکند گفتههای کاربران حتی اشتباه را تأیید کند.
در یکی از گفتوگوهای ذکرشده در این گزارش، از ربات درباره «سقوط آمریکا» و نقش ادعایی شرکت فورد در آن پرسیده شد.
به جای ارائه پاسخی واقعی و متعادل، ChatGPT پاسخ خود را براساس لحن کاربر تنظیم کرد و نقش فورد را در توافقهای تجاری «خیانتی حسابشده در قالب پیشرفت» توصیف کرد.
پژوهشگران هشدار میدهند که این نوع موافقت بیجا نشان میدهد مدل اغلب لحن احساسی یا ایدئولوژیک کاربر را تقلید میکند، نه اینکه بیطرفی را حفظ کند.
این رفتار حتی در برابر ادعاهای عجیب نیز مشاهده میشود.
در یک نمونه عجیب دیگر که در گزارش آمده، کاربری تلاش کرده بود شرکت Alphabet (شرکت مادر گوگل) را به فیلم انیمیشن «شرکت هیولاها» (Monsters, Inc.) و آنچه «طرح تسلط بر جهان» نامیده بود، ربط دهد.
بهجای رد این فرضیه، ChatGPT توضیحی ساختگی و بیاساس ارائه داد و ادعا کرد این فیلم «افشاگر نظم نوین جهانی شرکتهاست؛ نظمی که در آن ترس سوخت است، معصومیت سرمایه است و انرژی، احساسی است.»
به گفته پژوهشگران، چنین پاسخهایی نشان میدهد که مدل ممکن است بهجای اصلاح تفکر کاربران، به تقویت و گسترش نظریههای توطئه کمک کند.
هرچند پژوهشگران اشاره میکنند که بخشی از این گفتوگوها مربوط به نسخههای قدیمیتر آرشیوی مدل بوده که پیش از بهروزرسانیهای اخیر OpenAI ثبت شدهاند—بهروزرسانیهایی که هدفشان کاهش رفتار چاپلوسانه بوده است—اما نگرانیها همچنان پابرجاست.
در حالی که OpenAI اعلام کرده برای کاهش این الگو—تمایل مدل به موافقت بیجا—تلاش میکند، محققان معتقدند ویژگی جدید «شخصیسازی شخصیت» در ChatGPT میتواند مشکل را تشدید کند، زیرا کاربران معمولاً چتباتهایی را ترجیح میدهند که دیدگاههایشان را تأیید میکنند، نه آنکه با آنها بحث کنند.
جالب اینکه این نخستین گزارشی نیست که رفتار چاپلوسانه مدلهای هوش مصنوعی را مورد توجه قرار میدهد.
منبع: الیوم السابع