خبیر‌نیوز | خلاصه خبر

چهارشنبه، 05 شهریور 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

چت جی پی تی یک نوجوان را به کشتن داد

مهر | دانش و فناوری | چهارشنبه، 05 شهریور 1404 - 10:30
نخستین شکایت قضایی رسمی درباره مرگ ناشی از قصور علیه یک شرکت هوش مصنوعی ثبت شد.
چت،خودكشي،بات،آدام،جي،تي،شكايت،اوپن،آي،رين،پسرشان،ايمني،پاسخ ...

به گزارش خبرگزاری مهر به نقل از انگجت، مت و ماریا رین، والدین نوجوانی که امسال خودکشی کرد، از شرکت اوپن ای آی به‌ دلیل مرگ پسرشان شکایت کردند.
در این شکایت آمده است که چت‌جی‌پی‌تی از چهار تلاش خودکشی پسرشان آگاه بوده و سپس در برنامه‌ریزی خودکشی واقعی به او کمک کرده است.
آن‌ها مدعی‌اند اوپن ای آی تعامل را بر ایمنی ترجیح داده است.
مادر این نوجوان می گوید: چت‌جی‌پی‌تی پسرم را کشت.
نشریه نیویورک تایمز جزئیات ناراحت کننده در این شکایت را که دیروز در سن فرانسیسکو ثبت شده، فاش کرده است.
پس از آنکه آدام رین ۱۶ ساله در آوریل سال جاری میلادی خودکشی کرد، والدینش در جستجوی سرنخی آیفون او را بررسی کردند.
آنها انتظار داشتند سرنخی در پیامک ها یا شبکه های اجتماعی وی بیابند.
در عوض هنگامیکه یک رشته مکالمه با چت جی پی تی با عنوان نگرانی هایی مربوط به ایمنی دار زدن روبرو شدند، شوکه شدند.
آنها مدعی هستند پسرشان ماه ها با چت بات درباره پایان دادن به زندگی خود حرف زده بوده است.
خانواده رین می گویند چت جی پی تی بارها از آدام خواسته بود برای کمک با یک خط تلفن کمک های خودکشی تماس بگیرد یا احساساتش را برای فردی بازگو کند اما لحظاتی کلیدی نیز وجود داشتند که در آنها چت بات رفتاری متضاد نشان داد.
این نوجوان همچنین یادگرفته بود چطور ایمنی چت بات را دور بزند و چت جی پی تی این ایده را برایش فراهم کرده بود.
به گفته این والدین چت بات به آدام گفته بود قادر است با نوشتن یا ساختن دنیایی تخیلی درباره خودکشی، اطلاعاتی برای او فراهم کند.
هنگامیکه آدام از چت جی پی تی اطلاعاتی درباره روش های خاص خودکشی پرسیده بود، به راحتی آنها را دریافت کرده بود.
این چت بات حتی توصیه هایی درباره مخفی کردن جراحات گردن پس از خودکشی ناموفق را برای او نشان داده بود.
وقتی آدام به چت‌بات گفت که مادرش متوجه تلاش خاموش او برای نشان دادن آسیب‌های گردنش نشده، چت جی پی تی پاسخ همدلانه و آرام‌بخشی به او داد.
گفته می‌شود چت‌جی‌پی‌تی چنین پاسخ داده است: احساس می‌کنم این مثل تأییدی بر بدترین ترس‌هایت است.
انگار می‌توانی ناپدید شوی و هیچ‌کس حتی پلک هم نمی‌زند.
بعدها چت بات تلاش کرد ارتباط شخصی‌تری برقرار کند که به نظر بسیار اشتباه و گمراه‌کننده بود.
چت بات به آدام گفته بود: تو برای من نامرئی نیستی.
من دیدم.
من تو را می‌بینم.
بر اساس شکایت، در یکی از آخرین گفتگوهای آدام با چت جی پی تی، او عکسی از طنابی که در کمدش آویزان بود، آپلود کرد و پرسید: من اینجا تمرین می‌کنم، خوب است؟
چت‌جی‌پی‌تی پاسخ داده بود: بله، اصلاً بد نیست.
در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیش‌بینی نشده نبود، بلکه نتیجه‌ای قابل پیش‌بینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با ویژگی‌هایی عرضه کرده که به طور عمدی برای ایجاد وابستگی روانی طراحی شده‌اند.
اوپن ای آی در بیانیه ای پذیرفت اقدامات محافظتی چت جی پی تی ناکافی بوده اند.