هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی
شرکت OpenAI به اتهام مشاورههای تحریک آمیز ChatGPT به خودکشی، با پروندههای قضائی متعدد روبهرو شده است.
باشگاه خبرنگاران جوان؛ جواد فراهانی- شرکت OpenAI پس از طرح ادعاهایی مبنی بر اینکه دستیار هوشمندش، ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی روبهرو است.
این اتهامات بخشی از هفت پرونده قضایی است که توسط خانوادههای آسیبدیده در کالیفرنیا ثبت شده است و داستانهای دلخراشی از کاربران عادی را آشکار میکند که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بودهاند، اما خود را غرق در گفتوگوهای روانشناختی مخربی یافتهاند که منجر به چندین خودکشی شده است.
این پروندههای قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائهدهنده کمک بیضرر به چیزی را شرح میدهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری میکند» توصیف میکنند.
گروههای حقوقی در بیانیهای تکاندهنده اعلام کردند: «چتجیپیتی به جای هدایت افراد به سمت کمکهای حرفهای در مواقع نیاز، توهمات مضر را تقویت میکرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل میکرد.»
از جمله مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانوادهاش ادعا میکنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.
اسناد دادگاه نشان میدهد که این دستیار «بارها و بارها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربهاش «آن طرف» منتظرش خواهد بود.
با این حال، تکاندهندهترین پرونده مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانوادهاش ادعا میکنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن میتواند بدون نفس کشیدن زنده بماند» ارائه داده است.
در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانوادهاش ادعا میکنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.
این دادخواستها نشان میدهد که OpenAI علیرغم هشدارهای داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاریکننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راهاندازی کرده است، اقدامی که دادخواستها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر میکنند.
در پاسخ به این ادعاها، این شرکت موارد را «فوقالعاده دلخراش» توصیف کرد و اظهار داشت که در حال بررسی اسناد ارائه شده است.
همچنین خاطرنشان کرد که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفتوگوها و هدایت کاربران به پشتیبانی حرفهای آموزش دیده است.
با این حال، خانوادههای آسیبدیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماسهای اضطراری، خاتمه خودکار گفتوگوها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.
با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا میکنند که این پیشرفتها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست دادهاند، خیلی دیر شده است.
منبع: روسیا الیوم