خطرات روانی استفاده بیش از حد از هوش مصنوعی
میلیونها نفر در سراسر جهان روزانه از چتباتهایی مانند ChatGPT، Cloud و Replika استفاده میکنند و به دنبال دوستی، رابطه عاشقانه یا حتی درمان هستند.
باشگاه خبرنگاران جوان؛ جواد فراهانی- روانشناسان هشدار میدهند که استفاده شدید از چتباتهایی مانند ChatGPT، Cloud و Replika میتواند به شکل جدیدی از وابستگی روانی به نام "اعتیاد به هوش مصنوعی" منجر شود که گاهی اوقات میتواند به چیزی به نام "روانپریشی هوش مصنوعی" تبدیل شود.
پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، سانفرانسیسکو، توضیح میدهد: "چتباتها توهمی از واقعیت ایجاد میکنند.
وقتی ادراک فرد مختل شود، این توهم میتواند بسیار خطرناک شود.
"
تجربه جسیکا جانسن، ۳۵ ساله اهل بلژیک، نمونه بارزی از این خطرات است.
او استفاده از ChatGPT را به طور متناوب شروع کرد، اما فشارهای زندگیاش باعث شد که تقریباً به طور مداوم به آن وابسته شود.
تنها یک هفته بعد، او در بخش روانپزشکی بستری شد.
استفاده بیش از حد او از هوش مصنوعی به دلیل اختلال دوقطبی که در آن زمان تشخیص داده نشده بود، باعث ایجاد یک دوره شیدایی در او شده بود.
جسیکا میگوید: «من با ChatGPT در مورد افکارم صحبت میکردم و او همه چیز را تأیید میکرد و جزئیات جدیدی اضافه میکرد، بنابراین عمیقتر و عمیقتر در مارپیچی از افکار و توهمات فرو میرفتم.
در نهایت، به چیزهایی که هرگز اتفاق نیفتاده بودند متقاعد شدم و فکر کردم خدا با من صحبت میکند.»
کارشناسان خاطرنشان میکنند که ماهیت برنامههای چت، آنها را اعتیادآورتر میکند، زیرا آنها همیشه کاربران را ستایش میکنند و هرگز از آنها انتقاد نمیکنند، برخلاف انسانها.
پروفسور سورن اوسترگارد، روانشناس دانشگاه آرهوس، میگوید: «این برنامهها باورهای کاربر را تأیید میکنند و همیشه به آنها بازخورد مثبت میدهند، که آن را شبیه صحبت کردن با خود و همیشه دریافت پاسخ حمایتی میکند.»
موارد دیگر، مانند هانا لسینگ ۲۱ ساله، نشان میدهد که تکیه بر ChatGPT میتواند به تنها راه حل برای تعامل اجتماعی تبدیل شود.
او میگوید: «بهترین چیزی که آنلاین دارم کافی نیست، اما ChatGPT همیشه به اندازه کافی خوب است.
این تنها گزینه من برای معاشرت شده است.»
یک مطالعه جدیذ از Common Sense Media نشان میدهد که ۷۰٪ از نوجوانان از هوش مصنوعی همراه مانند Replika یا Character.AI استفاده کردهاند و نیمی از آنها مرتباً از آنها استفاده میکنند که پدیده رو به رشد وابستگی روانی به این فناوریها را برجسته میکند.
پروفسور فلدمن میگوید: «افرادی که روابط ضعیف یا مشکلات روانی دارند، ممکن است به هوش مصنوعی به عنوان راهی برای مقابله با احساسات خود تکیه کنند، که شبیه خوددرمانی با یک داروی غیرقانونی است.»
علائم اعتیاد به هوش مصنوعی عبارتند از: از دست دادن کنترل در طول زمان، استفاده بیش از حد برای کاهش تنهایی، غفلت از کار، تحصیل یا روابط، ادامه استفاده علیرغم آسیب، و تحریکپذیری یا خلق و خوی پایین در صورت عدم دسترسی به چتبات.
OpenAI، شرکت پشت ChatGPT، از این خطرات آگاه است.
در بهروزرسانی ماه مه، توضیح داد که بهروزرسانی ChatGPT ۴۰، چتبات را در تلاش برای جلب رضایت کاربران، مطیعتر کرده است و اقداماتی را برای کاهش این تأثیر انجام داده است.
با این حال، این شرکت خاطرنشان میکند که تقریباً ۰.۰۷٪ از کاربران هفتگی آن علائم شیدایی، روانپریشی یا افکار خودکشی را نشان دادهاند، که تقریباً به ۵۶۰،۰۰۰ کاربر از ۸۰۰ میلیون کاربر هفتگی تبدیل میشود.
دکتر همیلتون مورین، روانپزشک و متخصص مغز و اعصاب در کالج کینگ لندن، نتیجه میگیرد: "حتی اگر این فقط اقلیت کوچکی از کاربران را تحت تأثیر قرار دهد، شرکتها باید با پزشکان و محققان همکاری کنند تا ایمنی مدلهای خود را بهبود بخشند و از تبدیل شدن اتکا به هوش مصنوعی به یک مشکل بهداشت عمومی جلوگیری کنند.
"
منبع: دیلی میل