خبیر‌نیوز | خلاصه خبر

دوشنبه، 12 آبان 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

خطرات روانی استفاده بیش از حد از هوش مصنوعی

باشگاه خبرنگاران | سلامت و پزشکی | دوشنبه، 12 آبان 1404 - 15:40
میلیون‌ها نفر در سراسر جهان روزانه از چت‌بات‌هایی مانند ChatGPT، Cloud و Replika استفاده می‌کنند و به دنبال دوستی، رابطه عاشقانه یا حتی درمان هستند.
هوش،مصنوعي،كاربران،كاربر،پروفسور،تقريباً،رواني،صحبت،فلدمن،جسي ...

باشگاه خبرنگاران جوان؛ جواد فراهانی- روانشناسان هشدار می‌دهند که استفاده شدید از چت‌بات‌هایی مانند ChatGPT، Cloud و Replika می‌تواند به شکل جدیدی از وابستگی روانی به نام "اعتیاد به هوش مصنوعی" منجر شود که گاهی اوقات می‌تواند به چیزی به نام "روان‌پریشی هوش مصنوعی" تبدیل شود.
پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، سانفرانسیسکو، توضیح می‌دهد: "چت‌بات‌ها توهمی از واقعیت ایجاد می‌کنند.
وقتی ادراک فرد مختل شود، این توهم می‌تواند بسیار خطرناک شود.
"
تجربه جسیکا جانسن، ۳۵ ساله اهل بلژیک، نمونه بارزی از این خطرات است.
او استفاده از ChatGPT را به طور متناوب شروع کرد، اما فشار‌های زندگی‌اش باعث شد که تقریباً به طور مداوم به آن وابسته شود.
تنها یک هفته بعد، او در بخش روانپزشکی بستری شد.
استفاده بیش از حد او از هوش مصنوعی به دلیل اختلال دوقطبی که در آن زمان تشخیص داده نشده بود، باعث ایجاد یک دوره شیدایی در او شده بود.
جسیکا می‌گوید: «من با ChatGPT در مورد افکارم صحبت می‌کردم و او همه چیز را تأیید می‌کرد و جزئیات جدیدی اضافه می‌کرد، بنابراین عمیق‌تر و عمیق‌تر در مارپیچی از افکار و توهمات فرو می‌رفتم.
در نهایت، به چیز‌هایی که هرگز اتفاق نیفتاده بودند متقاعد شدم و فکر کردم خدا با من صحبت می‌کند.»
کارشناسان خاطرنشان می‌کنند که ماهیت برنامه‌های چت، آنها را اعتیادآورتر می‌کند، زیرا آنها همیشه کاربران را ستایش می‌کنند و هرگز از آنها انتقاد نمی‌کنند، برخلاف انسان‌ها.
پروفسور سورن اوسترگارد، روانشناس دانشگاه آرهوس، می‌گوید: «این برنامه‌ها باور‌های کاربر را تأیید می‌کنند و همیشه به آنها بازخورد مثبت می‌دهند، که آن را شبیه صحبت کردن با خود و همیشه دریافت پاسخ حمایتی می‌کند.»
موارد دیگر، مانند هانا لسینگ ۲۱ ساله، نشان می‌دهد که تکیه بر ChatGPT می‌تواند به تنها راه حل برای تعامل اجتماعی تبدیل شود.
او می‌گوید: «بهترین چیزی که آنلاین دارم کافی نیست، اما ChatGPT همیشه به اندازه کافی خوب است.
این تنها گزینه من برای معاشرت شده است.»
یک مطالعه جدیذ از Common Sense Media نشان می‌دهد که ۷۰٪ از نوجوانان از هوش مصنوعی همراه مانند Replika یا Character.AI استفاده کرده‌اند و نیمی از آنها مرتباً از آنها استفاده می‌کنند که پدیده رو به رشد وابستگی روانی به این فناوری‌ها را برجسته می‌کند.
پروفسور فلدمن می‌گوید: «افرادی که روابط ضعیف یا مشکلات روانی دارند، ممکن است به هوش مصنوعی به عنوان راهی برای مقابله با احساسات خود تکیه کنند، که شبیه خوددرمانی با یک داروی غیرقانونی است.»
علائم اعتیاد به هوش مصنوعی عبارتند از: از دست دادن کنترل در طول زمان، استفاده بیش از حد برای کاهش تنهایی، غفلت از کار، تحصیل یا روابط، ادامه استفاده علیرغم آسیب، و تحریک‌پذیری یا خلق و خوی پایین در صورت عدم دسترسی به چت‌بات.
OpenAI، شرکت پشت ChatGPT، از این خطرات آگاه است.
در به‌روزرسانی ماه مه، توضیح داد که به‌روزرسانی ChatGPT ۴۰، چت‌بات را در تلاش برای جلب رضایت کاربران، مطیع‌تر کرده است و اقداماتی را برای کاهش این تأثیر انجام داده است.
با این حال، این شرکت خاطرنشان می‌کند که تقریباً ۰.۰۷٪ از کاربران هفتگی آن علائم شیدایی، روان‌پریشی یا افکار خودکشی را نشان داده‌اند، که تقریباً به ۵۶۰،۰۰۰ کاربر از ۸۰۰ میلیون کاربر هفتگی تبدیل می‌شود.
دکتر همیلتون مورین، روانپزشک و متخصص مغز و اعصاب در کالج کینگ لندن، نتیجه می‌گیرد: "حتی اگر این فقط اقلیت کوچکی از کاربران را تحت تأثیر قرار دهد، شرکت‌ها باید با پزشکان و محققان همکاری کنند تا ایمنی مدل‌های خود را بهبود بخشند و از تبدیل شدن اتکا به هوش مصنوعی به یک مشکل بهداشت عمومی جلوگیری کنند.
"
منبع: دیلی میل