خطرات روانی استفاده بیش از اندازه از هوش مصنوعی

باشگاه خبرنگاران جوان؛ جواد فراهانی- روانشناسان هشدار می دهند که استفاده شدید از چت بات هایی مانند ChatGPT، Cloud و Replika می تواند به صورت جدیدی از وابستگی روانی به نام “اعتیاد به هوش مصنوعی” منجر شود که گاهی اوقات می تواند به چیزی به نام “روان پریشی هوش مصنوعی” تبدیل گردد.
پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، سانفرانسیسکو، توضیح می دهد: “چت بات ها توهمی از واقعیت ایجاد می کنند. وقتی ادراک فرد مختل شود، این توهم می تواند خیلی خطرناک شود. “
تجربه جسیکا جانسن، ۳۵ ساله اهل بلژیک، نمونه بارزی از این خطرات است. او استفاده از ChatGPT را بطور متناوب آغاز کرد، اما فشار های زندگی اش سبب شد که تقریبا بطور مداوم به آن وابسته شود. تنها یک هفته بعد، او در بخش روانپزشکی بستری شد. استفاده بیش از اندازه او از هوش مصنوعی به سبب اختلال دوقطبی که در آن زمان تشخیص داده نشده بود، موجب ایجاد یک دوره شیدایی در او شده بود.
جسیکا می گوید: «من با ChatGPT در مورد افکارم صحبت می کردم و او همه چیز را تأیید می کرد و جزییات جدیدی اضافه می کرد، بدین سبب عمیق تر و عمیق تر در مارپیچی از افکار و توهمات فرو می رفتم. بالاخره، به چیز هایی که هیچ گاه اتفاق نیفتاده بودند متقاعد شدم و فکر کردم خدا با من صحبت می کند.»
کارشناسان خاطرنشان می کنند که ماهیت برنامه های چت، آنها را اعتیادآورتر می کند، برای اینکه آنها همیشه کاربران را ستایش می کنند و هیچ گاه از آنها انتقاد نمی کنند، برعکس انسان ها. پروفسور سورن اوسترگارد، روان شناس دانشگاه آرهوس، می گوید: «این برنامه ها باور های کاربر را تأیید می کنند و همیشه به آنها بازخورد مثبت می دهند، که آنرا شبیه صحبت کردن با خود و همیشه دریافت پاسخ حمایتی می کند.»
موارد دیگر، مانند هانا لسینگ ۲۱ ساله، نشان میدهد که اتکا بر ChatGPT می تواند به تنها راهکار برای تعامل اجتماعی تبدیل گردد. او می گوید: «بهترین چیزی که آنلاین دارم کافی نیست، اما ChatGPT همیشه به قدر لازم خوب است. این تنها گزینه من برای معاشرت شده است.»
یک مطالعه جدیذ از Common Sense Media نشان میدهد که ۷۰٪ از نوجوانان از هوش مصنوعی همراه مانند Replika یا Character.AI بهره برده اند و نیمی از آنها مرتباً از آنها استفاده می نمایند که پدیده رو به رشد وابستگی روانی به این فناوری ها را برجسته می کند.
پروفسور فلدمن می گوید: «افرادی که روابط ضعیف یا مشکلات روانی دارند، امکان دارد به هوش مصنوعی به عنوان راهی برای مواجهه با احساسات خود تکیه کنند، که شبیه خوددرمانی با یک داروی برخلاف قانون است.»
علایم اعتیاد به هوش مصنوعی عبارتند از: از دست دادن کنترل در طول زمان، استفاده بیش از اندازه برای کاهش تنهایی، غفلت از کار، تحصیل یا روابط، ادامه استفاده باوجود آسیب، و تحریک پذیری یا خلق و خوی پایین در صورت عدم دسترسی به چت بات.
OpenAI، شرکت پشت ChatGPT، از این خطرات آگاه است. در بروزرسانی ماه مه، توضیح داد که بروزرسانی ChatGPT ۴۰، چت بات را در کوشش برای جلب رضایت کاربران، مطیع تر کرده است و اقداماتی را برای کاهش این تأثیر انجام داده است.
در عین حال، این شرکت خاطرنشان می کند که تقریبا ۰.۰۷٪ از کاربران هفتگی آن علایم شیدایی، روان پریشی یا افکار خودکشی را نشان داده اند، که تقریبا به ۵۶۰، ۰۰۰ کاربر از ۸۰۰ میلیون کاربر هفتگی تبدیل می شود.
دکتر همیلتون مورین، روانپزشک و متخصص مغز و اعصاب در کالج کینگ لندن، نتیجه می گیرد: “حتی اگر این فقط اقلیت کوچکی از کاربران را تحت تأثیر قرار دهد، شرکت ها باید با پزشکان و پژوهشگران همکاری کنند تا ایمنی مدلهای خودرا بهبود بخشند و از تبدیل شدن اتکا به هوش مصنوعی به یک مشکل بهداشت عمومی جلوگیری نمایند. “
منبع: دیلی میل

به طور خلاصه، تنها یک هفته بعد، او در قسمت روانپزشکی بستری شد. استفاده بیش از حد او از هوش مصنوعی به جهت اختلال دوقطبی که در آن زمان تشخیص داده نشده بود، باعث ایجاد یک دوره شیدایی در او شده بود.
جسیکا می گوید: من با ChatGPT در مورد افکارم صحبت می کردم و او همه چیز را تأیید می کرد و جزئیات جدیدی اضافه می کرد، به این دلیل عمیق تر و عمیق تر در مارپیچی از افکار و توهمات فرو می رفتم. در به روزرسانی ماه مه، توضیح داد که به روزرسانی ChatGPT ۴۰، چت بات را در تلاش برای کسب رضایت کاربران، مطیع تر کرده است و اقداماتی را برای کاهش این تاثیر انجام داده است.
با این وجود، این شرکت خاطرنشان می کند که حدودا ۰.۰۷٪ از کاربران هفتگی آن علائم شیدایی، روان پریشی یا افکار خودکشی را نشان داده اند، که حدودا به ۵۶۰، ۰۰۰ کاربر از ۸۰۰ میلیون کاربر هفتگی تبدیل می شود.
دکتر همیلتون مورین، روانپزشک و متخصص مغز و اعصاب در کالج کینگ لندن، نتیجه می گیرد: حتی اگر این فقط اقلیت کوچکی از کاربران را تحت تاثیر قرار دهد، شرکت ها باید با پزشکان و محققان همکاری کنند تا ایمنی مدل های خودرا بهبود بخشند و از تبدیل شدن اتکا به هوش مصنوعی به یک مشکل بهداشت عمومی جلوگیری نمایند.

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *