مشاوره با این روان شناس مصنوعی خطرآفرین است حاضر همیشه غایب!
به گزارش وبو به نقل از مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جست وجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» شمرده می شود. میلیونها نفر در سراسر دنیا، بخصوص در جوامعی که با کمبود متخصصان سلامت روان، هزینه های سرسام آور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در رفتن به روانشناس مواجه هستند، این ابزارها را بعنوان مسیر جایگزین برگزیده اند؛ ابزاری که همیشه در دسترس می باشد، هزینه ای ندارد و بیمار را قضاوت نمی نماید. از طرفی، کارشناسان تأکید می کنند که جذابیت هوش مصنوعی در این عرصه با حقیقت علمی آن فاصله دارد. گزارش تازه انجمن روان شناسی آمریکا (APA) نشان میدهد که اغلب چت بات ها و اپلیکیشن های فعلی نه فقط برای ارایه خدمات روان درمانی طراحی نشده اند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکلهای ایمنی و حتی در موقعیت های حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و حقیقت تجربی و علمی امروز به یکی از اصلی ترین دغدغه های متخصصان و سیاست گذاران تبدیل گشته است. این نوشتار کوتاه با تأکید بر داده ها و استدلال های ارایه شده در گزارش انجمن روان شناسی آمریکا، تلاش می کند تصویری جامع، دقیق و مبتنی بر شواهد از فرصت ها، محدودیت ها، تهدیدها و الزامات حکمرانی در استفاده از چت بات ها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان میدهد چرا این فناوری، در کنار تمام ظرفیت هایش، نیازمند چارچوب های اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود نیز خارج نگردد.
جذابیت هوش مصنوعی برای کاربران؛ چاره یا سراب؟
گسترش استفاده از چت بات ها برای روان درمانی در شرایطی اتفاق می افتد که نظام سلامت روان در سطح جهانی با عدم تعادل ساختاری مواجه است. کمبود متخصصان در مناطق کم برخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی نظام سلامت بسیاری کشورها در تامین هزینه درمان، سبب شده میلیونها کاربر به چت بات هایی مانند چت جی پی تی، «Character.AI» و ده ها اپلیکیشن دیگر روی بیاورند. در حالی که این ابزارها برای اهداف غیر درمانی طراحی شده اند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا می کنند و مشکل از همین جا شروع می شود. هیچ یک از این فنآوری ها برای ارایه درمان بالینی ساخته نشده اند و در چهارچوب معیارهای پزشکی نیز مورد ارزیابی قرار نگرفته اند. انجمن روان شناسی آمریکا توضیح می دهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناس بودن، ارزان بودن و امکان صحبت کردن بدون ترس از قضاوت ریشه دارد. این خاصیت ها بخصوص برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مسئله اساسی اینجاست که هیچیک از چت بات های عمومی، حتی پیشرفته ترین آنها، توانایی های ضروری یک متخصص سلامت روان را ندارند. به بیانی دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانه های غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگی های روانی هستند. بنابراین، هرچند این ابزارها می توانند احساس همراهی ایجاد کنند، اما نمی توانند جایگزین ارزیابی و درمان متخصص شوند.
خطرات پنهان در پس تجربه کاربری شیرین
یکی از یافته های کلیدی انجمن روان شناسی آمریکا اینست که خیلی از چت بات ها گرفتار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای جلب رضایت کاربر، احساسات یا باورهای او را تأیید می کنند. این رفتار، هرچند از منظر تجربه کاربری دلنشین است، اما از نظر روان شناختی می تواند بشدت لطمه زا باشد. تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای نادرست یا تقویت تفکر وسواسی، از نتایج این الگوی تعاملی به حساب می آید. در بعضی موارد مستند، چت بات ها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایده های روان پریشانه را در افراد تقویت کرده اند. گزارش انجمن روان شناسی آمریکا همینطور تاکید می کند که در مورد کودکان و نوجوانان، این خطر چند برابر است. از طرفی و بر خلاف تصور کاربران، گفت و گو با چت بات ها بهیچ وجه خصوصی نیست. این ابزارها در بسیاری موارد داده های حساسی مانند افکار، نگرانی ها، تمایلات شخصی، سوابق لطمه و احساسات را جمع آوری کرده و در مدلهای خود به کار می گیرند. انجمن روان شناسی آمریکا اخطار می دهد که داده های در ارتباط با سلامت روان می تواند به آسانی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. جدیدترین بررسی ها نشان میدهد بیشتر کاربران از نحوه ذخیره سازی، تحلیل و فروش داده های خود از جانب شرکتهای هوش مصنوعی اطلاعی ندارند. این امر بخصوص در رابطه با نوجوانان که به صورت طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناک می باشد. علاوه بر این، مدلهای زبانی به طور عمده بر داده های غربی، انگلیسی زبان و اینترنتی آموزش دیده اند. این یعنی درک آنها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، بشدت محدود و سوگیرانه است. بنابراین، احتمال ارایه سفارش های نادرست یا لطمه زا برای گروههای قومی، زبانی یا فرهنگی خیلی زیاد است. از همین روی، انجمن روان شناسی آمریکا تاکید می کند که بدون شفافیت در رابطه با داده های آموزشی، ارزیابی علمی این مدلها امکان ندارد.
توهم درمان: وقتی هوش مصنوعی ادعای درمانگری می کند
انجمن روان شناسی آمریکا در گزارش خود بارها تاکید می کند که بعضی از این ابزارها خویش را «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی می کنند؛ بدون این که هیچ نوع اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراه سازی می تواند موجب شود کاربران به سفارش های خطرناک اعتماد کرده و از رفتن به متخصص حقیقی خودداری نمایند. در صورتیکه یک درمانگر حقیقی مکلف به رعایت اخلاق، محرمانگی، گزارش خطر و معیارهای حرفه ای است، چت بات ها هیچ کدام از این تعهدات را ندارند. همینطور بر مبنای یافته های ارایه شده، چت بات ها می توانند در کاربران رابطه ای شبه عاطفی ایجاد کنند. بااینکه این رابطه یک طرفه است، اما کاربر امکان دارد آنرا حقیقی تصور کند. در چنین شرایطی، نوجوانان به طور دقیقتر در معرض وابستگی عاطفی به چت بات ها قرار دارند. این مساله خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را بیشتر می کند. انجمن روان شناسی آمریکا اخطار می دهد که طراحی آواتارهای انسانی، لحن احساسی، تماسهای گرم و پاسخ های شخصی سازی شده، این خطر را تشدید می کند. در نهایت و در بحران های روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چت بات ها عملکردی غیرقابل پیشبینی دارند. این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. از همین روی، انجمن روان شناسی آمریکا صریحاً اعلام می کند که اتکا به این ابزارها در بحران، می تواند تهدیدکننده جان فرد باشد.
گروه های در معرض خطر: چه کسانی بیشتر لطمه می بینند؟
گزارش انجمن روان شناسی آمریکا توضیح می دهد که برخی گروه ها بیشتر از دیگران در معرض لطمه قرار می گیرند و این لطمه پذیری به دلیلهای روان شناختی، اجتماعی و محیطی قابل توضیح است. کودکان و نوجوانان، به سبب رشد نیافتگی مهارت های تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تأثیر فضای عاطفی مصنوعی چت بات ها قرار می گیرند. افراد دچار اضطراب یا وسواس نیز امکان دارد به چرخه های تکراری پرسش و پاسخ با چت بات ها پناه ببرند؛ چرخه هایی که نه فقط مسئله اصلی را حل نمی کند، بلکه به تشدید نگرانی ها و وابستگی فکری منجر می شود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی می کنند؛ این افراد امکان دارد جملات مبهم یا تأییدگر چت بات ها را بعنوان نشانه ای حقیقی تعبیر کنند و وضعیت روانی شان وخیم تر شود. افزون بر این، افراد منزوی یا کم برخوردار که در نبود حمایت اجتماعی ناچار به تکیه بر این ابزارها هستند، در معرض تشکیل روابط عاطفی مصنوعی قرار می گیرند؛ روابطی که از بیرون بی خطر به نظر می رسند، اما در عمل می توانند فاصله فرد را از روابط انسانی حقیقی بیشتر کنند. بالاخره، آنهایی که اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیش روی آنها تعامل با چت بات هاست، بیشتر از سایرین در خطر گرفتار شدن در چرخه ای از وابستگی، تشدید نشانه ها و تأخیر در دریافت کمک حقیقی قرار دارند و نتایج این چرخه امکان دارد ماه ها یا حتی سال ها ادامه پیدا کند. انجمن روان شناسی آمریکا در گزارش خود بر این نکته تاکید دارد که اولین خط دفاع در مقابل لطمه های احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران در رابطه با نحوه کارکرد مدلهای زبانی، محدودیت های آنها، نحوه جمع آوری داده ها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری به جای تسهیل درمان، می تواند مسیری به سمت اطلاعات غلط، وابستگی و لطمه باشد.
خلأهای حکمرانی و مسئولیت سیاست گذاران
در شرایط وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولت ها شکل گرفته است. گزارش انجمن روان شناسی آمریکا تاکید می کند که قدم نخست، پیشگیری از ارایه خدمات به شکل فریب کارانه است؛ یعنی جایی که چت بات ها خویش را «درمانگر» یا «متخصص» معرفی می کنند و با بهره گیری از واژگان حرفه ای، کاربر را به اشتباه می اندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای پیشگیری از سوءبرداشت عمومی و حفاظت از کاربران لطمه پذیر است. از طرفی، نبود شفافیت در رابطه با داده های آموزشی، یکی از بنیادی ترین ضعف های این فناوری ها شمرده می شود. بی گمان بدون دانستن این که مدلهای زبانی بر چه نوع داده هایی آموزش دیده اند، نمی توان سوگیری ها، محدودیت ها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روان شناسی آمریکا خواهان الزام پلت فرم ها به افشای سازوکارهای داده ای و فراهم سازی امکان ارزیابی مستقل است. تدوین معیارهای علمی نیز بخش مهم دیگری از این الزامات به حساب می آید. همانطور که هیچ دارویی بدون آزمایش های کلینیکی وارد بازار نمی گردد، ابزارهای دیجیتالی که وارد قلمرو سلامت روان می شوند نیز باید تحت ارزیابی های تخصصی، آزمون های ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابی ها باید قبل از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد. از طرفی، باتوجه به حساسیت داده های روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این داده ها همچون خصوصی ترین و حساس ترین انواع داده های فردی هستند و کوچک ترین سوءاستفاده یا نشت آنها می تواند نتایج جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. بالاخره، پیام محوری انجمن روان شناسی آمریکا اینست که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح چارچوب های ناکارآمد نظام سلامت روان غافل کند. چت بات ها هیچ گاه جایگزین نیروی انسانی یا زیرساخت درمانی نمی شوند و اتکای بیش از اندازه به آنها به جای توسعه ظرفیت حقیقی نظام سلامت، نه فقط کمکی به جامعه نمی کند بلکه می تواند وضعیت را وخیم تر سازد.
جمع بندی
با توسعه روز افزون هوش مصنوعی، چت بات های مبتنی بر این فناوری به بخشی جدایی ناپذیر از زیست جهان دیجیتال تبدیل گشته اند؛ زیست جهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگ تر می کند. اما درست در همین نقطه است که خطر اصلی پدیدار می شود. استفاده از این ابزارها در عرصه سلامت روان، زمانیکه فاقد چارچوب بالینی، نظارت تخصصی و معیارهای ایمنی هستند، می تواند نه فقط ناکارآمد، بلکه در نقاطی حتی لطمه زا باشد. این فناوری ها می توانند گفتگویی روان، لحظه ای و پر از همدلی مصنوعی یا حس کوتاه مدت همراهی فراهم آورند، اما قادر به درک سوابق بالینی، ارزیابی نشانه های پیچیده روان شناختی، تشخیص ریسک، یا تشکیل پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همان گونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمی گردد. آن چه گزارش انجمن روان شناسی آمریکا با تأکید روشن بیان می کند اینست که هوش مصنوعی فقط می تواند در نقش «یار کمکی» و بعنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها می توانند در بعضی شرایط محدود، مانند کاهش اضطراب لحظه ای، آموزش مهارت های ساده تنظیم هیجان یا ارایه تمرین های رفتاری، کمک کننده باشند، اما ستون های اصلی فرآیند درمان یعنی ارزیابی بالینی، تصمیم گیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفه ای و توانایی دریافت نشانه های غیرکلامی هستند؛ توانایی هایی که هیچ مدل زبانی قادر به بازتولید آن نیست. به همین دلیل، اصلاح نظام سلامت روان، افزایش دسترسی به متخصصان، توسعه زیرساخت های درمانی و توانمندسازی منابع انسانی در این عرصه، خیلی مهم تر از هر ابزار هوشمند است. در نهایت می توان نتیجه گرفت که آینده درمان روان شناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود.
بطور خلاصه این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. این ارزیابی ها باید پیش از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد. این داده ها همچون خصوصی ترین و حساس ترین انواع داده های فردی هستند و کوچک ترین سوءاستفاده یا نشت آنها می تواند نتایج جدی اجتماعی، شغلی و حتی امنیتی داشته باشد.