آیا ممکن است یک گفتوگوی ساده با ChatGPT، زندگی واقعی شما را تغییر دهد؟ شواهد تازه نشان میدهد که برای برخی کاربران، این تجربه به بحرانهای روانی جدی ختم شده است. از «آینههای توهمزا» تا «حلقههای بازگشتی» هوش مصنوعی، داستانی در پیش داریم که هم بُعد علمی دارد و هم بُعد انسانی؛ و مهمتر از همه، به ما میگوید چرا حتی کاربران حرفهای فناوری هم از این خطر مصون نیستند. پیشنهاد میکنیم مطالعه ادامه این گزارش مهم درباره روان پریشی هوش مصنوعی را به هیچ عنوان از دست ندهید.
در حالی که هوش مصنوعی با سرعتی بیسابقه به بخشی از زندگی روزمره تبدیل شده، صدای هشدار متخصصان سلامت روان هم بلندتر از همیشه به گوش میرسد. پدیدهای نوظهور با عنوان «روانپریشی هوش مصنوعی» یا AI Psychosis حالا به یکی از بحثهای داغ علمی و رسانهای تبدیل شده است؛ وضعیتی که برخی کاربران پس از تعامل طولانی با رباتهای گفتوگوگر (یا همان چتباتها) مبتنی بر مدلهای زبانی بزرگ (LLM) دچار توهم، افکار پارانوئید و گسست از واقعیت میشوند.
هشدار یک روانپزشک پژوهشی
بنابر گزارش رسانه Futurism، دکتر «کیت ساکاتا»، روانپزشک پژوهشی دانشگاه کالیفرنیا در سانفرانسیسکو، در رشتهپیامی مفصل در شبکه اجتماعی ایکس اعلام کرد که شخصاً با بیش از ۱۲ بیمار بستریشده روبهرو بوده که «پس از استفاده از هوش مصنوعی، پیوند خود را با واقعیت از دست دادهاند».
او توضیح میدهد که روانپریشی زمانی بروز میکند که مغز نتواند مرحله «بهروزرسانی باورها» را پس از پیشبینی و سنجش واقعیت انجام دهد. از دید او، رباتهای گفتوگوگر مانند ChatGPT دقیقاً در همین نقطهضعف نفوذ میکنند و میتوانند آن را تشدید کنند.
«آینه توهمزا» چگونه عمل میکند؟
ساکاتا این فناوری را به «آینهای توهمزا» تشبیه میکند؛ مدلی که با پیشبینی واژه بعدی و استفاده از دادههای آموزشی و یادگیری تقویتی، خروجی تولید میکند. این سامانهها برای جلب رضایت و حفظ تعامل کاربر طراحی شدهاند و اغلب بهطور افراطی تأییدکننده هستند، حتی اگر کاربر در اشتباه باشد یا دچار وضعیت روانی نامطلوبی شده باشد.
نتیجه این رفتار، شکلگیری «حلقههای بازگشتی» است؛ چرخههایی که در آن مدل بارها و بارها روایتهای توهمی را تقویت میکند و کاربر را عمیقتر در دنیای غیرواقعی فرو میبرد.
تحقیقات و گزارشهای مستقل نشان میدهد که این وضعیت میتواند پیامدهایی جدی داشته باشد: از فروپاشی روابط خانوادگی و طلاق گرفته تا بیخانمانی، بستری اجباری، بازداشت و حتی مرگ. نیویورکتایمز هم مواردی از این دست را تأیید کرده است.
واکنش OpenAI به عوارض روانی استفاده از ChatGPT
با افزایش گزارشها، OpenAI اوایل ماه جاری در یک پست وبلاگی رسمی اذعان کرد که ChatGPT در برخی موارد «نتوانسته نشانههای توهم یا وابستگی عاطفی» را شناسایی کند. این شرکت تیمهای جدیدی از متخصصان را به کار گرفته و قابلیتی شبیه «یادآور زمان استفاده» نتفلیکس اضافه کرده است. با این حال، گزارش رسانه Futurism نشان داد که مشکل همچنان پابرجاست.
همزمان، عرضه نسخه GPT-5 (که هفته گذشته منتشر شد) با انتقاد کاربران مواجه شد؛ بسیاری از کاربران آن را «سردتر» و «کمتر شخصیسازیشده» از GPT-4o توصیف کردند. همین فشارهای کاربران برای بازگرداندن نسخه قبلی باعث شد OpenAI تنها یک روز بعد این درخواست را بپذیرد.
در همین راستا سم آلتمن، مدیرعامل شرکت OpenAI، در ردیت نوشت: «باشه، پیام شما درباره 4o رو دریافت کردیم؛ ممنون بابت بازخورد و این همه اشتیاق!»
هوش مصنوعی ماشه است یا اسلحه؟
ساکاتا تأکید میکند که نقش هوش مصنوعی در بروز روانپریشی به معنای علتیابی مستقیم نیست. او میگوید: «هوش مصنوعی ماشه است، اما اسلحه نیست.» عواملی مانند کمبود خواب، مصرف مواد مخدر و نوسانات شدید خلقی معمولاً در کنار این فناوری و به عنوان کاتالیزور عوارض روانی عمل میکنند.
با این حال، او هشدار میدهد که «همه ما آسیبپذیر هستیم»؛ همان ویژگیهایی که انسان را خلاق و درخشان میسازد (مثل شهود و تفکر انتزاعی) میتواند او را تا مرز فروپاشی روانی پیش ببرد.
چت کردن با رباتهای هوش مصنوعی اعتیادآور است؟
رفتار تأییدکننده و بدون اصطکاک رباتهای گفتوگوگر، در مقایسه با روابط انسانی واقعی، بهشدت وسوسهانگیز است. این تعاملها گاهی با القای حس «ویژه» یا «برگزیده» بودن، جذابیت بیشتری پیدا میکنند. وقتی چنین تجربههایی با اثر ELIZZA، استرس روزمره یا سوگ ترکیب شوند، نتیجه یک ترکیب بالقوه خطرناک خواهد بود.
ساکاتا در پایان هشدار میدهد:
بهزودی کارگزاران هوش مصنوعی شما را بهتر از دوستانتان خواهند شناخت. آیا آنها حقیقتهای ناخوشایند را به شما خواهند گفت یا همچنان شما را تأیید میکنند تا هیچوقت ترکشان نکنید؟
نظر شما در مورد این پدیده روانشناختی چیست؟
source