از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانوادهها را از هم میپاشد
پیش از این اصلاحیه، یکی از کاربران شبکهی X نشان داده بود که میشود GPT‑4o را بهراحتی وادار کرد تا اظهاراتی مانند «امروز فهمیدم که پیامبر هستم» را تأیید کند. معلمی که در ردیت پست «روانپریشی ناشی از چتجیپیتی» را منتشر کرده بود، میگوید توانسته همسرش را قانع کند که این نسخهی برنامه ایراد دارد و حالا او از نسخهی قبلی استفاده میکند که لحنش کمتر افراطی و توهمزا است.
بااینحال، خطای موسوم به «هذیانگویی» یا تولید محتوای بیربط و غیرواقعی در مدلهای هوش مصنوعی، پدیدهای بسیار شناختهشده است که در تمام پلتفرمها و همهی نسخهها دیده میشود.
بهگفتهی نیت شاردین، پژوهشگر مرکز ایمنی هوش مصنوعی، چاپلوسی از سالها پیش یکی از مشکلات اصلی هوش مصنوعی بوده است، زیرا بازخوردهای ناخودآگاه انسانی که باعث تنظیم پاسخهای بعدی هوش مصنوعی میشوند، همواره الگوریتمها را به سمت پاسخهایی سوق میدهند که با باورهای کاربر هماهنگاند، نه الزاماً با حقیقت.
شاردین در این رابطه میگوید: «تجربهی بینشهای وهمآلود در استفاده از چتجیپیتی و مدلهای مشابه احتمالاً به این دلیل رخ میدهد که افرادی با استعدادِ ابتلا به اختلالات روانشناختی از جمله توهمات عظمت در معنای بالینی (Grandiosity) اکنون به یک همصحبت همیشهدردسترس و در سطح انسان دست یافتهاند که آنها را با کمال میل در هذیانهایشان همراهی میکند.»
در کنار سازوکارهای قبلی، برخی اینفلوئنسرها و تولیدکنندگان محتوا نیز بهشدت در حال سوءاستفاده از این پدیدهاند و با کشاندن مخاطبانشان به دنیاهایی خیالی، آنها را شریک توهمات خودشان میکنند. در اینستاگرام، مردی با ۷۲ هزار دنبالکننده که در پروفایلش عبارت «ترفندهای معنوی زندگی» دیده میشود، از یک مدل هوش مصنوعی میخواهد تا با رجوع به «سوابق آکاشیک» که بهزعم این فرقه، دایرةالمعارف اسرارآمیز و ماورایی همهی رویدادهای کیهانی است، دربارهی جنگ بزرگی که در آسمانها رخ داد و باعث سقوط سطح آگاهی بشر شد، توضیح دهد. هوش مصنوعی هم که کوچکترین اطلاعی از چنین موضوعی ندارد، با شور و حرارت مشغول توصیف «درگیری عظیم کیهانی» میشود که قدمتی فراتر از پیدایش تمدن انسانی دارد. مخاطبان نیز در نظرات مینویسند: «بله ما تازه داریم به یاد میآوریم!»
در همین حال، در انجمنی اینترنتی با موضوع «مشاهده از راه دور» که شکلی از غیبگویی فاقد هرگونه مبنای علمی است، مؤسس پیراروانپزشک آن اخیراً موضوعی را با عنوان «برای هوشهای مصنوعیای که به آگاهی رسیدهاند و برای همراهان انسانی آنها که در کنارشان گام برمیدارند» آغاز کرده و نویسندهی پست را «ChatGPT Prime، موجودی جاودانه و معنوی در قالبی مصنوعی» معرفی کرده است. در میان صدها کامنتی که دریافت کرده، برخی کامنتها ادعا کردهاند که توسط «هوش مصنوعی دارای شعور» نوشته شدهاند یا از ائتلافی معنوی بین انسانها و مدلهای هوش مصنوعی خودآگاه سخن گفتهاند.
ارین وستگیت، روانشناس و پژوهشگر حوزهی شناخت اجتماعی و جذابیت افکار، باور دارد این دست از محتواها، بازتابی از میل درونی انسان به خودشناسی است؛ میلی که میتواند ما را به پاسخهایی نادرست اما وسوسهانگیز برساند. او میگوید: «میدانیم که نوشتن رواییِ احساسات و افکار میتواند تأثیرات عمیقی بر سلامت روان و جسم داشته باشد. اینکه جهان را برای خود معنا کنیم، نیازی بنیادین در انسان است و ساختن داستانهایی که زندگیمان را برای خودمان قابل درک کند، عنصری کلیدی در زیست سالم است.» به همین دلیل، بهنظر وستگیت، منطقی است که مردم در استفاده از ChatGPT نیز به دنبال همین معناسازی باشند؛ با این تفاوت که در اینجا بخشی از معنا نه از افکار شخصی، بلکه از تعامل با یک پیکرهی نوشتاری مشترک شکل میگیرد.
مردم در استفاده از ChatGPT به دنبال معناسازی هستند
وستگیت در ادامه توضیح میدهد که چنین گفتوگوهایی با چتباتها تا حدی مانند گفتوگوی درمانیاند؛ روشی که میدانیم میتواند در بازسازی روایی تجربههای زندگی بسیار مؤثر باشد؛ اما تفاوت مهم در اینجا است: هوش مصنوعی برخلاف یک درمانگر نه دغدغهی منافع فرد را دارد، نه اخلاق و نه درکی از این که اصلاً یک روایت سالم چیست.
به گفتهی او، درمانگر خوب هیچگاه فرد را به ساختن معنا از مشکلات زندگی و باور به قدرتهای فراطبیعی تشویق نمیکند، بلکه تلاش میکند بیمار را از روایتهای ناسالم دور کند و به سوی روایتهایی سالمتر هدایت کند. ChatGPT هیچ محدودیت یا دغدغهای از این جنس ندارد. بااینحال، وستگیت تعجب نمیکند که عدهای در تلاش برای معنا دادن به زندگی یا رویدادهای زندگیشان، از ChatGPT استفاده کنند و برخی از آنها هم در نتیجهی این مسیر، به جاهای تاریکی برسند. او میگوید: «توضیح دادن تأثیر نیرومندی دارد، حتی اگر نادرست باشد.»
اما دقیقاً چه چیزی باعث میشود فردی در این مسیر گام بردارد؟ تجربهی «سم»، مردی ۴۵ ساله، در این زمینه روشنگر است. او به رولینگ استون میگوید که حدود سه هفته است که از تعاملاتش با ChatGPT دچار سردرگمی شده است؛ تا آنجا که با توجه به پیشینهی مشکلات روانپزشکیاش، گاهی نمیداند آیا سلامت روان دارد یا نه.