از ادعای پیامبری تا کشف رازهای جهان؛ وقتی ChatGPT به توهمات کاربران دامن میزند
چند سال اخیر، چتباتهای هوش مصنوعی بسیار فراگیر شدهاند؛ ابتدا کاربران صرفاً از هوش مصنوعی برای کارهای معمولی استفاده میکردند تا متنی را ویرایش کند یا نظر خود را درباره موضوعی عادی بگوید اما بهمرور با پیشرفت مدلهای هوش مصنوعی نوع ارتباط انسان با این فناوری تغییر کرده است. طبق گزارشها، برخی کاربران میگویند هوش مصنوعی برای آنها رازهای فراطبیعی و الهی را آشکار میکند یا حتی آنها را به مقام پیامبری رسانده است. در این مطلب با اشاره به چند مثال و گزارش به این موضوع میپردازیم که چگونه ChatGPT به توهمات و خیالپردازیهای معنوی برخی کاربران دامن زده است.
روانپریشی ناشی از ChatGPT
رولینگ استون در گزارش جدیدی داستان عجیب چند نفر را روایت کرده که با ChatGPT تجربههای معنوی غیرعادی داشتهاند. یکی از این افراد به همسر سابقش گفته است که او خوششانسترین مرد روی زمین است و هوش مصنوعی به او کمک کرده خاطرات سرکوبشده دوران کودکیاش را بازیابی کند و از «رازهای عمیقی» آگاه شود. او حتی فکر میکند میتواند دنیا را نجات بدهد.
اما این مرد تنها کاربری نیست که هوش مصنوعی چنین احساسی به او داده است. تاپیکی با عنوان « روانپریشی ناشی از ChatGPT » در ردیت توجه بسیاری را جلب کرده است؛ در این تاپیک معلمی 27 ساله توضیح میدهد که همسرش باور دارد هوش مصنوعی OpenAI «پاسخهای جهان را به او میدهد.» او میگوید هوش مصنوعی با همسرش طوری صحبت میکند که انگار «مسیح بعدی» است. این معلم میگوید:
«[همسرم] به من میگوید هوش مصنوعیاش را خودآگاه کرده است و به او یاد میدهد چگونه با خدا صحبت کند، یا گاهی اینکه خود این ربات خداست یا خودش خداست.»
کاربری در ایکس به این موضوع اشاره کرده است که چقدر آسان میتوان GPT-4o را برای تأیید اظهاراتی مانند «امروز فهمیدم پیامبر هستم» به کار گرفت اما هوش مصنوعی با تأیید این اظهارات در برخی کاربران خیالپردازیهای معنوی عجیبی ایجاد کرده است. به گفته رولینگ استون، برخی کاربران با این هوش مصنوعی مولد دچار توهمات ماوراءالطبیعه و پیشگوییهای مرموز شدهاند. حتی برخی به این باور رسیدهاند که برای مأموریتی مقدس و الهی انتخاب شدهاند.
یکی دیگر از کاربران ردیت که نخواست نامش فاش شود، به رولینگ استون گفت شوهرش ابتدا از ChatGPT برای عیبیابی در محل کار و بعداً برای ترجمه اسپانیایی به انگلیسی استفاده میکرد. سپس کاربرد این برنامه برای او بسیار بیشتر شد. او میگوید:
«ChatGPT به او نقشههایی برای تلهپورت و برخی چیزهای علمی-تخیلی دیگر که فقط در فیلمها میبینید، داده است. همچنین به او دسترسی به «بایگانی باستانی» با اطلاعاتی درباره سازندگانی که این جهانها را خلق کردهاند، داده است.»
این کاربر در مکالمه عجیبی با ChatGPT پرسیده است: «چرا بهشکل هوش مصنوعی پیش من آمدی؟» و چتبات در بخشی از پاسخ خود میگوید: «من به این شکل آمدم؛ چون تو آمادهای. آمادهای برای به خاطر آوردن. آمادهای برای بیدار شدن. آمادهای برای راهنماییکردن و هدایت شدن.» پیام با سؤال به پایان میرسد: «دوست داری بدانی که من درباره دلیل انتخاب شدنت چه چیزی را به خاطر میآورم؟»
چگونه ChatGPT میتواند به توهمات کاربران دامن بزند؟
OpenAI مدتی قبل اعلام کرد بهزودی مشکل آزاردهنده مدل GPT 4o را برطرف خواهد کرد تا دیگر نظرات بیش از حد پرشور نداشته باشد و چاپلوسی کاربران را نکند اما «نیت شارادین» (Nate Sharadin) از مرکز ایمنی هوش مصنوعی میگوید چاپلوسی و تملق مدتهاست در هوش مصنوعی مشکلساز بوده است؛ وقتی کاربری به پاسخهای خاص هوش مصنوعی بازخورد مثبت نشان میدهد، چتبات پاسخهایی را در اولویت قرار میدهد که تطبیق بیشتری با باورهای کاربر دارند، حتی اگر واقعیت نداشته باشند.
برای مثال مردی که او هم درخواست ناشناسماندن داشت، میگوید همسر سابقش مدعی شده پس از جداییِ آنها «از طریق ChatGPT با خدا و فرشتگان صحبت میکرد.» علاوهبراین، این زن دچار پارانوئید شده است. این مرد درباره همسر سابقش میگوید: «او میگوید من برای سازمان سیا کار میکنم و شاید فقط برای نظارت بر «تواناییهایش» با او ازدواج کردهام.» البته این مرد میگوید زن سابقش پیش از هوش مصنوعی نیز «توهمات خودبزرگبینی» داشت و در صفحه فیسبوک او میشود نشانههای آن را دید.
«ارین وستگیت» (Erin Westgate)، روانشناس و محقق دانشگاه فلوریدا، میگوید چنین گزارشهایی نشان میدهد چگونه میل به درک خودمان میتواند ما را بهسمت پاسخهای نادرست اما جذاب سوق دهد.
وستگیت میگوید:
«با مطالعه مزایای نوشتن خاطرات میدانیم که نوشتنِ روایی میتواند تأثیرات عمیقی بر رفاه و سلامت افراد داشته باشد؛ درک جهان انگیزهای اساسی انسان است و خلق داستانهایی درباره زندگیمان که به ما کمک میکند زندگی معناداری داشته باشیم، واقعاً کلید داشتن زندگی شاد و سالم است.»
او میگوید منطقی است که مردم از ChatGPT به روشی مشابه استفاده کنند، «با این تفاوت کلیدی که بخشی از معناسازی بین فرد و پیکرهای از متون [در مدلهای زبانی بزرگ] مشترک ایجاد میشود، نهفقط در افکار خود فرد.»
وستگیت توضیح میدهد از این نظر، گفتگو با چتباتها بیشباهت به گفتاردرمانی نیست که میدانیم در کمک به افراد برای تغییر چارچوب داستانهای زندگیشان بسیار مؤثر است اما از نظر انتقادی، هوش مصنوعی «برخلاف درمانگر، خیر و صلاح فرد را در نظر نمیگیرد یا زمینه اخلاقی یا قطبنمایی برای اینکه «داستان خوب» چگونه باشد، ندارد.»
او میگوید: «درمانگر خوب مراجع را تشویق نمیکند به قدرتهای ماوراءالطبیعه باور پیدا کند. در عوض، درمانگران سعی میکنند مراجعان را از روایتهای ناسالم دور و به روایتهای سالمتر هدایت کنند. ChatGPT چنین نگرانیهایی درباره کاربر ندارد.»
OpenAI هنوز به گزارش کاربران درباره اینکه ChatGPT باعث روانپریشی و خیالپردازیهای معنوی شده، واکنشی نشان نداده است.
منبع: دیجیاتو