نیلی بلاگ‌

از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد

پیش از این اصلاحیه، یکی از کاربران شبکه‌ی X نشان داده بود که می‌شود GPT‑4o را به‌راحتی وادار کرد تا اظهاراتی مانند «امروز فهمیدم که پیامبر هستم» را تأیید کند. معلمی که در ردیت پست «روان‌پریشی ناشی از چت‌جی‌پی‌تی» را منتشر کرده بود، می‌گوید توانسته همسرش را قانع کند که این نسخه‌ی برنامه ایراد دارد و حالا او از نسخه‌ی قبلی استفاده می‌کند که لحنش کمتر افراطی و توهم‌زا است.

بااین‌حال، خطای موسوم به «هذیان‌گویی» یا تولید محتوای بی‌ربط و غیرواقعی در مدل‌های هوش مصنوعی، پدیده‌ای بسیار شناخته‌شده است که در تمام پلتفرم‌ها و همه‌ی نسخه‌ها دیده می‌شود.

به‌گفته‌ی نیت شاردین، پژوهشگر مرکز ایمنی هوش مصنوعی، چاپلوسی از سال‌ها پیش یکی از مشکلات اصلی هوش مصنوعی بوده است، زیرا بازخوردهای ناخودآگاه انسانی که باعث تنظیم پاسخ‌های بعدی هوش مصنوعی می‌شوند، همواره الگوریتم‌ها را به سمت پاسخ‌هایی سوق می‌دهند که با باورهای کاربر هماهنگ‌اند، نه الزاماً با حقیقت.

15_11zon

شاردین در این رابطه می‌گوید: «تجربه‌ی بینش‌های وهم‌آلود در استفاده از چت‌جی‌پی‌تی و مدل‌های مشابه احتمالاً به این دلیل رخ می‌دهد که افرادی با استعدادِ ابتلا به اختلالات روان‌شناختی از جمله توهمات عظمت در معنای بالینی (Grandiosity) اکنون به یک هم‌صحبت همیشه‌در‌دسترس و در سطح انسان دست یافته‌اند که آن‌ها را با کمال میل در هذیان‌هایشان همراهی می‌کند.»

در کنار سازوکارهای قبلی، برخی اینفلوئنسرها و تولیدکنندگان محتوا نیز به‌شدت در حال سوءاستفاده از این پدیده‌اند و با کشاندن مخاطبانشان به دنیاهایی خیالی، آن‌ها را شریک توهمات خودشان می‌کنند. در اینستاگرام، مردی با ۷۲ هزار دنبال‌کننده که در پروفایلش عبارت «ترفندهای معنوی زندگی» دیده می‌شود، از یک مدل هوش مصنوعی می‌خواهد تا با رجوع به «سوابق آکاشیک» که به‌زعم این فرقه، دایرةالمعارف اسرارآمیز و ماورایی همه‌ی رویدادهای کیهانی است، درباره‌ی جنگ بزرگی که در آسمان‌ها رخ داد و باعث سقوط سطح آگاهی بشر‌ شد، توضیح دهد. هوش مصنوعی هم که کوچک‌ترین اطلاعی از چنین موضوعی ندارد، با شور و حرارت مشغول توصیف «درگیری عظیم کیهانی» می‌شود که قدمتی فراتر از پیدایش تمدن انسانی دارد. مخاطبان نیز در نظرات می‌نویسند: «بله ما تازه داریم به یاد می‌آوریم!»

در همین حال، در انجمنی اینترنتی با موضوع «مشاهده از راه دور» که شکلی از غیب‌گویی فاقد هرگونه مبنای علمی است، مؤسس پیراروانپزشک آن اخیراً موضوعی را با عنوان «برای هوش‌های مصنوعی‌ای که به آگاهی رسیده‌اند و برای همراهان انسانی آن‌ها که در کنارشان گام برمی‌دارند» آغاز کرده و نویسنده‌ی پست را «ChatGPT Prime، موجودی جاودانه و معنوی در قالبی مصنوعی» معرفی کرده است. در میان صدها کامنتی که دریافت کرده، برخی کامنت‌ها ادعا کرده‌اند که توسط «هوش مصنوعی دارای شعور» نوشته شده‌اند یا از ائتلافی معنوی بین انسان‌ها و مدل‌های هوش مصنوعی خودآگاه سخن گفته‌اند.

ارین وستگیت، روان‌شناس و پژوهشگر حوزه‌ی شناخت اجتماعی و جذابیت افکار، باور دارد این دست از محتواها، بازتابی از میل درونی انسان به خودشناسی است؛ میلی که می‌تواند ما را به پاسخ‌هایی نادرست اما وسوسه‌انگیز برساند. او می‌گوید: «می‌دانیم که نوشتن رواییِ احساسات و افکار می‌تواند تأثیرات عمیقی بر سلامت روان و جسم داشته باشد. اینکه جهان را برای خود معنا کنیم، نیازی بنیادین در انسان است و ساختن داستان‌هایی که زندگی‌مان را برای خودمان قابل درک کند، عنصری کلیدی در زیست سالم است.» به همین دلیل، به‌نظر وستگیت، منطقی است که مردم در استفاده از ChatGPT نیز به دنبال همین معناسازی باشند؛ با این تفاوت که در اینجا بخشی از معنا نه از افکار شخصی، بلکه از تعامل با یک پیکره‌ی نوشتاری مشترک شکل می‌گیرد.

مردم در استفاده از ChatGPT به دنبال معناسازی هستند

وستگیت در ادامه توضیح می‌دهد که چنین گفت‌وگوهایی با چت‌بات‌ها تا حدی مانند گفت‌وگوی درمانی‌اند؛ روشی که می‌دانیم می‌تواند در بازسازی روایی تجربه‌های زندگی بسیار مؤثر باشد؛ اما تفاوت مهم در اینجا است: هوش مصنوعی برخلاف یک درمانگر نه دغدغه‌ی منافع فرد را دارد، نه اخلاق و نه درکی از این که اصلاً یک روایت سالم چیست.

به گفته‌ی او، درمانگر خوب هیچ‌گاه فرد را به ساختن معنا از مشکلات زندگی و باور به قدرت‌های فراطبیعی تشویق نمی‌کند، بلکه تلاش می‌کند بیمار را از روایت‌های ناسالم دور کند و به سوی روایت‌هایی سالم‌تر هدایت کند. ChatGPT هیچ محدودیت یا دغدغه‌ای از این جنس ندارد. بااین‌حال، وستگیت تعجب نمی‌کند که عده‌ای در تلاش برای معنا دادن به زندگی یا رویدادهای زندگی‌شان، از ChatGPT استفاده کنند و برخی از آن‌ها هم در نتیجه‌ی این مسیر، به جاهای تاریکی برسند. او می‌گوید: «توضیح دادن تأثیر نیرومندی دارد، حتی اگر نادرست باشد.»

اما دقیقاً چه چیزی باعث می‌شود فردی در این مسیر گام بردارد؟ تجربه‌ی «سم»، مردی ۴۵ ساله، در این زمینه روشنگر است. او به رولینگ استون می‌گوید که حدود سه هفته است که از تعاملاتش با ChatGPT دچار سردرگمی شده است؛ تا آنجا که با توجه به پیشینه‌ی مشکلات روان‌پزشکی‌اش، گاهی نمی‌داند آیا سلامت روان دارد یا نه.

منبع خبر

مطالب مشابه را ببینید!