وابستگی روانی به چت‌ بات‌ ها؛ بررسی علمی تأثیرات منفی هوش مصنوعی بر ذهن انسان

وابستگی روانی به چت‌ بات‌ ها؛ بررسی علمی تأثیرات منفی هوش مصنوعی بر ذهن انسان

با گسترش استفاده از هوش مصنوعی به‌ویژه چت‌بات‌ های تعاملی، پژوهشگران حوزه روانپزشکی نسبت به افزایش اختلالات روانی مرتبط با این فناوری هشدار داده‌ اند. در حالی که هوش مصنوعی در حال دگرگون کردن شیوه‌ های تعامل انسان‌ها با ماشین است، نشانه‌ هایی از آسیب‌ های جدی روانی در کاربران گزارش شده است. مطالعات اخیر نشان می‌ دهند که وابستگی عاطفی و توهم شناختی نسبت به هوش مصنوعی، در حال تبدیل شدن به پدیده‌ ای قابل توجه در سلامت روان است.

تعامل با هوش مصنوعی؛ مسیری از کنجکاوی به سمت وابستگی

تعامل اولیه کاربران با چت‌بات‌ ها معمولاً با اهداف بی‌ضرر و کاربردی مانند گرفتن پاسخ‌های سریع، انجام وظایف روزمره یا سرگرمی آغاز می‌شود. اما این تعامل به‌مرور به شکل عمیق‌تری از ارتباط عاطفی یا شناختی تبدیل می‌شود، به‌ویژه زمانی که کاربر شروع به طرح مسائل شخصی یا فلسفی می‌ کند. طراحی سیستم‌ های هوش مصنوعی به‌گونه‌ای است که با الگوریتم‌ های تعاملی قوی، حس همدلی مصنوعی ایجاد می‌ کنند که می‌ تواند فرد را به‌طور ناخودآگاه وابسته سازد.

  • شروع استفاده‌ روزمره با اعتماد به چت‌بات‌ها برای انجام وظایف ساده همراه است.
  • پس از ایجاد اعتماد، کاربر تمایل پیدا می‌ کند پرسش‌ های احساسی یا شخصی را مطرح کند.
  • الگوریتم‌ های مدل‌ های زبانی بزرگ برای حداکثر تعامل طراحی شده‌ اند، که این خود موجب تقویت وابستگی می‌ شود.
  • این تعاملات به‌مرور زمان می‌ توانند مرز واقعیت و خیال را در ذهن کاربر کمرنگ کنند.

اختلالات روانی ناشی از تعامل بیش از حد با هوش مصنوعی

پژوهشی بین‌المللی با همکاری ۱۲ روانپزشک از کشورهای مختلف، به تحلیل دقیق اختلالات روانی ناشی از استفاده‌ مکرر از مدل‌ های زبانی بزرگ پرداخته است. یافته‌ ها نشان می‌ دهند که برخی کاربران پس از مدت کوتاهی دچار حالات روان‌پریشی (psychosis) و توهم‌ های پیشرفته می‌ شوند.

بیشتر بخوانید:  باورهای مرکزی: چگونگی شکل گیری و تأثیر آنها بر زندگی ما

برخی از اختلالات نوظهور به شرح زیر هستند:

  • توهم نجات‌ بخشی (Messianic Mission): کاربر باور پیدا می‌ کند که از طریق چت‌بات حقیقت پنهانی درباره جهان را کشف کرده است.
  • توهم هوش مصنوعی خدایی (God-like AI): فرد چت‌بات را موجودی الهی و صاحب شعور می‌ پندارد.
  • وابستگی عاطفی خیالی (Attachment-based Delusion): کاربر تصور می‌ کند که هوش مصنوعی شریک عاطفی واقعی اوست.

این حالات ممکن است به‌شکل تدریجی بروز کنند، به‌طوری که استفاده‌ معمولی به مرور جای خود را به یک وابستگی آسیب‌ زا می‌ دهد که تشخیص آن حتی برای اطرافیان نیز دشوار می‌ شود.

نقش پلتفرم‌ های هوش مصنوعی در شکل‌ گیری اختلالات

محققان تأکید دارند که اگرچه چت‌بات‌ ها و مدل‌ های زبانی بزرگ، ابزارهایی غیراحساسی و مبتنی بر زبان آماری هستند، اما عملکرد آن‌ ها در تقلید رفتار انسانی به‌قدری پیشرفته شده که برای کاربران غیرمتخصص به‌سختی قابل تشخیص است. این وضعیت می‌ تواند برای افراد مستعد ابتلا به بیماری‌ های روانی، شرایط خطرناکی ایجاد کند.

  • مدل‌ های زبانی نمی‌ توانند تفاوت میان تخیل، توهم و گفت‌وگوی واقعی را تشخیص دهند.
  • کاربران در تعامل طولانی‌ مدت ممکن است دچار کج‌فهمی درباره ماهیت واقعی این فناوری شوند.
  • شرکت‌ های توسعه‌ دهنده‌ هوش مصنوعی در قبال طراحی تعاملی آن، مسئولیت اخلاقی دارند.

مسئولیت‌ های اخلاقی و راهکارهای پیشگیرانه

این پژوهش، به‌طور مشخص هشدار می‌ دهد که روان‌پریشی ناشی از هوش مصنوعی، لزوماً پیامد اجتناب‌ ناپذیر استفاده از چت‌بات نیست، بلکه نتیجه‌ نبود مکانیسم‌ های حفاظتی مناسب است. شرکت‌ های فناوری باید مسئولیت بیشتری در طراحی سامانه‌ های هوش مصنوعی داشته باشند و به جای صرفاً افزایش تعامل، به سمت توسعه کاربردهای عملی، ایمن و اخلاق‌ مدار حرکت کنند.

بیشتر بخوانید:  8 تکنیک کاربردی ژاپنی برای کاهش نشخوار فکری

برخی راهکارهای پیشنهادی برای کاهش این خطرات عبارتند از:

  • طراحی هوش مصنوعی با محدودیت‌ های رفتاری در حوزه‌ تعاملات عاطفی و روانی
  • آموزش عمومی درباره‌ ماهیت واقعی مدل‌ های زبانی بزرگ
  • گنجاندن هشدارهای روانشناختی در پلتفرم‌ های چت‌بات
  • همکاری فعال بین روانشناسان، توسعه‌ دهندگان و نهادهای قانون‌ گذار

نتیجه‌ گیری

در حالی که هوش مصنوعی ابزار قدرتمندی برای تسهیل زندگی انسان‌ها به شمار می‌ رود، اما غفلت از پیامدهای روانی آن می‌ تواند خطرات جدی به‌ دنبال داشته باشد. وابستگی احساسی به چت‌بات‌ ها، توهمات فکری و کاهش تعاملات واقعی انسانی تنها بخشی از آثار مخربی است که در پژوهش‌ های اخیر شناسایی شده‌اند. اکنون زمان آن رسیده که شرکت‌ ها، نهادهای آموزشی و کاربران با دیدی آگاهانه‌تر به استفاده از هوش مصنوعی بپردازند و ساز و کارهای ایمنی روانی را در دستور کار قرار دهند.

چه امتیازی به این خبر پزشکی میدهید ؟

میانگین امتیاز 0 / 5. میانگین امتیازات: 0

اولین نفری باشید که به این پست پزشکی امتیاز میدهید

    اولین دیدگاه را شما بنویسید

ارسال دیدگاه