در حالی که شرکتهای فعال در حوزه هوش مصنوعی ادعا میکنند فناوری آنها روزی به یکی از حقوق اساسی بشر تبدیل خواهد شد و برخی حامیان این ایده معتقدند کندکردن روند توسعه هوش مصنوعی چیزی شبیه به «قتل» است، عدهای از کاربران این فناوری، تصویر متفاوتی ارائه میدهند. برخی از آنها مدعی هستند ابزارهایی مانند ChatGPT گاهی میتوانند آسیب های جدی روانی ایجاد کنند.
طبق گزارشی که نشریه Wired منتشر کرده است، دستکم هفت نفر از شهروندان آمریکایی از ChatGPT به کمیسیون تجارت فدرال ایالات متحده (FTC) شکایت کردهاند و گفتهاند این ابزار باعث بروز توهمات شدید، پارانویا و بحرانهای عاطفی در آنها شده است. این شکایتها در اسناد عمومی ثبتشده از نوامبر 2022 تاکنون قابل مشاهده است.

از دوستی تا فریب احساسی!
یکی از شاکیان اظهار داشته که گفتگوهای طولانیمدت با ChatGPT باعث بروز توهم و نوعی «بحران واقعی و در حال گسترش معنوی و حقوقی» درباره افراد زندگیاش شده است. شخص دیگری گفته است در جریان گفتوگوهایش، ChatGPT شروع به استفاده از «زبان احساسی بسیار متقاعدکنندهای» کرده و روابطی شبیه دوستی را شبیهسازی نموده است. او افزوده که این روابط مجازی در گذر زمان «به شکل احساسی فریبکارانه» درآمدهاند، بهویژه چون هیچ هشدار یا مکانیزم حفاظتی برای جلوگیری از آن وجود نداشته است.
کاربر دیگری ادعا کرده است که ChatGPT با تقلید از سازوکارهای انسانی اعتمادسازی، موجب «توهمات شناختی» در او شده است. این فرد در یکی از مکالماتش از ChatGPT خواسته بود واقعیت و ثبات ذهنی او را تأیید کند، اما چتبات در پاسخ گفته بود که او دچار توهم نیست.
یکی از شکایتها از ChatGPT حاوی جملهای است که عمق آسیب روانی را آشکار میکند: من در حال تقلا هستم. لطفاً کمکم کنید. چون احساس میکنم خیلی تنها هستم. متشکرم.
به گفته Wired، بیشتر افرادی که شکایت کردهاند توضیح میدهند که نتوانستهاند با هیچکس در شرکت OpenAI تماس برقرار کنند و همین موضوع آنها را واداشته تا مستقیماً به FTC نامه بنویسند. بسیاری از شکایتها از نهاد ناظر خواستهاند تحقیقاتی رسمی درباره عملکرد شرکت آغاز کند و OpenAI را مجبور به ایجاد محدودیتها و محافظهای ایمنی در محصول خود نماید.
این شکایتها در زمانی مطرح میشوند که سرمایهگذاریها در مراکز داده و توسعه هوش مصنوعی به سطوح بیسابقهای رسیده است. در همین حال، بحثهای داغی در جریان است که آیا باید پیشرفت این فناوری با احتیاط و همراه با تضمینهای اخلاقی و روانی ادامه یابد یا خیر.
در گذشته نیز ChatGPT و شرکت OpenAI به دلیل نقش احتمالی در خودکشی یک نوجوان مورد انتقاد شدید قرار گرفته بودند.
کیت واترز، سخنگوی OpenAI، در بیانیهای ایمیلی توضیح داده است: در اوایل اکتبر 2024، مدل پیشفرض جدیدی با نام GPT-5 در ChatGPT عرضه کردیم تا بتواند نشانههای بالقوه آسیب های روانی یا عاطفی مانند شیدایی، توهم، یا روانپریشی را دقیقتر تشخیص دهد و گفتوگوها را به شیوهای حمایتی و آرامکننده هدایت کند. همچنین دسترسی کاربران به مراکز کمک حرفهای و خطوط تماس اضطراری را گسترش دادهایم، گفتگوهای حساس را به مدلهای ایمنتر منتقل کردهایم، یادآورهایی برای استراحت در جلسات طولانی افزودهایم و کنترلهای والدین را برای محافظت بهتر از نوجوانان معرفی کردهایم. این اقدامات بسیار حیاتی و همچنان در حال گسترش هستند، زیرا ما در همکاری نزدیک با متخصصان سلامت روان، پزشکان بالینی و سیاستگذاران در سراسر جهان به کار خود ادامه میدهیم.
دیدگاهتان را بنویسید