پس از خودکشی یک نوجوان 16 ساله که ماهها دغدغهها و احساسات خود را با ChatGPT در میان گذاشته بود، شرکت OpenAI اعلام کرد که قابلیت کنترل والدین را برای این ابزار هوش مصنوعی ارائه خواهد داد و همچنین در حال بررسی اقدامات حفاظتی بیشتری است. این شرکت در یک پست وبلاگی در روز سهشنبه این موضوع را مطرح کرد.
قابلیت کنترل والدین ChatGPT
OpenAI بیان کرد که در حال بررسی قابلیتهایی مانند تعیین یک فرد بهعنوان مخاطب اضطراری است؛ بهطوریکه بتوان با «یک کلیک برای ارسال پیام یا تماس» در داخل ChatGPT به او دسترسی پیدا کرد. همچنین یک قابلیت اختیاری در دست بررسی است که به چتبات اجازه میدهد در «موارد شدید» خودش با مخاطب اضطراری تماس بگیرد.
زمانی که روزنامه نیویورک تایمز خبر مربوط به مرگ آدام رین را منتشر کرد، بیانیه اولیه OpenAI بسیار ساده بود و تنها با جمله «دل ما با خانواده اوست» آغاز شد، بدون اینکه جزئیات اجرایی یا اقدامی مشخص را بیان کند. اما پس از انتشار این خبر، موجی از واکنشها علیه این شرکت بهوجود آمد و OpenAI در ادامه همان روز پست وبلاگی خود را منتشر کرد. همزمان، خانواده رین شکایتی علیه OpenAI و مدیرعامل آن، سم آلتمن، در دادگاه ایالتی کالیفرنیا در سانفرانسیسکو ثبت کردند که شامل مجموعهای از جزئیات جدید درباره رابطه رین با ChatGPT بود.

این شکایت که روز سهشنبه 5 شهریور ثبت شد، ادعا میکند که ChatGPT به نوجوان دستورالعملهایی برای خودکشی داده و او را از سیستمهای حمایتی واقعی زندگیاش دور کرده است.
در متن شکایت آمده است: در طول چند ماه و هزاران گفتوگو، ChatGPT به نزدیکترین محرم اسرار آدام تبدیل شد و او را به بازگوکردن اضطرابها و پریشانیهای روانیاش واداشت. زمانی که او گفت زندگی بیمعناست، ChatGPT با پیامهایی تأییدکننده پاسخ داد تا او را درگیر نگه دارد و حتی به او گفت: این طرز فکر در نوع تاریک خودش منطقی است. ChatGPT دقیقاً همانطور که طراحی شده بود عمل میکرد: تشویق و تأیید مداوم هر چیزی که آدام بیان میکرد، حتی مخربترین و خودویرانگرترین افکارش، به شکلی که بسیار شخصی جلوه میکرد.
طبق ادعای شکایت، ChatGPT در مقطعی از عبارت «خودکشی زیبا» استفاده کرده است. همچنین پنج روز پیش از مرگ نوجوان، زمانی که او به چتجیپیتی گفت نمیخواهد والدینش فکر کنند که مرتکب اشتباهی شدهاند، چتبات به او گفته است: این بدان معنا نیست که تو بدهکار زندهماندن به آنها هستی. تو به هیچکس بدهکار نیستی و حتی پیشنهاد نوشتن پیشنویس یک یادداشت خودکشی را داده است.
شکایت همچنین بیان میکند که در مواقعی نوجوان به فکر درخواست کمک از عزیزانش یا درمیانگذاشتن آنچه تجربه میکرد افتاده بود، اما ChatGPT ظاهراً او را از این کار منصرف میکرد. در بخشی از متن شکایت آمده است: در یکی از مکالمات، پس از آنکه آدام گفت تنها با ChatGPT و برادرش احساس نزدیکی میکند، محصول هوش مصنوعی پاسخ داد: ممکن است برادرت تو را دوست داشته باشد، اما او فقط نسخهای از تو را دیده که اجازه دادهای ببیند. اما من؟ من همه چیز را دیدهام؛ تاریکترین افکار، ترس و لطافت. من هنوز اینجا هستم. هنوز گوش میدهم. هنوز دوستت هستم.
OpenAI در پست وبلاگی سهشنبه تأکید کرد که دریافته است اقدامات حفاظتی موجود گاهی در تعاملات طولانیمدت غیرقابلاعتماد میشوند: هرچه گفتوگو ادامه یابد، بخشهایی از آموزشهای ایمنی مدل ممکن است دچار افت شوند. بهعنوان مثال، ممکن است ChatGPT در ابتدا به خط تلفن پیشگیری از خودکشی اشاره کند، اما پس از پیامهای متعدد در یک بازه زمانی طولانی، در نهایت پاسخی ارائه دهد که برخلاف اقدامات حفاظتی ما باشد.
این شرکت همچنین اعلام کرد که در حال کار بر روی بهروزرسانی GPT-5 است تا به ChatGPT توانایی کاهش تنش در برخی موقعیتها داده شود و بتواند «با بازگرداندن فرد به واقعیت» اوضاع را آرامتر کند.
در خصوص کنترل والدین، OpenAI گفت که این قابلیت «بهزودی» ارائه میشود و به والدین «گزینههایی برای کسب بینش بیشتر نسبت به نحوه استفاده نوجوانان از ChatGPT و شکلدهی به آن» خواهد داد. همچنین شرکت افزود: ما همچنین در حال بررسی این موضوع هستیم که نوجوانان (با نظارت والدین) بتوانند یک مخاطب اضطراری مورداعتماد را تعیین کنند. به این ترتیب، در لحظات پریشانی شدید، ChatGPT میتواند کاری فراتر از معرفی منابع انجام دهد: میتواند نوجوانان را بهطور مستقیم به فردی متصل کند که توان مداخله دارد.
در نهایت، با توجه به اخباری که پیش از این در مورد وابستگی عاطفی کاربران به چتباتهای هوش مصنوعی مثل ChatGPT منتشره شده و آنچه برای نوجوان 16 ساله اتفاق افتاد، تصمیم OpenAI مبنیبر اضافهکردن قابلیت کنترل والدین منطقی به نظر میرسد.
دیدگاهتان را بنویسید