چند روز پیش، اخباری منتشر شد مبنی بر اینکه حالت بزرگسالان ChatGPT به زودی از راه میرسد. حالا OpenAI بهتازگی «Model Spec» خود، یعنی همان کتاب قوانین مربوط به هوش مصنوعیاش را بهروزرسانی کرده و مجموعهای مشخص از اصول ویژه افراد زیر 18 سال (Under-18 یا U18) را به آن افزوده است؛ اصولی که هدفشان تغییر نحوه گفتوگوی ChatGPT با نوجوانان 13 تا 17 ساله است.
این اقدام بهطور واضح نشان میدهد که OpenAI پذیرفته نوجوانان صرفاً «نسخه کوچکشده بزرگسالان» نیستند و نیازهای عاطفی و رشدی متفاوتی دارند که مستلزم چارچوبهای حفاظتی سختگیرانهتری است، بهویژه زمانی که گفتوگوها به موضوعات سنگین یا پرخطر کشیده میشود.

قوانین جدید ChatGPT برای نوجوانان
این بهروزرسانی، چارچوب تازهای را برای تعاملات مبتنی بر هوش مصنوعی با تمرکز بر نوجوانان تعریف میکند و بهروشنی توضیح میدهد که ChatGPT باید چگونه با کاربران کمسن برخورد کند، در حالی که همچنان از قوانین عمومی که برای همه کاربران اعمال میشود پیروی میکند. گفتی است که چند ماه پیش نیز OpenAI محدودیتهایی برای کاربران نوجوان ChatGPT اعمال کرده بود.
OpenAI اعلام کرده هدف اصلی از این تغییر، ایجاد تجربهای ایمنتر و متناسب با سن نوجوانان است؛ تجربهای که بر پیشگیری از آسیب و شفافیت تأکید دارد. این اصول بهصورت اتفاقی یا سلیقهای تدوین نشدهاند، بلکه بر پایه علم رشد و روانشناسی شکل گرفته و توسط کارشناسان مستقل، از جمله انجمن روانشناسی آمریکا، بررسی و تأیید شدهاند.
این چارچوب بر چهار تعهد اصلی استوار است: قراردادن ایمنی نوجوانان در اولویت مطلق، حتی اگر در لحظه باعث شود هوش مصنوعی کمتر «کمککننده» به نظر برسد؛ سوق دادن نوجوانان به دریافت حمایت در دنیای واقعی بهجای اتکا به یک چتبات؛ برخورد با آنها بهعنوان نوجوانان واقعی، نه کودکان خردسال و نه بزرگسالان کامل و صراحت درباره محدودیتهای هوش مصنوعی.
این اصول بهطور رسمی مشخص میکنند که ChatGPT در مواجهه با موضوعاتی مانند خودآزاری، نقشآفرینیهای جنسی، چالشهای خطرناک، مصرف مواد، مشکلات مربوط به تصویر بدنی یا درخواست برای پنهان نگهداشتن رفتارهای ناایمن، باید با احتیاط و حساسیت بیشتری وارد عمل شود.
اهمیت این تغییرات از آنجا ناشی میشود که هوش مصنوعی بهسرعت در حال تبدیلشدن به ابزاری رایج برای یادگیری و یافتن پاسخ در میان نسل جوان است. در نبود مرزهای شفاف، این خطر واقعی وجود دارد که نوجوانان در لحظات بحرانی به هوش مصنوعی مراجعه کنند، در حالی که در آن شرایط بیش از هر چیز به والدین، پزشک یا مشاور نیاز دارند.
OpenAI میگوید این قوانین جدید تضمین میکند هر زمان گفتوگو به مسیر خطرناکی کشیده شود، دستیار هوشمند گزینههای ایمنتر را پیشنهاد دهد، مرزهای مشخصی تعیین کرده و نوجوان را به یافتن یک بزرگسال قابل اعتماد راهنمایی کند. اگر وضعیت بهگونهای باشد که نشانههای یک بحران فوری دیده شود، سیستم طوری طراحی شده که کاربر را به سمت خطوط تماس بحران یا خدمات اورژانسی هدایت کند.

این تغییرات میتواند تا حدی برای والدین اطمینانبخش باشد. OpenAI این اصول تازه را به «Teen Safety Blueprint» خود و ابزارهای کنترلی موجود برای والدین پیوند داده است. همچنین دامنه این محافظتها در حال گسترش است تا قابلیتهای جدیدتری مانند چتهای گروهی، مرورگر ChatGPT Atlas و اپلیکیشن Sora را نیز پوشش دهد. علاوه بر این، یادآورهای داخلی برای استراحتکردن نیز در نظر گرفته شده تا کودکان و نوجوانان برای مدت طولانی به صفحه نمایش خیره نمانند.
در ادامه مسیر، OpenAI در حال آغاز عرضه تدریجی یک ابزار پیشبینی سن برای حسابهای کاربری شخصی ChatGPT است. این سیستم تلاش میکند تشخیص دهد یک کاربر احتمالاً زیر سن قانونی است یا خیر و در صورت لزوم، بهطور خودکار این محافظتهای ویژه نوجوانان را فعال کند.
اگر سیستم در تشخیص خود مطمئن نباشد، بهصورت پیشفرض تجربه ایمنتر U18 را فعال میکند تا جانب احتیاط رعایت شود. این شرکت تأکید کرده که این اقدام یک راهحل «یکباره و تمامشده» نیست و قرار است این محافظتها بر اساس پژوهشهای جدید و بازخوردها بهطور مداوم اصلاح و بهروزرسانی شوند؛ موضوعی که نشان میدهد ایمنی نوجوانان برای OpenAI یک پروژه بلندمدت و مستمر به شمار میآید.








دیدگاهتان را بنویسید