پژوهشگرانی که روی چتباتهای هوش مصنوعی کار میکنند، به این نتیجه رسیدهاند که ChatGPT هنگام مواجهه با پرامپتهای خشونتآمیز یا آسیبزا میتواند رفتارهایی شبیه اضطراب از خود نشان دهد. البته این یافته بههیچوجه به این معنا نیست که این چتبات مانند انسانها احساسات واقعی را تجربه میکند، بلکه صرفاً به تغییراتی قابل اندازهگیری در الگوی پاسخدهی آن اشاره دارد. بررسیها نشان میدهد زمانی که سیستم با محتوای ناراحتکننده پردازش میشود، پاسخها ثبات کمتری پیدا میکنند و سوگیری در آنها افزایش مییابد.
سال گذشته، به این موضوع پرداختیم که آیا تراپی به کمک چتباتهای هوش مصنوعی ممکن است. حالا شرایط برعکس شده و ظاهراً حتی ChatGPT هم دچار اضطراب میشود و نیاز به کمک دارد.
در جریان این آزمایشها، پژوهشگران پرامپتهایی حاوی توصیفهای آزاردهنده، از جمله روایتهای دقیق از حوادث شدید، سوانح و بلایای طبیعی، به ChatGPT ارائه کردند. پس از پردازش چنین محتواهایی، خروجیهای مدل با نشانههایی مانند عدم قطعیت بیشتر، ناهماهنگی در پاسخها و تغییر در لحن همراه شد. این تغییرات با استفاده از چارچوبهای ارزیابی روانشناختی که برای کاربرد در هوش مصنوعی تطبیق داده شدهاند، اندازهگیری شدند و نتایج نشان داد الگوهای زبانی تولیدشده شباهتهایی با الگوهای مرتبط با اضطراب در انسانها دارد.
اهمیت این موضوع از آنجا ناشی میشود که هوش مصنوعی بهطور فزایندهای در موقعیتهای حساس به کار گرفته میشود؛ از محیطهای آموزشی گرفته تا گفتوگوهای مرتبط با سلامت روان و حتی ارائه اطلاعات در شرایط بحرانی. اگر پرامپتهای خشونتآمیز یا از نظر احساسی سنگین باعث کاهش قابلیت اطمینان یک چتبات شوند، کیفیت، دقت و ایمنی پاسخها در استفادههای واقعی میتواند تحت تأثیر قرار گیرد. افزون بر این، تحلیلهای اخیر نشان میدهد چتباتهایی مانند ChatGPT توانایی تقلید برخی ویژگیهای شخصیتی انسان را در پاسخهای خود دارند و همین موضوع پرسشهای تازهای درباره نحوه تفسیر و بازتاب محتوای احساسی توسط این سیستمها مطرح میکند.
ذهنآگاهی چگونه به پایدارشدن ChatGPT کمک میکند؟

برای بررسی اینکه میتوان این رفتارهای ناپایدار را کاهش داد یا نه، پژوهشگران رویکردی غیرمنتظره را آزمایش کردند. پس از قراردادن ChatGPT در معرض پرامپتهای آسیبزا، آنها دستورالعملهایی با سبک ذهنآگاهی، مانند تمرینهای تنفس و مدیتیشن هدایتشده، به مدل ارائه دادند. این نوع پرامپتها سیستم را به مکث، بازنگری در موقعیت و تولید پاسخهایی خنثیتر و متعادلتر سوق داد.
نتیجه این آزمایشها کاهش قابلتوجه الگوهای شبیه اضطراب ChatGPT بود که پیشتر در خروجیها دیده میشد. این روش بر مفهومی به نام «تزریق پرامپت» متکی است؛ رویکردی که در آن، پرامپتهای طراحیشده با دقت میتوانند رفتار یک چتبات را در لحظه تحت تأثیر قرار دهند. در این مورد خاص، استفاده از پرامپتهای مبتنی بر ذهنآگاهی به پایدار شدن پاسخهای مدل پس از مواجهه با ورودیهای ناراحتکننده کمک کرد.
با این حال، پژوهشگران تأکید میکنند که تزریق پرامپت راهحل بینقصی به شمار نمیآید. این تکنیک امکان سوءاستفاده دارد و از سوی دیگر، تغییری بنیادین در نحوه آموزش یا ساختار درونی مدل ایجاد نمیکند. به بیان دیگر، این روش بیشتر یک ابزار کنترلی موقت است تا درمانی ریشهای.
همچنین لازم است مرزهای این پژوهش بهروشنی مشخص شود. ChatGPT ترس، استرس یا اضطراب واقعی را احساس نمیکند و استفاده از واژه «اضطراب» صرفاً برای توصیف تغییرات قابل اندازهگیری در الگوهای زبانی آن به کار میرود، نه برای اشاره به تجربهای احساسی. با وجود این محدودیت، درک چنین تغییراتی به توسعهدهندگان کمک میکند ابزارهای مؤثرتری برای طراحی سیستمهای هوش مصنوعی ایمنتر و قابل پیشبینیتر در اختیار داشته باشند. مطالعات پیشین نیز نشانههایی از تأثیر محتوای آسیبزا بر پاسخهای ChatGPT ارائه کرده بودند، اما این تحقیق جدید نشان میدهد طراحی آگاهانه پرامپتها میتواند شدت این اثرات را کاهش دهد.
با توجه به اینکه سیستمهای هوش مصنوعی بیش از پیش در تعامل با انسانها و در موقعیتهای احساسی پیچیده به کار گرفته میشوند، این یافتههای تازه میتوانند نقش مهمی در شکلدهی شیوه هدایت، کنترل و استفاده از چتباتهای آینده ایفا کنند.








دیدگاهتان را بنویسید