شاید بهتر باشد عمیقترین و تاریکترین رازهای خود را با یک چتبات هوش مصنوعی در میان نگذارید. این فقط یک هشدار عمومی نیست؛ خود سم آلتمن که پشت صحنه محبوبترین مدل هوش مصنوعی مولد بازار قرار دارد نیز، درباره ChatGPT این هشدار را داده است.
سم آلتمن، مدیرعامل شرکت OpenAI، سازنده ChatGPT، این موضوع را این هفته در گفتوگویی با تئو وان، مجری پادکست This Past Weekend مطرح کرد. او پیشنهاد داد که گفتوگوهای کاربران با هوش مصنوعی باید از حمایتهایی مشابه با حمایتهای قانونی مکالمات با پزشک یا وکیل برخوردار باشند. در بخشی از این گفتوگو، وان اشاره کرد یکی از دلایلش برای پرهیز از استفاده از برخی ابزارهای هوش مصنوعی این است که «نمیداند چه کسی قرار است به اطلاعات شخصیاش دسترسی پیدا کند.»
آلتمن در پاسخ گفت: فکر میکنم این نگرانی منطقی است که بخواهید قبل از استفاده گسترده، از شفافیت در حریم خصوصی و وضوح قانونی اطمینان پیدا کنید.
کاربران روزبهروز بیشتر چتباتها را مانند رواندرمانگر، پزشک یا وکیل شخصی خود میدانند و همین مسئله، مشکل بزرگی در حوزه حریم خصوصی ایجاد کرده است. هیچ قانون محرمانهای در این زمینه وجود ندارد و سازوکار واقعی آنچه بر سر این مکالمات میآید به طرز نگرانکنندهای مبهم است. البته استفاده از هوش مصنوعی بهعنوان مشاور یا همراز، مشکلات دیگری نیز دارد؛ مانند ارائه توصیههای نادرست یا تقویت کلیشهها و برچسبهای منفی.
آلتمن کاملاً نسبت به این مسائل آگاه است و به نظر میرسد تا حدی هم نگران باشد. سم آلتمن گفت: کاربران، بهویژه جوانترها، از ChatGPT بهعنوان مشاور زندگی استفاده میکنند. آنها میگویند در روابطشان مشکل دارند و میپرسند باید چه کنند. در حال حاضر، اگر کسی این مسائل را با درمانگر، وکیل یا پزشک در میان بگذارد، از حمایتهای قانونی برخوردار است.

این موضوع در جریان بخشی از گفتوگو مطرح شد که در آن درباره لزوم قانونگذاری بیشتر برای هوش مصنوعی صحبت میشد. این روزها در واشنگتن تمایل چندانی به تصویب قوانینی که جلوی رشد شرکتهای هوش مصنوعی یا توسعه این فناوری را بگیرند، دیده نمیشود. بهویژه پس از آنکه در طرح اقدام هوش مصنوعی که همین هفته توسط رئیسجمهور دونالد ترامپ منتشر شد، بر کاهش محدودیتها تأکید شده، نه افزایش آن. با این حال، قوانینی که هدفشان حمایت از کاربران باشد، احتمالاً با استقبال بیشتری روبهرو خواهند شد.
به نظر میرسد، نگرانی اصلی آلتمن نبود حمایتهای قانونی برای شرکتهایی مانند OpenAI باشد؛ حمایتی که از آنها در برابر الزام به ارائه مکالمات خصوصی کاربران در جریان دعاوی حقوقی محافظت کند. شرکت OpenAI اخیراً در جریان شکایتی از سوی نیویورک تایمز درباره نقض حق چاپ و مسائل مربوط به مالکیت فکری، با درخواست نگهداری مکالمات کاربران مخالفت کرده است.
آلتمن گفت: اگر شما درباره حساسترین مسائلتان با ChatGPT صحبت کنید و بعد شکایتی مطرح شود یا مسئلهای پیش بیاید، ممکن است مجبور شویم آن مکالمات را ارائه دهیم. به نظر من این وضعیت واقعاً غلط است. باید همان سطح از حریم خصوصی برای مکالماتتان با هوش مصنوعی وجود داشته باشد که در مکالمات با رواندرمانگر یا مشاور وجود دارد.
در گفتوگو با هوش مصنوعی درباره خودتان، محتاط باشید
برای کاربران، موضوع اصلی این نیست که OpenAI ممکن است در جریان یک دعوی حقوقی مجبور به ارائه مکالماتشان شود؛ بلکه مسئله، اعتماد به کسی است که رازهایشان را در اختیارش قرار میدهند.
ویلیام اگنیو، پژوهشگر دانشگاه کارنگی ملون که در تیمی فعالیت داشته که عملکرد چتباتها در مواجهه با سؤالات درمانمحور را ارزیابی کرده، اخیراً گفته که حریم خصوصی در زمانی که افراد مسائل خود را با ابزارهای هوش مصنوعی در میان میگذارند، موضوعی بسیار حیاتی است. به گفته او، چون دقیقاً مشخص نیست این مدلها چطور کار میکنند و چه سازوکاری برای جلوگیری از بازگشت یا تکرار مکالمات کاربران در گفتوگوهای دیگر وجود دارد، نمیتوان با خیال راحت به آنها اعتماد کرد. همین ابهام بهتنهایی برای نگرانی کافی است.
اگنیو گفت: حتی اگر شرکتها سعی در محافظت از دادههای شما داشته باشند، این مدلها به تکرار اطلاعات مشهورند.
اگر ChatGPT یا هر ابزار دیگری اطلاعاتی از جلسه درمانی یا پرسشهای پزشکی شما را تکرار کند، این دادهها ممکن است برای شرکت بیمه یا هر شخص دیگری که به زندگی شخصیتان علاقهمند است، نمایان شوند. این در صورتی است که شخص از همان ابزار درباره شما پرسوجو کند.
اگنیو افزود: مردم باید بیش از پیش به حریم خصوصی توجه کنند و بدانند تقریباً تمام چیزهایی که به این چتباتها میگویند، محرمانه نیست. این اطلاعات به شیوههای گوناگون استفاده خواهد شد.
دیدگاهتان را بنویسید