اگر ذرهای در دنیای برنامه نویسی قدم گذاشته باشید، حتما با وبسایت معظم Stack Overflow برخورد داشتهاید. این وبسایت یکی از مراجع معظم برنامهنویسان در زمان گرفتاری و چهکنم چهکنم است که تمام حوزههای برنامهنویسی را شامل میشود. اکنون این وبسایت، به طور موقت کاربران را از اشتراک گذاری پاسخ هوش مصنوعی در Stack Overflow (که توسط ربات چت هوش مصنوعی ChatGPT در بخش پرسش و پاسخ برای برنامه نویسان انجام میشود) منع کرده است.
- تلسکوپ جیمز وب با زبان برنامه نویسی جاوا اسکریپت کار میکند
- 5 نکته انگیزشی برای برنامه نویسان که حل مسئله را راحتتر میکند
دلایل ممنوعیت پاسخ هوش مصنوعی در Stack Overflow
در ابتدا باید به این نکته اشاره کنیم که مدیران سایت گفتند که این ممنوعیت موقتی است و پس از مشورت با جامعه برنامهنویسان، حکم نهایی آن صادر خواهد شد. اما، همانطور که مدیران این وبسایت توضیح دادند، ربات ChatGPT به سادگی تولید پاسخها را برای کاربران بسیار آسان میکند و سایت را با پاسخهایی پر میکند که در نگاه اول درست به نظر میرسند اما در بررسی دقیق اغلب اشتباه هستند.
آنها در ادامه نوشتهاند:
«مشکل اصلی این است که در حالی که پاسخهایی که ChatGPT تولید میکند نرخ بالایی از نادرست بودن دارند، در نگاه اول به نظر میرسند که ممکن است خوب باشند و پاسخها بسیار آسان تولید شوند. به این ترتیب، ما به کاهش حجم این پستها نیاز داریم. در حال حاضر، استفاده از ChatGPT برای ایجاد پستها در Stack Overflow مجاز نیست. اگر پس از ارسال این خطمشی موقت، تصور شود که کاربری از ChatGPT استفاده کرده است، تحریمهایی علیه وی اعمال میشود تا از ادامه ارسال چنین محتوایی توسط کاربران جلوگیری شود، حتی اگر پستها در غیر این صورت قابل قبول باشند.»
ChatGPT یک ربات چت آزمایشی است که توسط OpenAI ایجاد شده و بر اساس مولد متن تکمیل خودکار GPT-3.5 آن کار میکند. یک نسخه نمایشی وب برای این ربات هفته گذشته منتشر شد و از آن زمان با استقبال پرشور کاربران در سراسر وب مواجه شد. رابط کاربری ربات افراد را تشویق می کند تا سؤال بپرسند و در عوض نتایج چشمگیری را در طیف وسیعی از پرسوجوها ارائه میدهد. از تولید اشعار، آهنگها، و اسکریپتهای تلویزیونی گرفته تا پاسخ به سؤالات بیاهمیت و نوشتن و اشکالزدایی خطوط کد.
اما در حالی که بسیاری از کاربران تحت تأثیر قابلیتهای ChatGPT قرار گرفتهاند، دیگران به تمایل مداوم آن برای ایجاد پاسخهای قابل قبول اما نادرست اشاره کردهاند. به عنوان مثال از ربات بخواهید که بیوگرافی یک شخصیت عمومی را بنویسد و ممکن است با اطمینان کامل دادههای بیوگرافی نادرست را وارد کند. از آن بخواهید توضیح دهد که چگونه نرم افزار را برای یک عملکرد خاص برنامه ریزی کند و به طور مشابه میتواند کد قابل باور اما در نهایت نادرست تولید کند.
این یکی از چندین نقص شناخته شده مدلهای تولید متن با هوش مصنوعی است که به عنوان مدلهای زبان بزرگ یا LLM شناخته میشود. این سیستمها با تجزیه و تحلیل الگوها در مجموعههای عظیمی از متن تولید شده از وب آموزش میبینند. آنها به دنبال نظمهای آماری در این دادهها میگردند و از آنها برای پیشبینی کلمات بعدی در هر جمله استفاده میکنند. با این حال، این بدان معناست که آنها فاقد قوانین سختشده برای نحوه عملکرد سیستمهای خاص در جهان هستند، که منجر به تمایل آنها به تولید «حملههای روان» میشود.
با توجه به مقیاس عظیم این سیستمها، نمیتوان با قطعیت گفت که چند درصد از خروجی آنها نادرست است. اما در مورد وبسایت Stack Overflow، این شرکت در حال حاضر قضاوت کرده است که خطر گمراه کردن کاربران بسیار بیشتر از کمک کردن به آنهاست به همین دلیل آن را ممنوع کرده است.
تصمیم Stack Overflow از این نظر قابل توجه است. زیرا کارشناسان در جامعه هوش مصنوعی در حال حاضر در حال بحث در مورد تهدید بالقوه ناشی از این مدلهای زبان بزرگ هستند. برخی دیگر میگویند توانایی این سیستمها برای تولید متن ارزان (با سرعت بالا و دقت کم) در مقیاس بزرگ تنها خطر اشتراک گذاری آن را افزایش میدهد.
تا به امروز، شواهد کمی از اثرات مضر مدلهای LLM در دنیای واقعی وجود دارد. اما این اتفاق اخیر در Stack Overflow از این استدلال حمایت میکند که مقیاس این سیستمها واقعاً چالشهای جدیدی را ایجاد میکند.
نگرانی این است که این الگو ممکن است در پلتفرمهای دیگر نیز تکرار شود و سیل محتوای هوش مصنوعی صدای کاربران واقعی را با دادههای قابل قبول اما نادرست پر کند. این که دقیقاً چگونه میتواند در حوزههای مختلف در سراسر وب اجرا شود، به ماهیت دقیق پلتفرم و قابلیتهای تعدیل آن بستگی دارد. اینکه آیا این مشکلات را میتوان در آینده با استفاده از ابزارهایی مانند فیلترهای اسپم بهبودیافته کاهش داد یا نه، باید منتظر ماند و دید.
در همین حال، پاسخها به بیانیه Stack Overflow در تابلوهای بحث و گفتگوی خود سایت و در انجمنهای مرتبط مانند Hacker News به طور گسترده حمایت میشوند و کاربران این هشدار را اضافه میکنند که ممکن است برای مدیران Stack Overflow شناسایی پاسخهای تولید شده توسط هوش مصنوعی در وهله اول دشوار باشد.
بسیاری از کاربران تجربیات خود را از استفاده از این ربات بازگو کردهاند، یکی از افراد در هکر نیوز گفت که پاسخهای آن به سوالات مربوط به مشکلات کدگذاری اغلب اشتباه بوده تا درست. این کاربر در ادامه گفت: “بخش ترسناک قضیه این بود که چقدر با اطمینان نادرست بود. متن به نظر خوب است، اما خطاهای بزرگی وجود داشت.”
دیگران مسئله تعدیل هوش مصنوعی را به خود ChatGPT سپردند و از ربات خواستند تا استدلالهایی برای و علیه ممنوعیت خود ایجاد کند. در یکی از پاسخها، ربات دقیقاً به همان نتیجهگیری مدیران Stack Overflow رسید:
«به طور کلی، اجازه دادن یا ندادن پاسخهای تولید شده توسط هوش مصنوعی در Stack Overflow یک تصمیم پیچیده است که باید توسط جامعه به دقت مورد بررسی قرار گیرد.»
دیدگاهتان را بنویسید