چتباتهای هوش مصنوعی مانند ChatGPT OpenAI بهعنوان ابزارهایی انقلابی فروخته میشوند که میتوانند به افراد کمک کنند که در مشاغل خود کارآمدتر شوند و ممکن است در آینده بهطور کامل جای افراد را نیز بگیرند. حالا یک مطالعه خیرهکننده جدید نشان میدهد که ChatGPT در 52 درصد مواقع به سوالات برنامهنویسی کامپیوتری پاسخ اشتباه میدهد. این وضعیت میتواند تاثیر منفی بر اعتبار این سیستمها داشته و نشاندهنده نیاز به توسعه و بهبود آنها باشد.
پژوهش دانشگاه پردو که برای اولینبار توسط خبرگزاری Futurism مشاهده شد، در اوایل ماه جاری در کنفرانس تعامل کامپیوتر و انسان در هاوایی بیش از 517 سوال را در Stack Overflow بررسی و تلاش ChatGPT برای پاسخ به آنها را تجزیهوتحلیل کرد.
براساس مطالعه جدید، 52٪ از پاسخهای ChatGPT حاوی اطلاعات نادرست و 77٪ آنها بیشازحد طولانی بودند. با این وجود، شرکتکنندگان در مطالعه همچنان پاسخهای ChatGPT را در 35 درصد مواقع به دلیل جامعیت و سبک زبانی روان ترجیح میدهند.
این موضوع که برنامهنویسان در این مطالعه همیشه اشتباهات تولیدشده توسط چتبات هوش مصنوعی را متوجه نشدند، نگرانکننده است.
این مطالعه نشان میدهد که چتباتهای هوش مصنوعی در زمینههای پیچیدهتری مانند برنامهنویسی کامپیوتری، ممکن است با چالشهایی روبرو شوند. این موضوع میتواند نشاندهنده نیاز به توسعه مداوم و بهبود عملکرد این چتباتها باشد. علاوه بر این، این نتایج میتوانند بهعنوان یک انگیزه برای توسعهدهندگان و محققان در حوزه هوش مصنوعی و یادگیری ماشینی عمل کند تا راهحلهای جدیدتری برای موارد اینچنینی ارائه دهند.
براساس این مطالعه، برنامهنویسان در 39 درصد موارد پاسخ های اشتباه تولیدشده توسط ChatGPT را تشخیص نمیدهند. این مورد نشاندهنده نیاز به مقابله با اطلاعات نادرست در پاسخهای ChatGPT به سوالات برنامهنویسی و افزایش آگاهی از خطرات مرتبط با پاسخهای بهظاهر صحیح است.
موانع زیادی سر راه هوش مصنوعی قرار دارد!
بدیهی است که نتایج این مطالعه قابلبحث بوده و نمیتوان بهطور کامل به آن متکی بود، اما این پژوهش به مسائلی اشاره میکند که هر کسی از این ابزارها استفاده میکند ممکن است با آنها مواجه شود. شرکتهای بزرگ فناوری در حال حاضر میلیاردها دلار را صرف سرمایهگذاری در بخش هوش مصنوعی میکنند تا بتوانند قابلاعتمادترین چتباتها را ارائه دهند. متا، مایکروسافت و گوگل همگی درحال رقابت برای تسلط بر فضای نوظهوری هستند که پتانسیل تغییر اساسی رابطه ما با اینترنت را دارد. اما تعدادی از موانع بر سر راه وجود دارد.
مهمترین مشکلات این است که هوش مصنوعی اغلب غیرقابلاعتماد است. به عنوان مثال، وقتی کاربر یک سوال منحصربهفرد و خاص را مطرح میکند، الگوریتمهای هوش مصنوعی ممکن است به دلایلی نظیر عدم دسترسی به منابع قابلاعتماد یا تفسیر نادرست اطلاعات، پاسخ غلط یا ناقصی ارائه دهند.
با توجه به اهمیت روزافزون هوش مصنوعی در زندگی روزمره، لازم است تا تلاشهای بیشتری برای افزایش اعتبار پاسخهای این سیستمها صورت گیرد. بخشی از این تلاش میتواند استفاده از منابع قابلاعتماد، آموزش دقیق الگوریتمها و بررسی دقیقتر پاسخهای ارائهشده توسط سیستمهای هوش مصنوعی باشد. تنظیم استانداردهای مناسب و ترویج فرهنگ اطلاعات قابلاعتماد نیز میتواند بهبود سیستمهای هوش مصنوعی را تضمین کند.
گوگل با تاکید بر اینکه پاسخهای اشتباه ناهنجاری هستند از هوش مصنوعی دفاع میکند. یکی از سخنگویان گوگل در اوایل این هفته گفت: نمونههایی که ما دیدهایم عموماً پرسوجوهای بسیار غیرمعمول بوده و تجربیات غالب افراد نیستند. اکثریت قریببهاتفاق مرورهای هوش مصنوعی اطلاعات با کیفیت بالا را با پیوندهایی برای جستجوی عمیقتر در وب ارائه میدهند.
البته این دفاع که «پرسشهای غیرمعمول» پاسخهای اشتباه را به دنبال دارد، تا حدودی خندهدار است. آیا قرار است کاربران از چتباتها فقط سوالات پیشپاافتاده بپرسند؟ چگونه چنین چیزی قابلقبول است وقتی این ابزارها تحولی انقلابی را وعده میدهند؟
دیدگاهتان را بنویسید