مدل جدید هوش مصنوعی OpenAI در هنگام استدلال به زبان های چینی، فارسی و دیگر زبانها تغییر میکند و کاربران و کارشناسان را شگفتزده کرده است.
مدل جدید هوش مصنوعی OpenAI به نام o1 رفتار غیرمنتظرهای نشان میدهد که توجه کاربران و متخصصان را به خود جلب کرده است. مدل جدید هوش مصنوعی OpenAI برای انجام وظایف استدلال طراحی شده، در حین پردازش، زبان خود را تغییر میدهد، حتی زمانی که پرسش اولیه به زبان انگلیسی ارائه شده است.
کاربران در پلتفرمهای مختلف گزارش دادهاند که مدل o1 فرآیند استدلال خود را به زبان انگلیسی آغاز میکند اما به طور ناگهانی به زبان چینی، فارسی یا دیگر زبانها تغییر میدهد و در نهایت پاسخ را به زبان انگلیسی ارائه میکند. این رفتار در طیف وسیعی از سناریوها، از وظایف ساده شمارش گرفته تا مسائل پیچیده حل مسئله، مشاهده شده است.
یکی از کاربران ردیت اظهار داشت: این مدل بهطور تصادفی در نیمه راه شروع به فکرکردن به زبان چینی کرد. کاربر دیگری در X پرسید: چرا این مدل ناگهان شروع به فکرکردن به زبان چینی کرد؟ هیچ بخشی از مکالمه (بیش از 5 پیام) به زبان چینی نبود.
توضیح رفتار عجیب مدل جدید هوش مصنوعی OpenAI
جامعه هوش مصنوعی با نظریههای مختلفی در تلاش برای توضیح این رفتار عجیب است. در حالی که OpenAI هنوز بیانیه رسمی صادر نکرده است، کارشناسان چندین فرضیه مطرح کردهاند.
برخی، از جمله کلمنت دلانگو، مدیرعامل Hugging Face، معتقدند که این پدیده ممکن است به دادههای آموزشی مدل o1 مرتبط باشد. تد شائو، پژوهشگر در Google DeepMind، پیشنهاد داد که استفاده از خدمات برچسبگذاری دادههای تخصصی چینی ممکن است عامل مؤثری باشد.
او توضیح داد: به دلایل مربوط به هزینه و دردسترسبودن نیروی کار تخصصی، بسیاری از این ارائهدهندگان داده در چین مستقر هستند. این نظریه میگوید که تأثیر زبانی چینی بر استدلال ممکن است نتیجه فرآیند برچسبگذاری دادهها در حین آموزش مدل باشد.
نظریه دیگری پیشنهاد میکند که مدل o1 ممکن است زبانهایی را انتخاب کند که برای حل مسائل خاص به نظرش کارآمدتر هستند. متیو گوزدیال، پژوهشگر هوش مصنوعی و استاد دانشگاه آلبرتا، دیدگاه متفاوتی ارائه داد. او در مصاحبهای با TechCrunch گفت: مدل هوش مصنوعی OpenAI نمیداند زبان چیست یا اینکه زبانها متفاوت هستند. برای آن، همه چیز فقط متن است.
این دیدگاه نشان میدهد که تغییر زبانهای مدل ممکن است ناشی از مکانیکهای پردازش داخلی آن باشد، نه انتخاب آگاهانه یا عمدی بر اساس درک زبانی.
تیژن وانگ، مهندس نرمافزار در Hugging Face، میگوید که ناسازگاریهای زبانی ممکن است ناشی از تداعیهایی باشد که مدل در طول آموزش شکل داده است. او توضیح داد: من خودم ترجیح میدهم ریاضیات را به زبان چینی انجام دهم، زیرا هر رقم فقط یک هجا دارد که محاسبات را سریع و کارآمد میکند. اما وقتی موضوعاتی مانند تعصب ناخودآگاه مطرح میشود، به طور خودکار به انگلیسی تغییر میکنم، زیرا اولینبار این مفاهیم را به انگلیسی یاد گرفتم.
در حالی که این نظریهها بینشهای جالبی درباره دلایل احتمالی رفتار مدل o1 ارائه میدهند، لوکا سولدینی، دانشمند پژوهشی در مؤسسه Allen برای هوش مصنوعی، بر اهمیت شفافیت در توسعه هوش مصنوعی تأکید دارد.
او بیان کرد: این نوع مشاهدات در یک سیستم هوش مصنوعی مستقر، به دلیل شفافنبودن این مدلها، قابل تأیید نیست. این یکی از دلایلی است که نشان میدهد شفافیت در نحوه ساخت سیستمهای هوش مصنوعی ضروری است.
بیشترین ماینیگ تو کدوم کشوراست؟ مطمئنا چین و ایران ابتدای لیست هستند وقتی هوش مصنوعی نیاز به پردازش داره وقتی مراجعه میکنه میبینه یا تو منطقه چین یا تو ایرانه