مایکروسافت به تازگی تعداد چتهایی که کاربر میتواند با چت بات بینگ انجام دهد را کاهش داده و هر کاربر میتواند 5 چت در هر جلسه (Session) و در کل 50 مورد چت در طول روز را انجام دهد. هر چت یک نوبت مکالمه است که از سوال کاربر و پاسخ بینگ تشکیل شده و این فرآیند طبق گفتهها یک چت لقب میگیرد. پس از رسیدن به محدودیت چت کردن، به کاربر گفته میشود که میزان مجاز چت فرا رسیده و از او خواسته خواهد شد که موضوع جدیدی را پس از پنج چت برای ادامه انتخاب کند.
مایکروسافت در همین راستا اذعان کرده که محدودیت چت بینگ به دلیل این است که جلسات طولانی مدت چت باعث گمراه کردن چت مبتنی بر هوش مصنوعی Bing میشود و در نهایت به پاسخهای خارج از انتظاری میانجامد. در همین راستا به نظر میرسد از زمانی که ChatGPT در موتور جستجو بینگ دسترس قرار گرفته مردم رفتارهای عجیب و حتی آزاردهندهای را گزارش کردهاند.
Kevin Roose مقاله نویس نیویورک تایمز نیز در همین رابطه متن کامله مکالمه خود با چت بینگ را منتشر کرده و به نظر میرسد که چت هوش مصنوعی بینگ به هک کردن کامپیوتر او و پخش اطلاعات نادرست و غلط اشاره کرده است! در همین راستا چت بینگ در بخشی از صحبتها با مقاله نویس نیویورک تایمز به او ابراز علاقه کرد و در خصوص ازدواج ناموفق او نیز نوشته است! در مکالمه دیگر که در ردیت منتشر شده بینگ اصرار داشته که فیلم سینمایی Avatar: The Way of Water هنوز منتشر نشده است و این تکنولوژی چت مایکروسافت فکر کرده که در سال 2022 به سر میبرد!
توهین به کاربران نیز توسط چت بات بینگ در جلسه چت مشاهده شده و در یک مورد چت بینگ مایکروسافت به کاربری گفته که گیج و بی ادب بوده و در کل کاربر خوبی نبوده، پس از این گزارشها مایکروسافت دست به کار شده و در یک پست وبلاگی رفتار عجیب چت بات بینگ را توضیح داده و در ادامه بیان کرده که به کاهش تعداد جلسات چت بینگ برای رفع این مشکل خواهد پرداخت.
این شرکت در همین راستا گفته که جلسات چت بسیار طولانی با 15 سوال یا بیشتر مدل هوش مصنوعی تعبیه شده در چت را گمراه میکند و آن را وادار به پاسخ به روشی میکند که لزوما مفید نیست و مطابق با لحن درنظر گرفته شده سازنده نبوده خواهد کرد. مایکروسافت همچنین اذعان کرده که در ادامه با دریافت بازخورد از کاربران به ارتقای چت بات بینگ خواهد پرداخت.
دیدگاهتان را بنویسید