چتباتهای هوش مصنوعی مولد به خاطر اشتباهات فراوانشان شناخته شدهاند. امیدواریم که تا اینجای کار، شما از پیشنهاد هوش مصنوعی گوگل مبنی بر افزودن چسب به دستور پخت پیتزای خود یا خوردن یک یا دو سنگ در روز برای سلامتی پیروی نکرده باشید. زیرا طبق گفته پژوهشگران، مشکلات مربوط به دقت هوش مصنوعی مولد در آیندهای نزدیک برطرف نخواهند شد.
این خطاها به عنوان توهمات شناخته میشوند: اساساً، چیزهایی که مدل آنها را اختراع میکند. آیا این مورد بهتر خواهد شد؟ حتی پژوهشگرانی که هوش مصنوعی را مطالعه میکنند، نسبت به وقوع این امر در آیندهای نزدیک خوشبین نیستند.
این خبر یکی از یافتههای یک گروه متشکل از حدود دو دوجین کارشناس هوش مصنوعی است که این ماه توسط انجمن پیشرفت هوش مصنوعی منتشر شد. این گروه همچنین بیش از 400 نفر از اعضای انجمن را مورد بررسی قرار داد.
در مقابل آنچه ممکن است درباره توسعهدهندگان شنیده باشید که تنها چند سال (یا ماه، بسته به کسی که بپرسید) تا بهبود هوش مصنوعی فاصله دارند، این گروه از آکادمیکها و متخصصان صنعت نسبت به سرعت پیشرفت این ابزارها محتاطتر به نظر میرسد. این موضوع فقط درباره درستکردن حقایق و جلوگیری از اشتباهات عجیب نیست. این گروه معتقدند که قابلیت اطمینان ابزارهای هوش مصنوعی باید به طور چشمگیری افزایش یابد تا توسعهدهندگان بتوانند مدلی تولید کنند که بتواند با هوش انسان (AGI) رقابت کند یا از آن پیشی بگیرد. آنها بر این باورند که بهبودهایی در این مقیاس به زودی اتفاق نخواهد افتاد.
وینسنت کانیتزر، استاد علوم کامپیوتر در دانشگاه کارنگی ملون و یکی از اعضای این گروه گفت: ما معمولاً کمی محتاط هستیم و به چیزی ایمان نمیآوریم، تا زمانی که واقعاً کار کند.
هوش مصنوعی در سالهای اخیر به سرعت توسعه یافته است
فرانچسکا روسی، رئیس AAAI در مقدمه خود نوشت، هدف این گزارش، حمایت از تحقیقات در زمینه هوش مصنوعی است که فناوری تولید میکند که به کمک مردم میآید. مسائل مربوط به اعتماد و قابلیت اطمینان، نهتنها در ارائه اطلاعات دقیق، بلکه در اجتناب از سوگیری و اطمینان از اینکه هوش مصنوعی آینده عواقب ناخواسته شدیدی ایجاد نمیکند، جدی هستند. او نوشت: همه ما باید با هم کار کنیم تا هوش مصنوعی را به شیوهای مسئولانه پیش ببریم و مطمئن شویم که پیشرفت فناوری از پیشرفت بشریت حمایت میکند و با ارزشهای انسانی همسو است.

کانیتزر گفت: تسریع روند هوش مصنوعی، به ویژه از زمانی که OpenAI در سال 2022 ChatGPT را راهاندازی کرد، قابل توجه بوده است. از برخی جهات، این موضوع حیرتانگیز بوده و بسیاری از این تکنیکها بسیار بهتر از آنچه اکثر ما انتظار داشتیم عمل میکنند.
جان تیکاستان، استادیار علوم کامپیوتر در دانشگاه کرنل گفت: برخی از زمینههای تحقیقات هوش مصنوعی وجود دارد که بهطور ویژهای ارزش دارد. این مورد به ویژه در ریاضیات یا علوم، جایی که کاربران میتوانند نتایج یک مدل را بررسی کنند، صادق است.
تیکاستان گفت: این فناوری شگفتانگیز است. من بیش از یک دهه در این حوزه کار کردهام و از اینکه چقدر این فناوری بهبود یافته و چقدر سریع به این خوبی شده است، شوکه شدهام.
آیا چتباتها شروع به ارائه حقایق خواهند کرد؟
با وجود برخی پیشرفتها در بهبود قابلیت اعتماد به اطلاعاتی که از مدلهای هوش مصنوعی مولد ارائه میشود، کارهای بیشتری باید انجام شود. گزارشی جدید از مجله Columbia Journalism Review نشان داد که چتباتها معمولاً از پاسخدادن به سؤالاتی که نمیتوانند به دقت پاسخ دهند، خودداری نمیکنند و از اطلاعات نادرست اطمینان حاصل کرده و منابعی را به عنوان پشتیبان آن ادعاهای نادرست اختراع میکنند (و لینکهای جعلی ارائه میدهند).
گزارش انجمن پیشرفت هوش مصنوعی گفت: بهبود قابلیت اطمینان و دقت، به احتمال زیاد بزرگترین حوزه پژوهش در هوش مصنوعی امروز است. پژوهشگران سه روش اصلی برای افزایش دقت سیستمهای هوش مصنوعی را ذکر کردند: تنظیم دقیق (fine-tuning)، مانند تقویت یادگیری با بازخورد انسانی؛ تولید مبتنی بر بازیابی (retrieval-augmented generation)، که در آن سیستم اسناد مشخصی را جمعآوری کرده و پاسخ خود را از آنها استخراج میکند و زنجیره تفکر (chain-of-thought)، جایی که درخواستها سؤال را به مراحل کوچکتری تقسیم میکنند تا مدل هوش مصنوعی بتواند توهمات را بررسی کند.
آیا این موارد در آینده نزدیک پاسخهای چتبات شما را دقیقتر خواهد کرد؟ به احتمال زیاد نه: دقت از لحاظ واقعی حل نشده است. حدود 60٪ از کسانی که مورد بررسی قرار گرفتند، شک داشتند که مسائل مربوط به دقت یا قابلیت اعتماد بهزودی حل شوند.
به نظر میرسد که در صنعت هوش مصنوعی مولد، بهبود مقیاس مدلهای موجود، دقت آنها را افزایش داده و توهمات را کاهش خواهد داد.
تیکاستان گفت: فکر میکنم این امیدواری همیشه اندکی بیش از حد خوشبینانه بوده است. در چند سال گذشته هیچ مدرکی ندیدهام که نشان دهد مدلهای زبانی با دقت بالا و حقایق دقیق در آستانه ظهور هستند.
کانیتزر گفت: با وجود نقصهای مدلهای زبانی بزرگ مانند Claude از Anthropic یا Llama از Meta، کاربران ممکن است به اشتباه فرض کنند که آنها دقیقتر هستند، چون پاسخها را با اطمینان ارائه میدهند.
او گفت: اگر ببینیم کسی با اعتمادبهنفس پاسخ میدهد، برداشت میکنیم که فرد واقعاً میداند در مورد چه چیزی صحبت میکند. اما یک سیستم هوش مصنوعی ممکن است فقط ادعا کند که نسبت به چیزی کاملاً بیمعنی بسیار مطمئن است.
درسهایی برای کاربران هوش مصنوعی
آگاهی از محدودیتهای هوش مصنوعی مولد برای استفاده صحیح از آن حیاتی است. توصیه تیکاستان برای کاربران مدلهایی مانند ChatGPT و جمینای گوگل بسیار ساده است: شما باید نتایج را بررسی کنید.
او اضافه کرد: مدلهای زبانی عمومی در بازیابی مداوم اطلاعات دقیق عملکرد ضعیفی دارند. اگر چیزی را از آن بخواهید، احتمالاً باید با جستجو در یک موتور جستجو (و نه تکیه بر خلاصهای که هوش مصنوعی از نتایج جستجو ارائه میدهد) ادامه دهید.
تیکاستان گفت: شیوهای که او بیشتر از مدلهای هوش مصنوعی استفاده میکند، خودکارسازی وظایفی است که میتواند دقت آنها را بررسی کند، مانند قالببندی جداول اطلاعات یا نوشتن کد. او میگوید: اصل کلی این است که من متوجه شدهام این مدلها بیشترین فایده را در خودکارسازی کارهایی دارند که شما از قبل میدانید چگونه انجام دهید.
آیا هوش مصنوعی عمومی در آستانه ظهور است؟
یکی از اولویتهای صنعت توسعه هوش مصنوعی، رقابتی برای ایجاد چیزی است که اغلب به آن هوش مصنوعی عمومی یا AGI گفته میشود و میتواند در سطح انسانی یا بهتر فکر کند.
نظرسنجی گزارش، دیدگاههای قوی در مورد رقابت برای AGI نشان داد. بیش از سهچهارم (76٪) از پاسخدهندگان گفتند که افزایش مقیاس تکنیکهای فعلی هوش مصنوعی مانند مدلهای زبانی بزرگ به احتمال زیاد منجر به تولید AGI نخواهد شد. اکثر پژوهشگران شک دارند که روند فعلی به سمت AGI موفقیتآمیز خواهد بود.
بیشتر آنها به همین اندازه معتقدند که سیستمهای مجهز به هوش مصنوعی عمومی اگر توسط نهادهای خصوصی توسعه یابند، باید در اختیار عموم قرار بگیرند (82٪). نگرانیها، موارد اخلاقی و پیامدهای احتمالی ایجاد سیستمی که بتواند از انسان پیشی بگیرد را منعکس میکند.
تیکاستان گفت: گفتمان پیرامون AGI پیچیده است. از یک سو، ما قبلاً سیستمهایی ایجاد کردهایم که شکلی از هوش عمومی را دارند. مدلهای زبانی بزرگی مانند ChatGPT از OpenAI قادر به انجام فعالیتهای متنوع انسانی هستند، در مقابل مدلهای هوش مصنوعی قدیمی که تنها قادر به انجام یک کار بودند، مانند بازی شطرنج.

او افزود: این مدلها فاقد مفهوم ذاتی حقیقت و توانایی انجام وظایف خلاقانه کاملاً باز هستند. من مسیری برای اینکه آنها بتوانند با استفاده از فناوری فعلی بهطور مستحکم در یک محیط انسانی عمل کنند، نمیبینم. او گفت. «فکر میکنم بسیاری از پیشرفتهای پژوهشی برای رسیدن به آن مسیر وجود دارد.
کانیتزر گفت تعریف دقیق آنچه که دقیقاً AGI محسوب میشود دشوار است: اغلب، مردم منظورشان چیزی است که بتواند اکثر وظایف را بهتر از یک انسان انجام دهد، اما برخی میگویند فقط چیزی است که قادر به انجام طیفی از وظایف باشد.
در حالی که پژوهشگران نسبت به نزدیکبودن AGI تردید دارند، کانیتزر هشدار داد که پژوهشگران هوش مصنوعی لزوماً انتظار پیشرفت تکنولوژیکی دراماتیکی که در چند سال گذشته مشاهده کردهایم را نداشتند. او گفت: ما انتظار نداشتیم که تغییرات به این سرعت رخ دهند، بنابراین ممکن است بگویید اگر روند به این سرعت ادامه یابد، شاید ما شاهد AGI هم باشیم.
دیدگاهتان را بنویسید