پژوهشگران مؤسسه فناوری ماساچوست (MIT) نخستین الگوریتم کارآمد و اثباتشده برای آموزش هوش مصنوعی به درک تقارن در دادهها را طراحی کردهاند؛ دستاوردی که میتواند به ساخت مدلهای دقیقتر و قدرتمندتر برای اکتشافات علمی منجر شود.
حل یک چالش بنیادی در یادگیری ماشین
گروهی از پژوهشگران موفق شدند یکی از مسائل بنیادی در یادگیری ماشین را حل کنند و نخستین روش برای پردازش دادههای متقارن را توسعه دهند که در مصرف منابع محاسباتی و نیاز به داده بهصورت اثباتشده کارآمد است. چالش اصلی این است که مدلهای هوش مصنوعی بهراحتی با تقارن دچار سردرگمی میشوند؛ مثلا ممکن است یک مولکول چرخیده را بهعنوان یک شیء کاملاً متفاوت در نظر بگیرند، نه ساختاری یکسان.
اهمیت درک تقارن در دادهها
بر اساس اظهارات بهروز طهماسبی، دانشجوی دکترای MIT و نویسنده همکار این مقاله، تقارنها حامل اطلاعاتی هستند که طبیعت درباره دادهها به ما منتقل میکند و مدلهای یادگیری ماشین باید آنها را لحاظ کنند. او گفته است: «اکنون نشان دادهایم که یادگیری ماشین روی دادههای متقارن بهشکلی کارآمد امکانپذیر است.»
رویکردی متفاوت نسبت به مدلهای فعلی
در حالیکه برخی مدلهای فعلی مانند شبکههای عصبی گرافی (Graph Neural Networks) تاحدی توانایی پردازش تقارن را دارند، سازوکار دقیق عملکرد موفق آنها بهطور کامل روشن نیست. تیم MIT رویکردی متفاوت در پیش گرفته و با ترکیب مفاهیم ریاضی از جبر و هندسه، الگوریتم جدیدی طراحی کرده که بهصورت مؤثر تقارن را یاد میگیرد و رعایت میکند.

مزایای الگوریتم جدید برای مدلهای هوش مصنوعی
این روش اثباتشده به نمونههای داده کمتری برای آموزش نیاز دارد و همین موضوع موجب افزایش دقت و انعطافپذیری مدل خواهد شد. پژوهشگران اعلام کردهاند که این فناوری میتواند به ساخت مدلهای هوش مصنوعی قدرتمندتر و کممصرفتر در کاربردهایی گسترده مانند کشف مواد جدید، شناسایی ناهنجاریهای نجومی و تحلیل الگوهای پیچیده اقلیمی منتهی شود.
ارائه در یکی از معتبرترین کنفرانسها
این تحقیق بهتازگی در کنفرانس بینالمللی یادگیری ماشین (International Conference on Machine Learning) ارائه شده است.
دیدگاهتان را بنویسید