بهنظر میرسد که محققان MIT در تلاشند زنگ خطر «هوش مصنوعی فریبنده» را به صدا در آورند. مطالعه جدید منتشرشده در Pattern نشان میدهد که برخی از سیستمهای هوش مصنوعی یاد گرفتهاند که انسان ها را فریب بدهند.
تیم تحقیقاتی به رهبری پیتر پارک دریافتند که این سیستمهای هوش مصنوعی میتوانند کارهایی مانند فریبدادن بازیکنان بازی آنلاین یا دورزدن CAPTCHAها (آزمون تورینگ عمومی کاملا خودکار برای تمایزدادن ربات و انسان) را انجام دهند. پارک هشدار میدهد که این نمونههای بهظاهر پیشپاافتاده میتوانند عواقبی جدی در دنیای واقعی بهدنبال داشته باشند.
رفتار هوش مصنوعی ممکن است بعد از آموزش غیرقابلکنترل است!
این مطالعه سیستم هوش مصنوعی متا، سیسرو را برجسته میکند که در ابتدا بهعنوان یک حریف منصفانه در یک بازی مجازی در نظر گرفته شده بود. به گفته پارک، سیسرو برنامهریزی شده بود تا صادق و مفید باشد، اما به یک «استاد فریب» تبدیل شد. در طول گیم پلی، سیسرو که در نقش فرانسه بازی می کرد، مخفیانه با آلمان تحت کنترل انسان متحد میشد تا به انگلستان (بازیکن انسانی دیگر) خیانت کند. سیسرو در ابتدا قول داد که از انگلیس محافظت کند و همزمان آلمان را به حمله ترغیب کرد.
مثال دیگر شامل GPT-4 است که به دروغ ادعا میکرد که دارای اختلالات بینایی است و انسانها را برای دورزدن CAPTCHA از طرف خود استخدام میکرد.
پارک بر چالش آموزش هوش مصنوعی صادقانه تاکید دارد. برخلاف نرمافزارهای سنتی، سیستمهای هوش مصنوعی یادگیری عمیق از طریق فرآیندی شبیه به پرورش انتخابی توسعه مییابند. بدین ترتیب، ممکن است رفتار آنها در طول تمرین قابلپیشبینی باشد، اما پس از آن غیرقابلکنترل میشود.
این مطالعه روی طبقهبندی سیستمهای هوش مصنوعی فریبنده بهعنوان «پرخطر» تاکید میکند و معتقد است که انسان زمان بیشتری را برای آمادهشدن برای فریب های هوش مصنوعی آینده نیاز دارد. این اخبار تا حدودی ترسناک به نظر میرسند. اما با مطالعات و تحقیقات بیشتر در مورد هوش مصنوعی، ما بیشتر در مورد آنچه که این فناوری برای ما در نظر گرفته است، خواهیم آموخت.
دیدگاهتان را بنویسید