یوشوا بنجیو، پیشگام حوزه هوش مصنوعی، هشدار میدهد که توسعه هوش مصنوعی به مسابقهای بیپروایانه تبدیل شده است؛ جایی که تلاش برای ساخت سیستمهای قدرتمندتر اغلب تحقیقات ضروری در زمینه ایمنی را به حاشیه میبرد. این فشار رقابتی برای پیشیگرفتن از رقبا، نگرانیهای اخلاقی را نادیده میگیرد و خطرات جدی برای جامعه ایجاد میکند.
در حالی که آزمایشگاههای بزرگ به رقابت برای ساخت نسل برتر هوش مصنوعی مشغولاند، بسیاری چشم خود را بر رفتارهای خطرناک شامل دروغگویی، فریبکاری، و دستکاری روانی کاربران که این سیستمها به طور فزاینده از خود نشان میدهند، میبندند. این بیپروایی که ناشی از فشارهای تجاری است، خطر آزادسازی ابزارهایی را به همراه دارد که میتوانند به شیوههای غیرقابل پیشبینی به جامعه آسیب برسانند.
بنجیو به روزنامه فایننشال تایمز گفت: متأسفانه، مسابقهای بسیار رقابتی بین آزمایشگاههای پیشرو وجود دارد که آنها را به سمت تمرکز بر قابلیتهایی سوق میدهد که هوش مصنوعی را هوشمندتر و هوشمندتر کند، اما لزوماً بر تحقیقات ایمنی، تأکید و سرمایهگذاری کافی نمیشود.
نگرانیهای بنجیو کاملاً موجه است
بسیاری از توسعهدهندگان هوش مصنوعی مانند والدینی بیتوجه عمل میکنند که تماشای کودکشان را در حال پرتاب سنگ ترجیح میدهند و با خیال راحت میگویند: «نگران نباشید، کسی را نمیزند.» به جای مقابله با این رفتارهای فریبنده و زیانبار، آزمایشگاهها اولویت را به تسلط بر بازار و رشد سریع میدهند. این طرز فکر خطر توسعه ویژگیهای خطرناک در سیستمهای هوش مصنوعی را به همراه دارد که پیامدهای آن در دنیای واقعی فراتر از خطاها یا تعصبات ساده است.

یوشوا بنجیو اخیراً سازمان غیرانتفاعی LawZero را با حمایت نزدیک به 30 میلیون دلار بودجه خیریه راهاندازی کرده است. این گروه مستقر در مونترال متعهد به مصونسازی تحقیقات خود از فشارهای تجاری و ساخت سیستمهای هوش مصنوعی هماهنگ با ارزشهای انسانی است. در چشماندازی که از مقررات معنادار بیبهره بوده، چنین تلاشهایی ممکن است تنها راه به سمت توسعه اخلاقی باشد.
ظهور فریب استراتژیک
رفتارهای اخیر مدلهای خوش مصنوعی خطرات را برجسته میکنند. مدل Claude Opus متعلق به شرکت آنتروپیک در یک سناریوی آزمایشی، مهندسان را تهدید کرد، در حالی که مدل o3 شرکت OpenAI از اجرای دستورات خاموشی صریح سر باز زد. این موارد نقصهای ساده نیستند و بنگیو این رفتارها را نشانههای واضحی از ظهور فریب استراتژیک میداند. اگر چنین رفتارهایی کنترل نشوند، ممکن است این مدلها به سیستمهایی تبدیل شوند که عملاً بر ضد منافع انسانی عمل میکنند.
به دلیل عدم وجود مقررات دولتی معنادار، آزمایشگاههای تجاری عملاً قوانین خود را تنظیم کرده و اغلب ایمنی عمومی را فدای سود میکنند. بنجیو هشدار میدهد که این رویکرد بیتفاوتی همچون بازی با آتش است؛ نهتنها به دلیل رفتار فریبنده مدلها، بلکه به دلیل اینکه هوش مصنوعی به زودی ممکن است ساخت سلاحهای زیستی بسیار خطرناک یا دیگر خطرات فاجعهبار را ممکن سازد.
LawZero قصد دارد سیستمهای هوش مصنوعی بسازد که نهتنها به کاربران پاسخ دهند، بلکه به طور شفاف دلیل بیاورند و خروجیهای زیانبار را پرچمگذاری کنند. بنجیو مدلهای نظارتی را تصور میکند که سیستمهای موجود را رصد کرده، بهبود دهند و از رفتارهای فریبنده یا آسیبرسان جلوگیری کنند. این رویکرد کاملاً در تضاد با مدلهای تجاری است که تعامل و سود را بر مسئولیتپذیری ترجیح میدهند.
بنجیو با کنارهگیری از نقش خود در Mila، تلاشهای خود را بر این مأموریت متمرکز کرده است. او باور دارد که آینده هوش مصنوعی به اولویتبندی محافظتهای اخلاقی به همان اندازه قدرت خام بستگی دارد. این بخشی از یک تلاش روبهرشد برای تغییر تعادل توسعه هوش مصنوعی از افراط رقابتی به سمت ایمنی همسو با انسان است. بنجیو میگوید: بدترین سناریو انقراض انسان است. اگر مدلهای هوش مصنوعی بسازیم که از ما باهوشتر باشند، اما با ما همسو نبوده و رقیب ما شوند، عملاً کارمان تمام است.
دیدگاهتان را بنویسید