سام آلتمن، مدیرعامل OpenAI اعلام کرد که این شرکت با موسسه ایمنی هوش مصنوعی ایالات متحده، یک نهاد دولتی فدرال که هدف آن ارزیابی و رسیدگی به خطرات در پلتفرمهای هوش مصنوعی است، بر روی توافقنامهای برای ارائه دسترسی زودهنگام به مدل اصلی بعدی هوش مصنوعی مولد خود برای آزمایش ایمنی کار میکند.
اعلامیهای که آلتمن در پستی در اواخر عصر پنجشنبه در X منتشر کرد، جزییاتی در مورد این توافقنامه را به اشتراک میگذارد. به نظر میرسد که این توافق به همراه قرارداد مشابهی با موضوع ایمنی هوش مصنوعی بریتانیا که در ماه ژوئن منعقد شد، برای مقابله با این روایت است که OpenAI به دنبال فناوریهای هوش مصنوعی توانمندتر و قدرتمندتر، کار روی ایمنی را از اولویت خارج کرده است.
در ماه می، OpenAI بهطور موثر واحدی را منحل کرد که روی مشکل توسعه کنترلها برای جلوگیری از سرکشی سیستمهای هوش مصنوعی «فوقهوشمند» کار میکرد. گزارشها نشان میدهد که OpenAI تحقیقات ایمنی تیم را به نفع راهاندازی محصولات جدید کنار گذاشت که در نهایت منجر به استعفای دو رهبر تیم شد: «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوشمصنوعی آنتروپیک را رهبری میکند و «ایلیا سوتسکور» که شرکت هوشمصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است.
OpenAI در پاسخ به گروهی از منتقدان گفت که بندهای محدودکننده خود را که بهطور ضمنی از افشاگری جلوگیری میکند، حذف کرده و یک کمیسیون ایمنی ایجاد خواهد کرد و 20 درصد از محاسبات خود را به تحقیقات ایمنی اختصاص میدهد.
با این حال، این حرکات باعث آرامش همه ناظران نشد؛ بهویژه پس از اینکه OpenAI کمیسیون ایمنی را بهطور کامل با اعضای شرکت از جمله آلتمن پر کرده و اخیراً یک مدیر ارشد ایمنی هوش مصنوعی را به سازمان دیگری منتقل کرد.
پنج سناتورو یک دموکرات از هاوایی، در نامهای که اخیرا خطاب به آلتمن ارسال شد، سؤالاتی را در مورد سیاستهای OpenAI مطرح کردند. مدیر ارشد استراتژی OpenAI، جیسون کوون، اخیراً به این نامه پاسخ داد و نوشت که OpenAI به اجرای پروتکلهای ایمنی دقیق در هر مرحله از فرآیند پایبند است.
انگیزه اقدامات امنیتمحور اخیر OpenAI
زمان توافق OpenAI برای دسترسی زودهنگام ایالات متحده به مدل هوش مصنوعی بعدی OpenAI، با توجه به پیوستن این شرکت در اوایل این هفته به قانون آینده نوآوری (یک لایحه پیشنهادی سنا که به مؤسسه ایمنی بهعنوان یک نهاد اجرایی که استانداردها و دستورالعملها را تعیین میکند، مجوز میدهد) مشکوک به نظر میرسد. این حرکتها میتواند به عنوان تلاشی برای جذب نظارتی یا حداقل اعمال نفوذ OpenAI بر سیاستگذاری هوش مصنوعی در سطح فدرال تلقی شود.
گفتنی است که آلتمن جزو هیئت ایمنی و امنیت هوش مصنوعی وزارت امنیت داخلی ایالات متحده است که توصیههایی را برای توسعه و استقرار ایمن هوش مصنوعی در سراسر زیرساختهای حیاتی ایالات متحده ارائه میدهد. OpenAI هزینههای خود را برای لابی فدرال در سال جاری بهطرز چشمگیری افزایش داده است و در شش ماهه اول سال 2024 800000 دلار در مقابل 260000 دلار در کل سال 2023 هزینه کرده است.
مؤسسه ایمنی هوش مصنوعی ایالات متحده با کنسرسیومی از شرکتهایی که شامل آنتروپیک و سایر بازیگران بزرگ فناوری مانند گوگل، مایکروسافت، متا، اپل، آمازون و انویدیا هستند، مشورت میکند. این گروه صنعتی وظیفه دارد بر روی اقداماتی که در دستور اجرایی ماه اکتبر رئیس جمهور ایالات متحده در زمینه هوش مصنوعی ارائهشده، کار کند. برخی از این اقدامات عبارتند از: توسعه دستورالعملهایی برای تیم قرمز هوش مصنوعی، ارزیابی قابلیتها، مدیریت ریسک، ایمنی و امنیت و واترمارککردن محتوای مصنوعی.
دیدگاهتان را بنویسید