ایلیا سوتسکیور، یکی از بنیانگذاران و دانشمند ارشد سابق OpenAI، شرکت هوش مصنوعی جدیدی با تمرکزبر ایمنی راهاندازی کرد. سوتسکیور در پستی در روز چهارشنبه، Safe Superintelligence Inc. (SSI) را معرفی کرد: استارتاپی با یک هدف و یک محصول، ایجاد سیستم هوش مصنوعی ایمن و قدرتمند.
شرکت هوش مصنوعی دانشمند سابق OpenAI
در این اطلاعیه، SSI به عنوان استارتآپی توصیف میشود که «به ایمنی و قابلیتها در کنار هم نزدیک میشود» و به شرکت اجازه میدهد تا بهسرعت سیستم هوش مصنوعی خود را ارتقا داده و در عین حال ایمنی را در اولویت قرار دهد. او رابطه با فشار خارجی که تیمهای هوش مصنوعی در شرکتهایی مانند OpenAI، گوگل و مایکروسافت اغلب با آن مواجه هستند، توضیح میدهد که «تمرکز منحصربهفرد» این شرکت به آن اجازه میدهد از «حواسپرتی ناشی از سربار مدیریت یا چرخههای محصول» جلوگیری کند.
در پست منتشرشده، سوتسکیور به بیان اهداف شرکت پرداخته و میگوید: مدل کسبوکار ما به این شکل است که ایمنی، امنیت و پیشرفت همگی از فشارهای تجاری کوتاهمدت مصون هستند. سوتسکیور به همراه دنیل لوی، محقق سابق OpenAI، و دنیل گروس، یکی از بنیانگذاران Cue و رهبر سابق هوش مصنوعی در اپل، Safe Superintelligence را تأسیس کردهاند.
سال گذشته، سوتسکیور تلاش برای برکناری مدیرعامل OpenAI سام آلتمن را رهبری کرد . او در ماه می OpenAI را ترک کرده و یک پروژه جدید را شروع کرد. اندکی پس از خروج سوتسکیور، یان لیک، محقق هوش مصنوعی، استعفای خود را از OpenAI اعلام کرد و اشاره کرد که فرآیندهای ایمنی بهخاطر محصولات پرزرقوبرق به خطر افتاده است. گرچن کروگر، محقق سیاست در OpenAI نیز هنگام اعلام خروج خود، به نگرانیهای ایمنی نیز اشاره کرد.
با توجه به اینکه OpenAI با مشارکت اپل و مایکروسافت پیش میرود، احتمالاً به این زودی شاهد فعالیت SSI نخواهیم بود. سوتسکیور در طی مصاحبهای با بلومبرگ میگوید اولین محصول SSI یک هوش فوقالعاده ایمن خواهد بود و شرکت تا آن زمان هیچ کار دیگری انجام نخواهد داد.
دیدگاهتان را بنویسید