روز چهارشنبه، OpenAI و شرکت Anduril اعلام کردند که همکاری جدیدی را آغاز کردهاند که به این شرکت فناوری دفاعی اجازه میدهد از سیستمهای پیشرفته هوش مصنوعی برای «ماموریتهای امنیت ملی» استفاده کند.
این همکاری بخشی از روند گستردهتر و بحثبرانگیزی است که در آن شرکتهای هوش مصنوعی نهتنها از ممنوعیت استفاده نظامی از محصولات خود عقبنشینی کردهاند، بلکه وارد همکاریهایی با غولهای صنعت دفاعی و وزارت دفاع ایالات متحده نیز شدهاند.
ماه گذشته، استارتآپ هوش مصنوعی Anthropic که از حمایت مالی آمازون برخوردار است و توسط مدیران پژوهشی سابق OpenAI تأسیس شده، به همراه شرکت پیمانکار دفاعی Palantir اعلام کردند که در همکاری با سرویسهای وب آمازون (AWS)، دسترسی سازمانهای اطلاعاتی و دفاعی ایالات متحده به مدلهای Claude 3 و 3.5 را فراهم خواهند کرد. این پاییز، Palantir قراردادی جدید به مدت پنج سال و تا سقف 100 میلیون دلار امضا کرد تا دسترسی نظامی ایالات متحده به برنامه جنگافزاری Maven AI گسترش یابد.
همکاری OpenAI و شرکت Anduril
در همکاری تازهای که چهارشنبه بین OpenAI و Anduril اعلام شد، تمرکز بر بهبود سیستمهای مقابله با هواپیماهای بدون سرنشین (CUAS) و توانایی آنها در شناسایی، ارزیابی و واکنش به تهدیدهای بالقوه خطرناک هوایی در زمان واقعی است. طبق بیانیهای که منتشر شده، این همکاری شامل بررسی این موضوع میشود که چگونه مدلهای پیشرفته هوش مصنوعی میتوانند دادههای حساس به زمان را به سرعت تحلیل کرده، بار کاری اپراتورهای انسانی را کاهش داده و آگاهی موقعیتی را بهبود بخشند.
شرکت Anduril که توسط پالمر لاکی، بنیانگذار Oculus VR تأسیس شده است، به سؤالی درباره اینکه آیا کاهش بار کاری اپراتورهای انسانی به معنای کاهش نقش انسان در تصمیمگیریهای حیاتی جنگی خواهد بود یا خیر، پاسخی نداد. لاکی در سال 2014 شرکت Oculus را به فیسبوک فروخت.
OpenAI اعلام کرد که همکاری آن با Anduril با هدف کمک به اپراتورهای انسانی برای تصمیمگیری در جهت حفاظت از پرسنل نظامی ایالات متحده در برابر حملات پهپادهای بدون سرنشین انجام میشود. این شرکت تأکید کرد که همچنان به سیاستهای مندرج در بیانیه مأموریت خود مبنی بر ممنوعیت استفاده از سیستمهای هوش مصنوعی خود برای آسیب رساندن به دیگران پایبند است.
این خبر در حالی منتشر شده که OpenAI، که از حمایت مالی مایکروسافت برخوردار است، در ماه ژانویه به صورت غیرعلنی ممنوعیت استفاده نظامی از ChatGPT و سایر ابزارهای هوش مصنوعی خود را لغو کرد. این تغییر درست زمانی صورت گرفت که این شرکت همکاری با وزارت دفاع ایالات متحده برای توسعه ابزارهای هوش مصنوعی، از جمله ابزارهای متنباز امنیت سایبری، را آغاز کرده بود.
تا اوایل ژانویه، صفحه سیاستهای OpenAI مشخص کرده بود که استفاده از مدلهای این شرکت برای «فعالیتهایی که خطر بالای آسیب فیزیکی دارند»، مانند توسعه سلاح یا کاربردهای نظامی و جنگی، ممنوع است. اما در اواسط ژانویه، OpenAI بهطور خاص اشاره به استفاده نظامی را حذف کرد، هرچند سیاست این شرکت همچنان تأکید دارد که کاربران نباید از خدمات آن برای آسیب رساندن به خود یا دیگران با توسعه یا استفاده از سلاحها استفاده کنند.
این خبر در ادامه چندین سال جنجال بر سر توسعه فناوریهای نظامی توسط شرکتهای فناوری منتشر شده است، که نگرانیهای عمومی کارکنان این شرکتها، بهویژه در حوزه هوش مصنوعی، را برجسته کرده است.
کارکنان تقریباً همه شرکتهای بزرگ فناوری که با قراردادهای نظامی درگیر هستند، نگرانی خود را ابراز کردهاند. هزاران کارمند گوگل علیه پروژه Maven، که پروژهای از وزارت دفاع آمریکا برای استفاده از هوش مصنوعی گوگل در تحلیل فیلمهای نظارتی پهپادها بود، اعتراض کردند.
کارکنان مایکروسافت نیز به قرارداد 480 میلیون دلاری این شرکت برای ارائه هدستهای واقعیت افزوده به سربازان اعتراض کردند. همچنین بیش از 1500 نفر از کارکنان آمازون و گوگل نامهای در اعتراض به قرارداد مشترک 1.2 میلیارد دلاری و چند ساله با دولت و ارتش اسرائیل امضا کردند. طبق این قرارداد، این غولهای فناوری خدمات رایانش ابری، ابزارهای هوش مصنوعی و مراکز داده را در اختیار اسرائیل قرار خواهند داد.
دیدگاهتان را بنویسید