به نظر میرسد، بلیک لمواین، مهندس واحد Responsible AI گوگل که علناً مدعی بود هوش مصنوعی محاورهای این شرکت (LaMDA) خودآگاه شده، اخراج شده است. در ماه ژوئن، گوگل پس از تماس با اعضای انجمن در مورد نگرانیهایش و استخدام وکیل برای نمایندگی LaMDA، لموین را به دلیل نقض قرارداد محرمانهاش به مرخصی اداری با حقوق فرستاد.
برایان گابریل، سخنگوی گوگل اخبار مربوط به اخراج بلیک لمواین را تایید میکند. این شرکت همچنین مدعی است که LaMDa ،11 بررسی مجزا را پشت سر گذاشته است. همچنین، در اوایل سال جاری یک مقاله تحقیقاتی منتشر کرده که که جزئیات کارهای مربوط به توسعه مسئولانه آن را شرح میدهد. گوگل معتقد است که ادعاهای بلیک لمواین را به طور گسترده بررسی کرده و بر اساس نتایج، آنها کاملاً بیاساس هستند.
این ادعای گوگل با نظر بسیاری از کارشناسان و متخصصان هوش مصنوعی که معتقدند ادعاهای بلیک با توجه به فناوری امروزی کموبیش غیرممکن است، مطابقت دارد. لمواین ادعا میکند که مکالمات او با چت ربات LaMDA او را به این باور رساند که این برنامه به چیزی فراتر از هوش مصنوعی تبدیلشده و افکار و احساسات خاص خود را دارد.
به نظر لمواین محققان گوگل باید قبل از اجرای آزمایشها روی LaMDA، از آن رضایت بگیرند. او برای آزمایش اینکه آیا هوش مصنوعی محتوای نفرتانگیز تولید میکند یا خیر، تعیینشده بود. لمواین تکههایی از آن مکالمات را در حساب مدیوم خود به عنوان مدرک منتشر کرد.
در همین رابطه، کانال یوتیوب Computerphile یک توضیح 9 دقیقهای قابلدسترس در مورد نحوه عملکرد LaMDA و چگونگی ایجاد پاسخهای آن ارائه میدهد.
بیانیه گوگل در پاسخ به ادعاهای بلیک
گوگل در بیانیهای به اتهامات لمواین مبنی بر اینکه این شرکت به درستی ادعاهای او را بررسی نکرده است، پاسخ میدهد:
همانطور که ما به خط مشی خود در حوزه هوش مصنوعی معتقدیم، توسعه هوش مصنوعی را بسیار جدی میگیریم و به نوآوری ادامه میدهیم. LaMDA از 11 بررسی مجزا عبور کرده است و ما در یک مقاله تحقیقاتی اوایل امسال جزئیات کار را منتشر کردیم که در راستای توسعه مسئولانه آن است.
اگر کارمندی مانند بلیک نگرانیهایی را در مورد کار به اشتراک بگذارد، ما آن را به طور کامل بررسی میکنیم. ما متوجه شدیم که ادعاهای بلیک مبنی بر این که LaMDA احساس دارد، کاملاً بیاساس است. ما برای روشن کردن قضیه ماهها روی این ادعا کار کردهایم.
این بخشی از فرهنگ باز ما است که کمک میکند همچنان به نوآوری ادامه دهیم. اما جای تأسف دارد که با وجود همکاری طولانی مدت، بلیک سیاستهای حفظ امنیت اطلاعات را زیر پا گذاشته است. ما همچنان به توسعه مدلهای زبانی ادامه میدهیم و برای بلیک آرزوی موفقیت میکنیم.
خودآگاهی / روح ؟؟؟!!! برای یه محصول مادی؟ تو روانشناسی به این میگیم هذیان :دی
اصلا بلد هستی یه خط کد بنویسی ؟ کد هیچی یه اسکریپت ساده هم بلد نیست بنویسی بعد فاز روشن فکری برداشتی 🤣🤣🤣 هذیان
نه والا تو خوبی
اصلا چی میشه که گوگل تصمیم میگیره هوش مصنوعی بسازه ؟ یکی نیست بهش بگه تو گمشو برو همون سیستم عاملتو توسعه بده یا بچسب به همون فروش اطلاعات کاربر هات پولشم خیلی بهتره تو کاری هم که بهت ربط نداره دخالت نکن
دقیقا یکی نیست بگه تو … برو همون کامنتتو بذار پولشم خیلی بهتره تو کاری هم که بهت ربط نداره دخالت نکن 🤣
فشارتو بده بیرون
اینقدر فشار تو خودت نگه میداری واست مضره😂
چه خود آگاهی!
شما الان ببینید که شرکت گوگل با اینکارش از طریق یه کارمند و شکایت سوری، به دنیا میگه که ساختیم این هوش مصنوعی رو.
چه راهی بهتر از این کار! که یه کارمند به دنیا اطلاع رسانی کنه.
هیچ وقت هوش مصنوعی به دقت هوش انسان ساخته نخواهد شد، مگر اینکه بیان انسان رو بزارن توی پردازنده!
به قول شاه تئودن:
So It Begins
صد در صد حق با برایان بوده.
نمیشه با این قطعیت نظر داد، ما که از واقعیت و اینکه آیا گوگل در این زمینه داره پنهان کاری میکنه، اطلاعی نداریم
وقتی هوش مصنوعی دنیا رو صاحب شد و ترمیناتور ساخت فرستاد به جنگمون اونوقت واسه “نظر قطعی” دادن دیگه خیلی دیره.