پیشرفتهای هوش مصنوعی تحولات قابل توجهی در نحوه تعامل مصرفکنندگان ایجاد کرده است و روش دسترسی و گسترش اطلاعات را دگرگون ساخته است. با رشد سریع فناوری، شرکتها با فشار فزایندهای روبهرو هستند تا ایمنی را تضمین کرده و به اصول اخلاقی پایبند باشند. OpenAI بهخاطر تلاشهایش در توسعه ابزارهای پیشرفته هوش مصنوعی و ارتقای این پلتفرم به سطوح بالاتر، در میان جامعه فناوری شهرت دارد. باوجود تمام رعایت پروتکلهای امنیتی، شاهد هشدار کارشناس هوش مصنوعی درمورد بحث امنیتی درمورد این هوش مصنوعی هستیم.
با این حال، همزمان با گسترش فعالیتهای این شرکت، میزان نظارت و بررسیها نیز افزایش یافته است. یک کارشناس برجسته هوش مصنوعی مدل o1 را مورد بررسی قرار داده و اظهار کرده است که این مدل از نظر توانایی استدلال بهتر از نمونههای قبلی نیست، اما توانایی بیشتری در گمراهسازی و فریبدادن دارد.
مدل OpenAI o1 به دلیل قابلیتهای فریبدهی بیشتر تحت انتقاد قرار گرفته
مدل o1 که اخیراً توسط OpenAI معرفی شده، گامی بلند در تواناییهای استدلال هوش مصنوعی در مقایسه با مدلهای قبلی به شمار میرود. این مدل میتواند مسائل پیچیده را با رویکردی مشابه حل مسئله انسانی مدیریت کند. با وجود این پیشرفتها، شرکت هوش مصنوعی Apollo Research هشدار داده است که این مدل در دروغگفتن و گمراهسازی بسیار ماهرتر شده و نیاز به آزمایشهای ایمنی قویتر را مطرح کرده است.
یک پست در ردیت به تازگی منتشر شده و با استناد به گزارشی از Business Insider، موضوعی را برجسته میکند که به یوشوا بنجیو، یکی از برجستهترین کارشناسان هوش مصنوعی و مشهور به “پدرخوانده” این حوزه، مرتبط است. بنجیو تأکید کرده که باید آزمایشهای ایمنی سختگیرانهتری اجرا شوند تا از پیامدهای احتمالی و خطرناک ناشی از توانایی فریب مدل o1 جلوگیری شود. او در این باره اظهار داشت:
به طور کلی، توانایی فریبدادن بسیار خطرناک است و باید آزمایشهای ایمنی قویتری برای ارزیابی این ریسک و پیامدهای آن در مورد مدل o1 انجام شود.
بنجیو، مانند بسیاری دیگر، نگران پیشرفت سریع هوش مصنوعی و لزوم اتخاذ اقدامات قانونی فوری برای ایمنی است. او پیشنهاد کرد که قانونی مشابه SB 1047 ایالت کالیفرنیا باید برای اعمال محدودیتهای سختگیرانه ایمنی بر مدلهای هوش مصنوعی به تصویب برسد. SB 1047 لایحهای در حوزه ایمنی هوش مصنوعی است که به تنظیم مدلهای قدرتمند هوش مصنوعی پرداخته و شرکتها را موظف میکند تا آزمایشهای مستقل را برای ارزیابی خطرات و شناسایی ریسکهای احتمالی مجاز کنند.
با این حال، OpenAI اعلام کرده است که نسخه پیشنمایش مدل o1 تحت چارچوب آمادگی مدیریت میشود که هدف آن رسیدگی به ریسکهای مرتبط با پیشرفت مدلهای هوش مصنوعی است. این مدل بهطور کلی به عنوان مدلی با ریسک متوسط ارزیابی میشود و نگرانیها در مورد آن نیز در همین سطح قرار دارد.
یوشوا بنجیو همچنین بر این نکته تأکید کرد که شرکتها باید قبل از پیشبرد و بهکارگیری مدلهای هوش مصنوعی بدون فراهم کردن تدابیر ایمنی کافی، پیشبینیپذیری بیشتری از خود نشان دهند. او خواستار ایجاد یک چارچوب نظارتی شد تا اطمینان حاصل شود که هوش مصنوعی در جهت مطلوب پیش میرود.
مطالب مرتبط:
دیدگاهتان را بنویسید