طبق گزارشی از NPR، شرکت متا قصد دارد فرآیند ارزیابی ریسک محصولات خود را از بازبینان انسانی به سیستمهای هوش مصنوعی منتقل کند تا این فرآیند سریعتر انجام شود. اسناد داخلی که توسط این رسانه مشاهده شده، نشان میدهد که متا در نظر دارد تا 90 درصد از ارزیابیهای خطر را به هوش مصنوعی واگذار کند.
سالها، وقتی متا ویژگیهای جدیدی را برای اینستاگرام، واتساپ و فیسبوک راهاندازی میکرد، تیمهایی از بازرسان خطرات احتمالی را ارزیابی میکردند: آیا این امر میتواند حریم خصوصی کاربران را نقض کند؟ آیا میتواند به افراد زیر سن قانونی آسیب برساند؟ آیا میتواند انتشار محتوای گمراهکننده یا سمی را بدتر کند؟
تا همین اواخر، آنچه در متا به عنوان بررسیهای حریم خصوصی و یکپارچگی شناخته میشود، تقریباً بهطور کامل توسط ارزیابان انسانی انجام میشد. اما اکنون، طبق اسناد داخلی شرکت که توسط NPR به دست آمده است، به زودی ارزیابیهای ریسک خودکار خواهند شد.
ارزیابی ریسک محصولات متا توسط هوش مصنوعی
در عمل، این بدان معناست که مواردی مانند بهروزرسانیهای حیاتی الگوریتمهای متا، ویژگیهای ایمنی جدید و تغییرات در نحوهی اشتراکگذاری محتوا در پلتفرمهای شرکت، عمدتاً توسط سیستمی که توسط هوش مصنوعی پشتیبانی میشود، تأیید خواهند شد. این موارد دیگر تحت بررسی دقیق کارکنانی که وظیفه بحث درمورد چگونگی پیامدهای پیشبینینشده یا سوءاستفاده از یک تغییر پلتفرم را بر عهده دارند، قرار نخواهند گرفت.
این تغییر به عنوان یک برد برای توسعهدهندگان محصول در نظر گرفته میشود که اکنون میتوانند بهروزرسانیها و ویژگیهای برنامهها را سریعتر منتشر کنند. متا حتی استفاده از هوش مصنوعی در حوزههایی مانند ارزیابی خطرات مربوط به جوانان که شامل محتوای خشونتآمیز، اطلاعات نادرست و موارد دیگر است، بررسی میکند. کارکنان فعلی و سابق متا که با NPR صحبت کردهاند، هشدار دادهاند که هوش مصنوعی ممکن است خطراتی جدی را که یک تیم انسانی قادر به شناسایی آن است، نادیده بگیرد.

بهروزرسانیها و قابلیتهای جدید در پلتفرمهای متا، از جمله اینستاگرام و واتساپ، معمولاً پیش از ارائه به عموم تحت نظارت انسان بررسی میشدند. اما گزارش شده که متا در دو ماه گذشته تمرکز خود را بر استفاده از هوش مصنوعی دوچندان کرده است.
اکنون، براساس گزارش NPR، تیمهای تولیدی باید یک پرسشنامه درباره محصول خود پر کنند و آن را برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم معمولاً یک «تصمیم فوری» ارائه میدهد که شامل حوزههای خطر شناسایی شده است. سپس تیمها باید الزامات تعیینشده را برطرف کنند تا مشکلات شناسایی شده پیش از عرضه محصول حل شود.
در سیستم قبلی، این امکان وجود نداشت که بهروزرسانیهای محصول و ویژگیها برای میلیاردها کاربر ارسال شوند تا زمانی که آنها تأیید ارزیابان ریسک را دریافت میکردند. اکنون، مهندسانی که محصولات متا را میسازند، این قدرت را دارند که قضاوتهای خود را در مورد خطرات انجام دهند.
در برخی موارد، از جمله پروژههایی که شامل ریسکهای جدید هستند یا جایی که تیم محصول بازخورد بیشتری میخواهد، پروژهها توسط انسانها به صورت دستی بررسی خواهند شد، اما این بررسی به طور پیشفرض مانند گذشته نخواهد بود. اکنون، تیمهای سازنده محصولات این تصمیم را خواهند گرفت.
یکی از مدیران سابق متا به NPR گفته است که که کاهش نظارت انسانی و ارزیابی خطرات احتمالی محصولات توسط هوش مصنوعی به این معنی است که شما ریسک های بالاتری ایجاد میکنید. احتمال کمتری وجود دارد که از اثرات جانبی منفی تغییرات محصول قبل از اینکه شروع به ایجاد مشکل در جهان کنند، جلوگیری شود.
متا در بیانیهای اعلام کرد که میلیاردها دلار برای حمایت از حریم خصوصی کاربران سرمایهگذاری کرده است. از سال 2012، پس از توافق کمیسیون تجارت فدرال با شرکت در مورد نحوه مدیریت اطلاعات شخصی کاربران، این شرکت تحت نظارت این کمیسیون بوده است . در نتیجه، به گفته کارمندان فعلی و سابق متا، بررسی حریم خصوصی محصولات الزامی شده است. متا در بیانیهای به NPR اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی «مسائل جدید و پیچیده» استفاده خواهد کرد و تصمیمات کمریسک را به هوش مصنوعی واگذار خواهد کرد.
این خبر چند روز پس از انتشار آخرین گزارشهای یکپارچگی فصلی متا منتشر شده اس؛. اولین گزارشها پس از تغییر سیاستهای متا درباره نظارت بر محتوا و بررسی صحت اطلاعات در اوایل سال جاری. طبق این گزارش، میزان محتوایی که حذف شده کاهش یافته است، که با توجه به این تغییرات غیرمنتظره نیست. با این حال، مواردی از قبیل زورگویی و آزار و اذیت، همچنین محتوای خشونتآمیز و گرافیکی اندکی افزایش یافته است.
دیدگاهتان را بنویسید