متا روز چهارشنبه از ایجاد یک شورای مشورتی هوش مصنوعی متشکل از مردان سفیدپوست خبر داد. از آنجاییکه زنان و رنگینپوستان دهههاست باوجود واجدشرایطبودن و ایفای نقش کلیدی در تکامل این فضا، نادیده گرفته شده و از دنیای هوش مصنوعی طرد شدهاند، چیز بیشتری هم انتظار نمیرفت.
هیئت مشورتی جدید با هیئت مدیره واقعی متا و هیئت نظارت آن از نظر جنسیت و نمایندگی نژادی متفاوت است. سهامداران این هیئت مدیره هوش مصنوعی را انتخاب نکردند. متا به بلومبرگ گفت که این هیئت بینشها و توصیههایی درمورد پیشرفتهای تکنولوژیکی، نوآوری و فرصتهای رشد استراتژیک ارائه خواهد کرد.
به نظر میرسد که شورای مشورتی هوش مصنوعی کاملاً متشکل از تجار و کارآفرینان است، نه اخلاقمداران یا افراد دارای پیشینه علمی یا تحقیقاتی. میتوان استدلال کرد مدیران فعلی و سابق Stripe، Shopify و مایکروسافت برای نظارتبر نقشه راه محصولات هوش مصنوعی متا با توجه به تعداد بسیار زیاد محصولاتی که روانه بازار کردهاند، موقعیت خوبی دارند، اما بارها و بارها ثابت شده که حوزه هوش مصنوعی اینگونه نیست. مانند سایر محصولات این یک تجارت پرخطر است و عواقب اشتباهگرفتن آن میتواند بسیار گسترده باشد، بهویژه برای گروههای بهحاشیهراندهشده.
خطاهای در دنیای هوش مصنوعی بهطور مساوی توزیع نمیشوند
سارا مایرز وست، مدیرعامل موسسه AI Now که پیامدهای اجتماعی هوش مصنوعی را مطالعه میکند، در مصاحبهای گفت که بررسی منتقدانه موسسات تولیدکننده هوش مصنوعی برای اطمینان از نیازهای عمومی بسیار مهم است. او اضافه کرد که این فناوری مستعد خطا بوده و ما از طریق تحقیقات مستقل به این نتیجه رسیدهایم که خطاها بهطور مساوی توزیع نمیشوند و بهطور نامتناسبی به جوامعی آسیب میرسانند که مدتهاست بیشترین تبعیض را تحمل کردهاند.
زنان به مراتب بیشتر از مردان جنبه تاریک هوش مصنوعی را تجربه میکنند. Sensity AI در سال 2019 متوجه شد که 96 درصد از ویدیوهای جعلی هوش مصنوعی آنلاین ویدیوهای غیرتوافقی و جنسی هستند. هوش مصنوعی مولد از آن زمان به مراتب رایجتر شده و زنان همچنان هدف این رفتار خشونتآمیز هستند.
در یکی از رویدادهای پرمخاطب از ژانویه، دیپفیکهای مستهجن تیلور سوئیفت در شبکه X منتشر شد و صدها هزار لایک و 45 میلیون بازدید دریافت کرد. دیپفیک یک تکنیک نرمافزاری مبتنیبر هوش مصنوعی است که با دستکاری محتوای صوتی و تصویری آن را طوری که میخواهد، تغییر میدهد. بنابراین نتیجهای که بهدست میآید، چیزی کاملا متفاوت از حقیقت خواهد بود.
پلتفرمهای اجتماعی مانند X از لحاظ تاریخی در محافظت از زنان دربرابر این شرایط شکست خوردهاند. اما از آنجاییکه تیلور سویفت یکی از مشهورترین زنان جهان است، X با ممنوعکردن جستجوی عباراتی مانند «taylor swift ai» و «taylor swift deepfake» مداخله کرد.
حالا اگر این اتفاق برای شما بیفتد و آنقدر مشهور نباشید، مشخص نیست که شانس بیاورید. گزارشهای متعددی از دانشآموزان دبیرستانی وجود دارد که از همکلاسیهای خود دیپفیک میکنند. در حالی که این فناوری قبلاً هم وجود داشته، دسترسی به آن هرگز تا این حد آسان نبوده است.
با این تفاسیر، ضروری است که صدای زنان و رنگینپوستان نیز در نوآوری محصولات هوش مصنوعی گنجانده شود. برای مدت طولانی، این گروهها از توسعه فناوریها و تحقیقات تغییردهنده جهان کنار گذاشته شدهاند و بارها شاهد نتایج فاجعهبار این تصمیم بودهایم.
به عنوان مثال، تا دهه 1970، زنان از آزمایشهای بالینی کنار گذاشته میشدند؛ به این معنی که تمام زمینههای تحقیقاتی بدون درک چگونگی تأثیر آن بر زنان توسعه مییافت. براساس مطالعهای که در سال 2019 انجام شد، سیاهپوستان نیز از این قاعده مستثنی نیستند. برای مثال، اتومبیلهای خودران بیشتر از بقیه به آنها ضربه میزنند زیرا سنسورهای این خودروها ممکن است بهسختی رنگ پوست تیرهتر را تشخیص دهد.
الگوریتمهایی که برروی دادههای تبعیضآمیز آموزش داده شدهاند، فقط همان سوگیریهایی را که انسانها به آنها یاد دادهاند بازگو میکنند. بنابراین برخی از سیستمهای هوش مصنوعی تبعیض نژادی را در مواردی مثل استخدام و عدالت کیفری تقویت میکنند. سیستمهای تشخیص چهره نیز افراد سیاهپوست را بهعنوان همتای احتمالی مظنونان جنایی تشخیص میدهند.
در حال حاضر ساختارهای قدرت موجود در رابطه با طبقه، نژاد، جنسیت و اروپامحوری معمول را در مسیر توسعه هوش مصنوعی نیز میبینیم. به نظر میرسد رهبران به اندازه کافی به موارد اینچنینی توجه نمیکنند و حتی آنها آن را تقویت میکنند. سرمایهگذاران، بنیانگذاران و رهبران فناوری آنقدر روی حرکت به سمت جلو متمرکز هستند که فرصت ندارند به این موضوع فکر کنند که هوش مصنوعی مولد میتواند به مشکلات دامن بزند. طبق گزارشی از مک کینزی، هوش مصنوعی میتواند تقریباً نیمی از مشاغلی را که نیاز به مدرک چهار ساله ندارند را حذف کند.
حالا موضوع نگرانکننده این است که چگونه تیمی از مردان سفیدپوست میتوانند درمورد محصولاتی تصمیم بگیرند که برای همه افراد مناسب باشند، در حالی که همه آنها نماینده یک گروه خاص هستند. بهنظر میرسد برای ساختن فناوری که همه بتوانند از آن استفاده کنند، تلاش بیشتری نیاز است. در واقع، لایههای موردنیاز برای ساخت هوش مصنوعی ایمن و فراگیر، از تحقیق گرفته تا درک در سطح اجتماعی متقاطع به قدری پیچیده هستند که تقریباً واضح است این هیئت مشورتی نمیتواند به متا کمکی بکند.
دیدگاهتان را بنویسید