اخیرا تیمی از محققان ساکن اروپا الگوریتمی توسعه دادهاند که به بررسی نوشیدنیهای مختلف میپردازد. این موضوع در نوع خود بسیار جالب است اما جالبتر از آن این است که موضوعی فراتر از این یافتهی محققان در ذهنشان شکل گرفته است و با چالشهای جدیدی رو به رو شوند. با توجه به اینکه رایانهها نمیتوانند طعم نوشیدنیها را بچشند و از یافتههای خود در آزمایشها استفاده کند، نتایج تحقیقاتشان توسط محققان دیگر استفاده خواهد شد و آنها به نتیجه گیری خواهند رسید. حال سوالی که مطرح میشود این است که آیا استفاده بدون ذکر منبع محتوای تولید شده توسط هوش مصنوعی، اخلاقی است؟
- اختراعات کامپیوترهای هوش مصنوعی ثبت نخواهد شد – تبعیض یا ظلم؟
- چرا اعطای اخلاق انسانی در هوش مصنوعی کار اشتباهی است؟
- ثبت اختراعات هوش مصنوعی انجام نخواهد شد – نظر شما چیست؟
- چه کسی زنده بودن هوش مصنوعی را تشخیص میدهد؟
محتوای تولید شده توسط هوش مصنوعی چیست؟
هوش مصنوعی ساملیا در پایگاه دادهای شامل صدها هزار نوع مختلف از نوشیدنی آموزش دیده است. در اصل، این هوش مصنوعی بررسیها را انجام میدهد و کلمات کلیدی را انتخاب میکند. به گفته محققان، خروجی آن با بررسیهایی که صرفاً توسط انسان ایجاد شده است، قابل مقایسه است و اغلب قابل تشخیص نیست. سوال بزرگ اینجاست: این یافتهها برای چه کسی است؟
تیم تحقیقاتی میگوید این نتایج مناسب افرادی است که نمیتوانند از عهده پرداخت مبلغ به داوران (تست کنندهای) حرفهای برآیند، الهامبخشی برای شروع یک بررسی مناسب ندارند، یا فقط میخواهند خلاصهای از آنچه قبلاً درباره یک نوشیدنی گفته شده است داشته باشند. بهجای جایگزینی انسان، ماشینها ابردادهها را به عنوان ورودی میگیرند و یک مرور قابل خواندن توسط انسان به عنوان اولین پیشنویس ایجاد میکنند و در نتیجه به یک بازبین متخصص در نوشتن بررسی خود کمک میکنند. ما بعداً فناوری ماشیننویسی خود را اصلاح کرده و به کار میبریم تا نشان دهیم چگونه میتوان از ماشینها برای نوشتن ترکیبی از مجموعهای از بررسیهای محصول استفاده کرد.
به نظر میرسد که این هوش مصنوعی بهعنوان یک طرح بازاریابی، فوقالعاده مفید است، اما، باز هم، تصور اینکه افرادی وجود دارند که برای امتحان یک نوشیدنی معطل نتایج هستند و تا زمانی که نتوانند نظر یک هوش مصنوعی در مورد آن را بخوانند، نمیتوانند تحقیقات خود را پیش ببرند، سخت است. آیا افرادی که از استفاده از این هوش مصنوعی سود میبرند با افرادی که محتوای تولید شده توسط آن را استفاده میکنند تشخیص داده خواهند شد؟
وقتی صحبت از سلیقه فردی یک بازبین انسانی به میان میآید، میتوانیم به مجموعه کارهای آنها نگاه کنیم و ببینیم که آیا تمایل داریم با احساسات آنها موافق باشیم یا خیر. با استفاده از یک هوش مصنوعی، ما فقط هر چیزی را که اپراتور آن انتخاب میکند، می بینیم. این در مورد هر طرح تولید محتوا نیز صدق میکند. معروفترین هوش مصنوعی برای تولید محتوا، GPT-3 OpenAI است. این هوش مصنوعی یکی از پیشرفتهترین شبکههای هوش مصنوعی موجود در نظر گرفته میشود و اغلب به عنوان پیشرفتهترین هوش مصنوعی برای تولید متن ذکر میشود. با این حال، حتی GPT-3 در مورد تعدیل و تنظیم خروجی به یک اپراتور نیاز دارد.
در این مرحله، آیا هر یک از ما میتواند مطمئن باشد که مردم از هوش مصنوعی برای جمعآوری اخبار فوری و تولید محتوای بازنویسیشده قبل از ارائه آنها در زیر خط انسانی استفاده نمیکنند؟ آیا ممکن است برخی از سریالهای تلویزیونی این فصل که بیش از حد مورد استفاده قرار گرفتهاند و بازخوانیهای داستانی هالیوود نتیجه استفاده اتاق نویسنده از یک جمعآوری فیلمنامه مبتنی بر هوش مصنوعی باشد تا هر آنچه را که بازار میخواهد بیرون بیاورد؟
پاسخ خیر است. و مسلماً این مشکلی بزرگتر از سرقت ادبی است.
حداقل زمانی که انسانها از یکدیگر سرقت ادبی میکنند، یک سند و مرجع برای بررسی وجود دارد. اما زمانی که یک انسان کار یک روبات را به عنوان کار خود به حساب میآورد، ممکن است هیچ راهی وجود نداشته باشد که بتوان واقعا آن را ثابت کرد. این امر استفاده از محتوای تولید شده توسط هوش مصنوعی را ذاتاً غیراخلاقی نمیکند. اما آن را تایید هم نمیکند. در مقابل چنین استفاده بالقوه غیراخلاقی، ما به اندازه یک استاد کالج که جستجوی وب برای متن مقالاتی که در حال نمره دهی هستند انجام نمیدهد، فریب خواهیم خورد.
آیا یک سوملیای هوش مصنوعی میتواند نیروی خوبی باشد؟ قطعا همینطور است. تصور اینکه یک وبسایت بهعنوان چیزی شبیه به Rotten Tomatoes برای نوشیدنی داشته باشیم، کار سختی نیست. تا زمانی که مالکان به وضوح میدانستند که هوش مصنوعی ورودیهای انسانی و خروجیهای رایجترین موضوعات را میگیرد، خطر فریب وجود خواهد داشت. برای برطرف کردن این مشکل، محققان بیان میکنند که پادزهر استفاده پنهان از هوش مصنوعی شفافیت است. اما این فقط یک سوال دیگر را ایجاد میکند: چه کسی تصمیم میگیرد که چقدر شفافیت در توضیح خروجیهای هوش مصنوعی لازم است؟
بدون دانستن اینکه یک هوش مصنوعی چه تعداد نقد منفی یا چقدر حرفهای نامفهوم ایجاد کرده است، قبل از اینکه بتواند چیزی مفید را ارائه دهد، قابل اعتماد است؟ اگر میدانستید که قبل از آن دهها مورد منفی که افراد مسئول به شما نشان ندادهاند، در مورد یک بررسی مثبت هوش مصنوعی نیز همین احساس را خواهید داشت؟ واضح است که وقتی صحبت از استفاده اخلاقی از محتوای تولید شده توسط هوش مصنوعی میشود، سؤالات بسیار بیشتر از پاسخ ها وجود دارد. پس باید وقت بیشتری به محققان این حوزه داد تا ببینیم چگونه پیش میرود!
نظر شما چیست؟
توی ایران زیرش مینویسن کوروش کبیر مسئله حل میشه