OpenAI بهطور شفاف اعلام کرده است که سرویس هوش مصنوعی پیشرفته آن، ChatGPT، برای استفادههای مخرب طراحی نشده است و با کلاهبرداری به شدت مقابله میکند.
این شرکت گزارشی منتشر کرده که در آن جزئیات مربوط به کلاهبردارانی که از این پلتفرم سوءاستفاده میکنند، با افزایش محبوبیت آن مورد بررسی قرار گرفته است. OpenAI اعلام کرده است که دهها حساب کاربری را به ظن استفاده غیرمجاز از ChatGPT، ازجمله برای اشکالزدایی کدها یا تولید محتوا برای انتشار در پلتفرمهای مختلف توزیع، مسدود کرده است.
این شرکت اخیراً اعلام کرده که به نقطه عطف 400 میلیون کاربر فعال هفتگی رسیده است. در این گزارش آمده که تعداد کاربران این سرویس در کمتر از سه ماه بیش از 100 میلیون افزایش یافته است، چرا که شرکتها و توسعهدهندگان بیشتری از ابزارهای آن استفاده میکنند. با این حال، ChatGPT بهعنوان یک سرویس رایگان در سراسر جهان قابلدسترسی است. از آنجا که جنبههای اخلاقی و معنوی این ابزار مدتها مورد بحث بوده، OpenAI مجبور شده با این واقعیت کنار بیاید که برخی افراد و نهادها اهداف دیگری برای استفاده از این پلتفرم دارند.

سیاستهای OpenAI به شدت استفاده از خروجی ابزارهای خود از برای تقلب یا کلاهبرداری را ممنوع کرده است. این شرکت در گزارش خود اعلام کرده است: از طریق تحقیقات در مورد طرحهای اشتغال فریبکارانه، دهها حساب کاربری را شناسایی و مسدود کردیم.
مقابله با اقدامات مخرب
OpenAI در گزارش خود به چالشهایی که در مقابله با اقدامات مخرب و کلاهبرداری روی ChatGPT وجود دارد، اشاره کرده است. این شرکت چندین مطالعه موردی را برجسته کرده که در آنها حسابهای کاربری مورد سوءظن را شناسایی و مسدود کرده است.
در یکی از موارد، OpenAI به جزئیات حسابی پرداخته که مقالات خبری تحقیرآمیز درباره ایالات متحده نوشته و این مقالات در آمریکای لاتین با امضای یک نشریه چینی منتشر شده است.
در مورد دیگری که در کره شمالی ردیابی شده، حسابی برای تولید رزومهها و پروفایلهای شغلی برای متقاضیان شغلی جعلی استفاده شده است. به گفته OpenAI، این حساب ممکن است برای درخواست شغل در شرکتهای غربی به کار رفته باشد.
در مطالعهای دیگر، حسابهایی که احتمالاً در کامبوج ساخته شدهاند، شناسایی شدند که از ChatGPT برای ترجمه و تولید کامنت در شبکههای مرتبط با کلاهبرداران عاشقانه (Romance Scam) استفاده کردهاند. این افراد در چندین پلتفرم رسانه اجتماعی از جمله X، فیسبوک و اینستاگرام نفوذ کردهاند.
OpenAI تأیید کرده است که یافتههای خود را با شرکتهای همصنعت، مانند متا (Meta)، که ممکن است به طور ناخواسته تحت تأثیر این اقدامات قرار گرفته باشند، به اشتراک گذاشته است.
این اولین بار نیست که OpenAIتلاشهای خود برای مقابله با سوءاستفادهکنندگان از پلتفرم هوش مصنوعیاش را گزارش میدهد. در اکتبر 2024، این شرکت گزارشی منتشر کرد که در آن 20 حمله سایبری را که از جمله توسط هکرهای دولتی ایرانی و چینی طراحی شده بود، خنثی کرده بود.
کارشناسان امنیت سایبری نیز مدتها مشاهده کردهاند که سوءاستفادهکنندگان از ChatGPT برای اهداف مخرب استفاده میکنند، از جمله توسعه بدافزارها و کدهای مخرب دیگر. این یافتهها از اوایل سال 2023، زمانی که این ابزار تازه وارد بازار شده بود، منتشر شدند. در آن زمان، OpenAI در حال بررسی معرفی یک نسخه اشتراکی برای تأمین تقاضای بالای خود بود.
این اقدامات مخرب شامل استفاده از API شرکت برای ایجاد نسخههای جایگزین ChatGPT بود که میتوانستند بدافزار تولید کنند. با این حال، کارشناسان امنیت سایبری قانونی (White Hat) نیز از دیدگاه پژوهشی به مطالعه بدافزارهای تولیدشده توسط هوش مصنوعی پرداخته و راههای نفوذی را شناسایی کردهاند که به چتبات امکان میدهد کدهای مخرب را در قطعات کوچک و کمتر قابلتشخیص تولید کند.
در فوریه 2023، متخصصان فناوری اطلاعات و امنیت سایبری در مورد ایمنی ChatGPT مورد نظرسنجی قرار گرفتند. بسیاری از آنها اظهار داشتند که معتقدند این ابزار تا پایان سال میتواند مسئول یک حمله سایبری موفق باشد. تا مارچ 2023، این شرکت اولین رخنه دادههای خود را تجربه کرد، که به یک مشکل مکرر تبدیل شد.
دیدگاهتان را بنویسید