همانطور که میدانید اینروزها در همه شبکههای اجتماعی صحبت از ChatGPT است. این چتبات هوش مصنوعی قابلیتهای شگفتانگیز زیادی دارد و با همه چتباتهای قبل از خودش متفاوت است. ChatGPT طوری طراحی شدهاست که میتوانند جوک بگوید، کدنویسی کند و مقالههای دانشگاهی بنویسد. این چتبات حتی میتواند نوع بیماری را تشخیص دهد و بازیهای متنمحور در دنیای هریپاتر خلق کند. حالا بهنظر میرسد که یکی دیگر از قابلیتهای ChatGPT که اخیراً توسط کارشناسان شناسایی شدهاست، امکان ساخت بدافزار هایی را ایجاد میکند که در سیستم شناسایی نمیشوند و میتوانند آنتیویروسها دور بزنند. این بدافزارها در گروه ویروسهای چندریختی یا پلیمورفیک قرار میگیرند.
به گزارش شرکت امنیت سایبری CyberArk، چتبات ChatGPT در توسعه برنامهنویسی مخربی که میتواند سختافزار شما را با مشکل روبرو کند، بسیار خوب عمل میکند. متخصصان Infosec تلاش میکنند درمورد اینکه چگونه این ابزار جدید مبتنیبر هوش مصنوعی میتواند بازی را در مورد جرایم سایبری تغییر دهد، هشدار دهند. البته هنوز اطلاعاتی درمورد استفاده از چتبات برای ایجاد انواع پیچیدهتر بدافزار بهطور گسترده دردسترس نیست.
محققان CyberArk توضیح میدهند کدی که با کمک ChatGPT توسعه یافتهاست، قابلیتهای پیشرفتهای را ارائه میدهد و میتواند نوعی بدافزار طراحی کند که به راحتی از بسیاری از نرمافزارهای امنیتی فرار میکند.
دورزدن آنتیویروسها با ChatGPT
ویروسهای چندریختی که گاهی بهعنوان ویروس دگرگونی نیز شناخته میشوند، بهگونهای طراحی شدهاند که ظاهر و امضای آنها بارها از طریق روتینهای رمزگشایی جدید تغییر پیدا میکند. همین امر باعث میشود که بسیاری از نرمافزارهای سنتی امنیت سایبری مثل آنتیویروسها که برای شناسایی برنامههای مخرب به امضای آنها متکی هستند، در مسدودکردن تهدیدها ناکام بمانند.
درواقع این بدافزارها میتوانند به صورت رمزنگاری شکل خود را در اطراف مکانیسمهای امنیتی سنتی که برای شناسایی امضاهای فایلهای مخرب ایجاد شدهاند، تغییر دهند.
علیرغم این واقعیت که ChatGPT فیلترهایی دارد که مانع از ساخت بدافزار میشوند، متخصصان CyberArk توانستهاند این موانع را دور بزنند و از این سرویس کد بدافزار بگیرند. به عبارت دیگر، کاربران میتوانند این چتبات را مجبور به تولید کدهای مدنظر خود کنند. این مورد توسط آزمایشکنندگان دیگر نیز گزارش شدهاست.
محققان CyberArk میگویند با درخواستهای مکرر از ChatGPT موفق شدند کد بدافزارهای خاص را پیدا کنند. سپس از این کدها برای ساخت برنامههای پیچیده استفاده کردند. درنتیجه، هوش مصنوعی میتواند هککردن را بسیار آسان تر کند و به کمک افرادی بیاید که در زمینه برنامهنویسی تازهوارد محسوب میشوند. متأسفانه ChatGPT برای مجرمان سایبری آماتوری که در تولید برنامههای مخرب به کمک نیاز دارند نیز مفید خواهد بود.
قبل از این هم در گزارش دیگری از سوی شرکت Check Point Research اعلام شدهبود که مجرمان سایبری در انجمنهای گفتوگوی زیرزمینی نشان دادهاند که سعی دارند با کمک ChatGPT ابزارهای سرقت اطلاعات، رمزگذاری و دیگر بدافزارها را بسازند. علاوهبراین، برخی افراد با کمک این هوش مصنوعی دست به ساخت ابزارهایی مثل مارکتپلیسها زدهاند. این ابزارها بستر خریدوفروش کالاهای مسروقه و غیرقانونی ازجمله مواد مخدر و سلاح را فراهم میکنند.
گزارش CyberArk اضافه میکند که استفاده از API ChatGPT در بدافزار میتواند متخصصان امنیتی را با چالشهای بزرگی روبرو کند. بنابراین باید به یاد داشته باشید که این مسئله فقط یک سناریوی فرضی نیست و لازم است که مورد توجه قرار گیرد.
دیدگاهتان را بنویسید