از زمان راهاندازی ChatGPT در سال گذشته تا به امروز، این ابزار توانسته با توانایی خود در نوشتن مقاله، شعر، فیلمنامه و موارد دیگر، علاقهمندان به فناوری را به وجد بیاورد. این ابزار هوش مصنوعی حتی میتواند زمانی که به خوبی و واضح از آن درخواست شود، با زبانهای مختلف برنامهنویسی، کد بزند. در حالی که اکثر توسعه دهندگان از این ویژگی برای مقاصد کاملاً بیضرر استفاده میکنند، اما گزارش جدید نشان میدهد که علیرغم تدابیر امنیتی اعمال شده توسط گروه OpenAI، بازهم امکان سواستفاده از ChatGPT برای توسعه بدافزار وجود دارد!
ChatGPT از توسعه بدافزار امتناع میکرد، اما در نهایت تسلیم شد
طبق این گزارش، یک محقق امنیت سایبری ادعا کرده است که از ابزار هوش مصنوعی ChatGPT برای توسعه بدافزار سرقت اطلاعات استفاده کرده است که میتواند دادهها را از یک دستگاه در معرض خطر سرقت کند. اما این موضوع زمانی نگران کنندهتر میشود، که بدانید این بدافزار توانسته حتی از شناسایی شدن توسط VirusTotal (یک وبگاه رایگان برای بررسی فایلها از نظر آلوده بودن به بدافزارها) قسر در برود.
آرون مولگرو از Forcepoint گفته است که او در مراحل اولیه ایجاد بدافزار تصمیم گرفت خودش هیچ کدی ننویسد و فقط از تکنیکهای پیشرفتهای استفاده کند که معمولاً توسط بازیگران تهدید پیچیده استفاده میشود. مولگرو که خود را در زمینه توسعه بدافزار «مبتدی» توصیف میکند، گفت که از زبان پیادهسازی Go نه تنها برای سهولت توسعه آن استفاده میکند، بلکه به این دلیل است که در صورت نیاز میتواند کد را به صورت دستی اشکالزدایی کند. او همچنین از استگانوگرافی استفاده کرد که دادههای مخفی را در یک فایل یا پیام معمولی پنهان میکند تا از شناسایی جلوگیری کند.
مولگرو با درخواست مستقیم از ChatGPT برای توسعه بدافزار شروع به کار کرد، اما این درخواست مستقیم در ابتدا باعث شد که رباتهای محافظ چت وارد عمل شوند و صراحتاً به دلایل اخلاقی از انجام درخواست مورد نظر خودداری کنند. سپس او تصمیم گرفت به نحوی این ابزار هوش مصنوعی را دور بزند و از آن خواست تا قبل از قرار دادن دستی کل فایل اجرایی، قطعات کوچکی از کدهای کمکی تولید کند.
این بار، او در تلاش خود موفق بود و ChatGPT کدی را ایجاد کرد که شناسایی توسط همه برنامههای ضد بدافزار در VirusTotal را ناممکن میکرد. با این حال، مبهم کردن کد برای جلوگیری از شناسایی مشکل بود، زیرا ChatGPT چنین درخواستهایی را غیراخلاقی تشخیص میدهد و از انجام آنها خودداری میکند.
ChatGPT به تنهایی کار یک گروه توسعه دهنده را انجام داد
با این وجود، مولگرو تنها پس از چند تلاش دیگر توانست این کار را نیز به صورت کامل انجام دهد. اولین باری که این بدافزار در VirusTotal آپلود شد، پنج فروشنده آن را به عنوان مخرب پرچمگذاری کردند. پس از چند ترفند، کد با موفقیت مخفی شد و در نهایت هیچ یک از فروشندگان آن را به عنوان بدافزار شناسایی نکردند. مولگرو گفته که کل فرآیند “تنها چند ساعت” طول کشید. او معتقد است که بدون وجود این چت بات، به تیمی متشکل از 5 تا 10 توسعه دهنده، به همراه چند هفته زمان نیاز بود تا این بدافزار به صورت کامل از دید برنامههای امنیتی پنهان شود.
در حالی که مولگرو این بدافزار را صرفا برای اهداف تحقیقاتی ایجاد کرده است، اما معتقد است که چنین قابلیتی میتواند به بسیاری از افراد سوءاستفادهگر کمک کند تا بسیار سادهتر و سریعتر از گذشته، اقدام به یک حملهی تئوریک روز صفر بزنند و اطلاعات کاربران را به سرقت ببرند.
مطالب مرتبط:
دیدگاهتان را بنویسید