نماد آخرین خبر
  1. جذاب ترین ها
  2. برگزیده
موبایل و بازی

استفاده هکرهای ایرانی از ChatGPT برای ساخت بدافزار تایید شد

منبع
شهر سخت افزار
بروزرسانی
استفاده هکرهای ایرانی از ChatGPT برای ساخت بدافزار تایید شد

شهر سخت افزار/ سازنده چت‌بات ChatGPT در گزارشی تأیید کرده گروه‌های هکری مستقر در ایران از هوش مصنوعی مولد برای انجام حملات فیشینگ و ساخت بدافزار استفاده کرده‌اند. یکی از این گروه‌ها با نام CyberAv3ngers، با استفاده از قابلیت‌های ChatGPT به کامپیوترهای مک نفوذ کرده و موفق به سرقت رمز عبور کاربران شده است.

این حمله که به‌عنوان یکی از نخستین حملات سایبری تقویت‌شده توسط هوش مصنوعی شناخته می‌شود، توجه بسیاری از کارشناسان امنیت سایبری را به خود جلب کرده و موجب نگرانی شده است.

استفاده هکرهای ایرانی و چینی از ChatGPT
علاوه بر CyberAv3ngers، گروه ایرانی دیگری با نام مستعار Storm-0817 نیز از هوش مصنوعی ChatGPT برای توسعه بدافزارهایی مخصوص سیستم‌عامل اندروید استفاده کرده است. این بدافزارها توانسته‌اند لیست مخاطبین کاربران، گزارش تماس‌ها و تاریخچه مرورگر آن‌ها را استخراج کرده و حتی مکان دقیق دستگاه‌های آلوده را به دست آورند. این بدافزارها همچنین به فایل‌های موجود در دستگاه‌های قربانیان دسترسی پیدا کرده‌اند و اطلاعات حساس آن‌ها را به سرقت برده‌اند.


اوپن ای آی می‌گوید STORM-0817 از مدل‌های هوش مصنوعی این شرکت درخواست کمک برای اشکال‌زدایی و کدنویسی در پیاده‌سازی بدافزار اندرویدی و زیرساخت کنترل آن را داشت. همزمان، گروه STORM-0817 از ChatGPT برای پشتیبانی در توسعه کد سمت سرور استفاده کرد که برای مدیریت ارتباطات دستگاه‌های آلوده به آن نیاز داشت.



در حالی که STORM-0817 کاربران را هدف قرار داده، اکانت‌های شناسایی شده CyberAv3ngers نشان می‌دهد این گروه به دستگاه‌های کنترل صنعتی علاقمند بوده است.

این حملات نشان‌دهنده استفاده از تکنیک‌های موجود برای توسعه بدافزار هستند و بر اساس گزارش‌ها، هیچ‌گونه بدافزار بدیع و منحصر‌به‌فردی توسط ChatGPT ایجاد نشده است. با این‌حال، این حملات نشان می‌دهد که تا چه اندازه ساده است که گروه‌های هکری با استفاده از هوش مصنوعی مولد، ابزارهای مخرب را ایجاد و توسعه دهند. این موضوع باعث نگرانی‌های گسترده‌ای در جامعه امنیت سایبری شده و نیاز به بحث‌های جدی در مورد محدودیت‌های احتمالی در استفاده از هوش مصنوعی مولد را ایجاد کرده است.

OpenAI در پاسخ به این نگرانی‌ها اعلام کرده که به تلاش‌های خود برای بهبود امنیت هوش مصنوعی ادامه خواهد داد و همکاری‌های گسترده‌ای با تیم‌های امنیت داخلی و سایر همکاران خود در صنعت و جامعه پژوهشی خواهد داشت تا از وقوع چنین حملاتی جلوگیری شود.

با توجه به اینکه این حملات توسط گروه‌های مستقر در ایران انجام شده است، این نگرانی مطرح می‌شود که ممکن است گروه‌های هکری بیشتری از هوش مصنوعی برای اهداف مخرب خود استفاده کنند. به همین دلیل، شرکت‌های توسعه‌دهنده هوش مصنوعی باید اقدامات پیشگیرانه‌ای برای جلوگیری از چنین سوءاستفاده‌هایی به کار بگیرند تا امنیت کاربران حفظ شود.


OpenAI همچنین اعلام کرده که گروه‌های چینی هم از ChatGPT برای توسعه بدافزار استفاده کرده‌اند.

در کانال آی‌تی و ™CanaleIT هم کلی عکس و ویدئوی دسته اول و جذاب داریم

اخبار بیشتر درباره

اخبار بیشتر درباره