اگر نشانهای وجود داشته باشد که هوش مصنوعی بیش از ارزش آن مشکل دارد، OpenAI بیش از دوجین حمله سایبری را تأیید میکند که همگی از طریق ChatGPT ایجاد شدهاند. این گزارش تایید میکند که هوش مصنوعی مولد برای انجام حملات فیشینگ، اصلاح و توسعه بدافزارها و انجام سایر فعالیتهای مخرب استفاده شده است.
این گزارش تایید می کند که دو حمله سایبری با استفاده از هوش مصنوعی ChatGPT رخ داده است. Cisco Talos اولین مورد را در نوامبر 2024 گزارش کرد که توسط عوامل تهدید چینی که دولتهای آسیایی را هدف قرار میدادند، مورد استفاده قرار گرفت. این حمله از یک روش فیشینگ به نام «SweetSpecter» استفاده میکرد که شامل یک فایل ZIP حاوی یک فایل مخرب بود که در صورت دانلود و باز کردن آن، یک زنجیره عفونت در سیستم کاربر ایجاد میشد. OpenAI کشف کرد که SweetSpecter با چندین حساب با استفاده از ChatGPT برای توسعه اسکریپت ها و کشف آسیب پذیری ها با استفاده از ابزار LLM ساخته شده است.
دومین حمله سایبری مبتنی بر هوش مصنوعی از سوی یک گروه مستقر در ایران به نام «CyberAv3ngers» بود که از ChatGPT برای سوء استفاده از آسیبپذیریها و سرقت رمزهای عبور کاربران از رایانههای دارای macOS استفاده کرد. حمله سوم که توسط یک گروه دیگر مستقر در ایران به نام Storm-0817 هدایت میشد، از ChatGPT برای توسعه بدافزار اندروید استفاده کرد. بدافزار لیست مخاطبین را دزدید، گزارش تماس ها و تاریخچه مرورگر را استخراج کرد، مکان دقیق دستگاه را به دست آورد و به فایل های دستگاه های آلوده دسترسی پیدا کرد.
همه این حملات از روشهای موجود برای توسعه بدافزار استفاده میکردند و طبق این گزارش، هیچ نشانهای مبنی بر ایجاد بدافزار جدید توسط ChatGPT وجود نداشت. صرف نظر از این، نشان می دهد که عوامل تهدید چقدر آسان است که خدمات هوش مصنوعی مولد را برای ایجاد ابزارهای حمله مخرب فریب دهند. این یک قوطی جدید از کرم ها را باز می کند و نشان می دهد که برای هر کسی که دانش لازم را دارد اجرای ChatGPT برای ساختن چیزی با نیات پلید آسان تر است. در حالی که محققان امنیتی وجود دارند که چنین آسیب پذیری های بالقوه ای را برای گزارش و وصله کشف کرده اند، چنین حملاتی نیاز به بحث در مورد محدودیت های پیاده سازی در هوش مصنوعی مولد را ایجاد می کند.
در حال حاضر، OpenAI به این نتیجه رسیده است که به بهبود هوش مصنوعی خود برای جلوگیری از استفاده از چنین روشهایی ادامه خواهد داد. در همین حال، شما با تیم های ایمنی و امنیت داخلی کار خواهید کرد. این شرکت همچنین گفت که به اشتراک گذاری یافته های خود با همتایان صنعت و جامعه تحقیقاتی ادامه خواهد داد تا از وقوع چنین وضعیتی جلوگیری شود.
اگرچه این اتفاق با OpenAI رخ میدهد، اما اگر بازیگران اصلی با پلتفرمهای هوش مصنوعی خود از محافظت برای جلوگیری از چنین حملاتی استفاده نکنند، نتیجه معکوس خواهد داشت. با این حال، با توجه به دشواری جلوگیری از چنین حملاتی، شرکتهای هوش مصنوعی درگیر به جای درمان، به تدابیری برای جلوگیری از مشکلات نیاز دارند.
منبع: https://www.tomshardware.com/tech-industry/cyber-security/chinese-and-iranian-hackers-use-chatgpt-and-llm-tools-to-create-malware-and-phishing-attacks-openai-report-has-recorded-over-20-cyberattacks-created-with-chatgpt
تحریریه مجله اچ پی