ابزار WormGPT، وجه تاریک هوش مصنوعی، ابزاری مخرب و جدید برای حملات سایبری پیچیده
اخبار داغ فناوری اطلاعات و امنیت شبکه
با توجه به اینکه هوش مصنوعی مولد یا GenAI اینروزها در حال گسترش و افزایش است، شاید تعجبآور نباشد که این فناوری توسط عاملان مخرب و به نفع آنها تغییر کاربری داده شده و راههایی را برای اجرای جرایم سایبری تسریع شده فراهم کند.
بر اساس یافتههای SlashNext، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام WormGPT در انجمنهای زیرزمینی بهعنوان راهی برای مهاجمان جهت راهاندازی حملات پیچیده فیشینگ و ایمیلهای تجاری (BEC) تبلیغ شده است.
دانیل کلی، محقق امنیتی گفت: "این ابزار خود را بهعنوان جایگزینی در ابعاد منفی برای مدلهای GPT معرفی میکند که به طور خاص برای فعالیتهای مخرب طراحی شده است. مجرمان سایبری میتوانند از چنین فناوری برای ایجاد خودکار ایمیلهای جعلی بسیار متقاعد کننده و شخصیسازی شده برای مخاطب ایمیل، استفاده کنند و در نتیجه شانس موفقیت حملات خود را افزایش دهند".
نویسنده این نرمافزار آن را بهعنوان "بزرگترین دشمن شناخته شده ChatGPT" توصیف کرده است، که "به شما امکان میدهد انواع کارهای غیرقانونی با بهرهگیری از آن انجام دهید".
بزارهایی مانند WormGPT وقتی در اختیار افراد خرابکار قرار بگیرند، میتوانند همچون سلاح قدرتمندی باشند، بهویژه که OpenAI ChatGPT و Google Bard به طور فزایندهای برای مبارزه با سواستفاده از مدلهای زبان بزرگ (LLM) برای ساخت ایمیلهای فیشینگ قانعکننده و تولید کدهای مخرب تلاش میکنند.
چک پوینت در گزارشی در این هفته گفت: "محدود کنندههای ضد سواستفاده Bard در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با ChatGPT کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیتهای Bard بسیار آسانتر است. "
در اوایل ماه فوریه، چکپوینت، شرکت امنیت سایبری اسرائیل فاش کرد که چگونه مجرمان سایبری با استفاده از API، محدودیتهای ChatGPT را کنار میزنند و در کنار تجارت حسابهای پریمیوم دزدیده شده و فروش نرمافزار brute-force برای هک کردن حسابهای ChatGPT با استفاده از فهرستهای عظیمی از آدرسهای ایمیل و رمز عبور، از آن بهره میبرند".
این واقعیت که WormGPT بدون هیچگونه مرز اخلاقی عمل میکند، بر تهدید ناشی از هوش مصنوعی مولد تاکید میکند، چرا که حتی به مجرمان سایبری تازهکار اجازه میدهد بدون داشتن امکانات فنی، حملات را بهسرعت و در مقیاس بزرگ انجام داده و پیش ببرند.
شرایط زمانی بدتر میشود که عوامل تهدید "جیلبریک" را برای ChatGPT ترویج میکنند، که دستورات و ورودیهای تخصصی مهندسی شدهاند که برای دستکاری ابزار جهت تولید خروجی طراحی شدهاند که میتواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد.
کلی گفت: "هوش مصنوعی مولد میتواند ایمیلهایی با دستور زبان و گرامر بیعیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال فلگشدن مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده BEC را تبدیل به یک روند معمول میکند. حتی مهاجمان با مهارتهای محدود نیز میتوانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیعتری از مجرمان سایبری تبدیل کند".
این افشاگری در حالی صورت میگیرد که محققین Mithril Security یک مدل هوش مصنوعی متن باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کردند و آن را در یک مخزن عمومی مانند Hugging Face آپلود کردند که میتواند در برنامههای کاربردی دیگر ادغام شود که تحت عنوان مسمومسازی زنجیره تامین LLM نامیده میشود.
موفقیت این تکنیک که PoisonGPT نامیده میشود، به این شرط است که مدل لوبوتومیشده با استفاده از نام یک شرکت شناختهشده را جعل کند؛ و در این موردخاص، یک نسخه شامل خطای تایپی با نام EleutherAI که شرکت سازنده GPT-J است، آپلود شود.
برچسب ها: GPT-J, PoisonGPT, Hugging Face, GPT-J-6B, Google Bard, WormGPT, Generative Artificial Intelligence, هوش مصنوعی مولد, GenAI, OpenAI ChatGPT, GPT, Bard, Large Language Model, ChatGPT, Artificial Intelligence, BEC, هوش مصنوعی, phishing, تهدیدات سایبری, Cyber Security, جاسوسی سایبری, فیشینگ, امنیت سایبری, جنگ سایبری, Cyber Attacks, مجرمان سایبری, حمله سایبری, news