سرخط خبرها

اولین حمله سایبری واقعی با هوش مصنوعی: گوگل از کشف حفره امنیتی روز صفر خبر داد که هکرها خودشان آن را پیدا کرده‌اند

برای نخستین بار در تاریخ امنیت سایبری، گوگل تأیید کرد که مجرمان حرفه‌ای با استفاده از مدل‌های هوش مصنوعی، موفق به شناسایی و بهره‌برداری از یک آسیب‌پذیری «روز صفر» در دنیای واقعی شده‌اند؛ حفره‌ای که نه با اسکنرهای سنتی، بلکه با درک «نیت برنامه‌نویس» توسط ماشین کشف شد و پیش از آنکه مدافعان متوجه شوند، یک کارزار گسترده برای دور زدن احراز هویت دو مرحله‌ای در جریان بود.

اولین حمله سایبری واقعی با هوش مصنوعی: گوگل از کشف حفره امنیتی روز صفر خبر داد که هکرها خودشان آن را پیدا کرده‌اند
صفحه اقتصاد -

گوگل اعلام کرد که مجرمان سایبری با استفاده از مدل‌های هوش مصنوعی موفق به شناسایی و بهره‌برداری از یک آسیب‌پذیری «روز صفر» (Zero-day) در یک ابزار مدیریت وب متن‌باز شده‌اند.

این اولین‌بار است که گوگل به طور رسمی تایید می‌کند مهاجمان از هوش مصنوعی برای توسعه حملات پیچیده در دنیای واقعی استفاده کرده‌اند. این نقص امنیتی به هکرها اجازه می‌داد تا احراز هویت دو مرحله‌ای را دور بزنند و پیش از دخالت گوگل، در حال آماده‌سازی یک کارزار گسترده برای سوءاستفاده بودند.

طبق گزارش گوگل، مهاجمان ناشناس از هوش مصنوعی برای شناسایی یک نقص منطقی استفاده کردند که در آن نرم‌افزار به شرایطی اعتماد می‌کرد که حفاظ‌های امنیتی را دور می‌زد. برخلاف اسکنرهای سنتی که به دنبال کدهای شکسته می‌گردند، هوش مصنوعی با تحلیل نیت توسعه‌دهنده و منطق برنامه، موفق به شناسایی تناقضاتی شد که از نظر امنیتی فاجعه‌بار بودند.

گوگل هشدار داده است که با پیشرفت قابلیت‌های کدنویسی مدل‌های هوش مصنوعی، این ابزارها به «ضریب قدرت» برای مهاجمان در جهت مهندسی معکوس برنامه‌ها و ایجاد اکسپلویت‌های پیچیده تبدیل شده‌اند.

تهدیدات منطقه‌ای و روش‌های نوین هکری

گوگل در گزارش خود به نقش بازیگران دولتی نیز اشاره کرده است. گروه‌های تهدید وابسته به چین و کره شمالی از هوش مصنوعی برای یافتن نقاط ضعف نرم‌افزاری استفاده می‌کنند، در حالی که گروه‌های روسی از این فناوری برای مخفی‌سازی بدافزارها و ایجاد شبکه‌های فریب بهره می‌برند.

این گزارش تاکید می‌کند که مدل‌های زبانی بزرگ (LLM) با وجود دشواری در درک منطق‌های پیچیده سازمانی، در استدلال‌های متنی و تطبیق استثناهای کدنویسی با قوانین امنیتی بسیار توانمند شده‌اند.

دیدگاه‌های متفاوت در مورد قدرت تخریب هوش مصنوعی

با وجود هشدارهای جدی گوگل، برخی پژوهشگران معتقدند که ترس از حملات سایبری مبتنی بر هوش مصنوعی تا حدی اغراق‌آمیز است. مطالعه‌ای از دانشگاه کمبریج بر روی فروم‌های جرایم سایبری نشان می‌دهد که اکثر مجرمان در حال حاضر از هوش مصنوعی بیشتر برای فیشینگ و تولید هرزنامه استفاده می‌کنند تا نگارش کدهای مخرب پیچیده.

با این حال، یافته‌های گوگل نشان‌دهنده تغییر فصل در امنیت سایبری و ورود به دورانی است که در آن سرعت شناسایی باگ‌ها توسط هوش مصنوعی، ممکن است از توان پاسخگویی مدافعان پیشی بگیرد.

پیشنهاد سردبیر

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

ما را در شبکه های اجتماعی دنبال کنید :

نظر شما

اخبار ویژه

آخرین اخبار