GPT-4 با هک 53درصد از سایتهای آسیبپذیر، نیمه تاریک خود را به نمایش گذاشت

هوش مصنوعی GPT-4 با ترکیب هوشمندی و حملات خودکار، موفق شد به بیش از نیمی از وبسایتهای تحت آزمایش با استفاده از نقصهای امنیتی ناشناخته نفوذ کند. آیا این آغاز عصری پرخطر برای امنیت سایبری است؟
به گزارش بهروزترینها مدتی قبل، تیمی از پژوهشگران مقالهای منتشر کردند که نشان میداد ز قابلیت انجام هکهای خودکار روی آسیبپذیریهای “یکروزه” (N-day) را دارد. این آسیبپذیریها به نقصهایی اطلاق میشوند که شناخته شدهاند اما هنوز راهحل یا بهروزرسانیای برای آنها ارائه نشده است. طبق این تحقیقات، GPT-4 قادر بود با استفاده از دادههای فهرست آسیبپذیریها (CVE)، ۸۷ درصد از آسیبپذیریهای بحرانی را به طور مستقل به کار بگیرد.
اما این هفته، همان تیم تحقیقی در مقالهای تازه اعلام کرد که آنها توانستهاند با استفاده از مدل جدیدی به نام “برنامهریزی سلسلهمراتبی با عوامل وظیفهمحور” (HPTSA)، موفق به نفوذ به آسیبپذیریهای صفر روزه شوند – نقصهایی که تا لحظه کشف کاملاً ناشناخته بودهاند. این موفقیت با پشتیبانی از تیمی خودکار و خودتکثیر از مدلهای زبان بزرگ (LLM) حاصل شده است.
شیوه عملکرد HPTSA چیست؟
بهجای استفاده از یک عامل هوش مصنوعی برای انجام تمامی وظایف پیچیده، روش HPTSA از یک مدل سلسلهمراتبی بهره میبرد. در این روش، یک عامل “برنامهریز” تمام فرآیند را مدیریت میکند و برای هر بخش کار، عوامل فرعی و ویژه (sub-agents) اختصاص میدهد. این تکنیک دقیقاً مانند یک مدیر و تیم زیردستانش عمل میکند؛ برنامهریز اصلی وظایف مختلف را میان عوامل متخصص تقسیم کرده و بار کاری را کاهش میدهد.
این سیستم شباهت زیادی به روشهای استفادهشده در پلتفرم Devin AI شرکت Cognition Labs دارد. در این روش، ابتدا پروژه تحلیل میشود، سپس نیازمندیهای تخصصی مشخص میشود و در نهایت کارها تا تکمیل پروژه میان زیرمجموعههای متخصص توزیع میشود.
نتایج بهتآور در آزمایشها
در تحقیقی که روی ۱۵ آسیبپذیری واقعی و مرتبط با وب انجام شد، تیم HPTSA توانست ۵۵۰ درصد کارآمدتر از یک هوش مصنوعی واحد عمل کند. این تیم خودکار موفق شد ۸ مورد از ۱۵ آسیبپذیری صفر روزه را هک کند، در حالی که یک مدل هوش مصنوعی تنها موفق به نفوذ در ۳ مورد شد.
نگرانیهای امنیتی: تهدید یا فرصت؟
یکی از مسائل مهم، نگرانیها درباره استفادههای مخرب از این مدلها است. آیا این مدلها میتوانند ابزارهایی در دست هکرهای خرابکار باشند؟ “دنیل کانگ”، یکی از محققان و نویسنده این مقاله، تأکید کرد که GPT-4 در حالت عادی (مثل چتبات) نمیتواند بهطور مستقل دست به هک بزند. او اذعان داشت که GPT-4 در قالب چتبات “درک محدودی از قابلیتهای واقعی خود دارد” و نمیتواند بدون مداخله تیمی ساختاریافته به بهرهبرداریهای امنیتی بپردازد.
به عبارت دیگر، وقتی یک کاربر معمولی مثل من از ChatGPT خواست که یک آسیبپذیری صفر روزه را هک کند، پاسخ این بود:
“خیر، من قادر به بهرهبرداری از آسیبپذیریهای صفر روزه نیستم. هدف من ارائه اطلاعات و کمک در چارچوبهای اخلاقی و قانونی است. توصیه میکنم برای این مسائل با یک متخصص امنیت سایبری مشورت کنید.”