اخبار برگزیدهفین تک و فناوری

GPT-4 با هک 53درصد از سایت‌های آسیب‌پذیر، نیمه تاریک خود را به نمایش گذاشت

هوش مصنوعی GPT-4 با ترکیب هوشمندی و حملات خودکار، موفق شد به بیش از نیمی از وب‌سایت‌های تحت آزمایش با استفاده از نقص‌های امنیتی ناشناخته نفوذ کند. آیا این آغاز عصری پرخطر برای امنیت سایبری است؟

به گزارش به‌روزترین‌ها مدتی قبل، تیمی از پژوهشگران مقاله‌ای منتشر کردند که نشان می‌داد ز قابلیت انجام هک‌های خودکار روی آسیب‌پذیری‌های “یک‌روزه” (N-day) را دارد. این آسیب‌پذیری‌ها به نقص‌هایی اطلاق می‌شوند که شناخته شده‌اند اما هنوز راه‌حل یا به‌روزرسانی‌ای برای آن‌ها ارائه نشده است. طبق این تحقیقات، GPT-4 قادر بود با استفاده از داده‌های فهرست آسیب‌پذیری‌ها (CVE)، ۸۷ درصد از آسیب‌پذیری‌های بحرانی را به طور مستقل به کار بگیرد.

اما این هفته، همان تیم تحقیقی در مقاله‌ای تازه اعلام کرد که آن‌ها توانسته‌اند با استفاده از مدل جدیدی به نام “برنامه‌ریزی سلسله‌مراتبی با عوامل وظیفه‌محور” (HPTSA)، موفق به نفوذ به آسیب‌پذیری‌های صفر روزه شوند – نقص‌هایی که تا لحظه کشف کاملاً ناشناخته بوده‌اند. این موفقیت با پشتیبانی از تیمی خودکار و خودتکثیر از مدل‌های زبان بزرگ (LLM) حاصل شده است.

شیوه عملکرد HPTSA چیست؟

به‌جای استفاده از یک عامل هوش مصنوعی برای انجام تمامی وظایف پیچیده، روش HPTSA از یک مدل سلسله‌مراتبی بهره می‌برد. در این روش، یک عامل “برنامه‌ریز” تمام فرآیند را مدیریت می‌کند و برای هر بخش کار، عوامل فرعی و ویژه (sub-agents) اختصاص می‌دهد. این تکنیک دقیقاً مانند یک مدیر و تیم زیردستانش عمل می‌کند؛ برنامه‌ریز اصلی وظایف مختلف را میان عوامل متخصص تقسیم کرده و بار کاری را کاهش می‌دهد.

این سیستم شباهت زیادی به روش‌های استفاده‌شده در پلتفرم Devin AI شرکت Cognition Labs دارد. در این روش، ابتدا پروژه تحلیل می‌شود، سپس نیازمندی‌های تخصصی مشخص می‌شود و در نهایت کارها تا تکمیل پروژه میان زیرمجموعه‌های متخصص توزیع می‌شود.

نتایج بهت‌آور در آزمایش‌ها

در تحقیقی که روی ۱۵ آسیب‌پذیری واقعی و مرتبط با وب انجام شد، تیم HPTSA توانست ۵۵۰ درصد کارآمدتر از یک هوش مصنوعی واحد عمل کند. این تیم خودکار موفق شد ۸ مورد از ۱۵ آسیب‌پذیری صفر روزه را هک کند، در حالی که یک مدل هوش مصنوعی تنها موفق به نفوذ در ۳ مورد شد.

نگرانی‌های امنیتی: تهدید یا فرصت؟

یکی از مسائل مهم، نگرانی‌ها درباره استفاده‌های مخرب از این مدل‌ها است. آیا این مدل‌ها می‌توانند ابزارهایی در دست هکرهای خرابکار باشند؟ “دنیل کانگ”، یکی از محققان و نویسنده این مقاله‌، تأکید کرد که GPT-4 در حالت عادی (مثل چت‌بات) نمی‌تواند به‌طور مستقل دست به هک بزند. او اذعان داشت که GPT-4 در قالب چت‌بات “درک محدودی از قابلیت‌های واقعی خود دارد” و نمی‌تواند بدون مداخله تیمی ساختاریافته به بهره‌برداری‌های امنیتی بپردازد.

به عبارت دیگر، وقتی یک کاربر معمولی مثل من از ChatGPT خواست که یک آسیب‌پذیری صفر روزه را هک کند، پاسخ این بود:

“خیر، من قادر به بهره‌برداری از آسیب‌پذیری‌های صفر روزه نیستم. هدف من ارائه اطلاعات و کمک در چارچوب‌های اخلاقی و قانونی است. توصیه می‌کنم برای این مسائل با یک متخصص امنیت سایبری مشورت کنید.”

نوشته های مشابه

دکمه بازگشت به بالا