هوش مصنوعی GPT-4 فقط با خواندن توصیههای امنیتی هر سیستمی را هک میکند!
تحقیقات جدید انجام شده نشان میدهد که مدل زبانی بزرگGPT-4 که توسط شرکت OpenAI توسعه یافته میتواند با موفقیت از آسیبپذیریهای امنیت سایبری سوء استفاده میکند؛ حتی بهتر و سریعتر از برترین متخصصان انسانی. ظاهراً این ویژگی به تازگی به انبوه قابلیتهای این مدل اضافه شده و به مرور حتی از بهتر از عملکرد بسیار خوب فعل نیز خواهد شد.
هوش مصنوعی بار دیگر با قابلیتهای شگفتانگیز خود، دنیای فناوری را متحیر کرده است. این بار، GPT-4، جدیدترین مدل زبانی توسعه یافته توسط OpenAI، در کانون توجهات قرار گرفته است.
بنابر گزارش The Register، محققان دانشگاه ایلینوی Urbana-Champaign (UIUC) اخیراً مقالهای را در خصوص تواناییهای چندین مدل زبان بزرگ (LLM) در زمینه شناسایی و استفاده از آسیبپذیریهای امنیتی تراشههای پردازشی مورد استفاده در دستگاهها مختلف منتشر کردهاند که به نتایج عجیبی منجر شده است.
چرا GPT-4 میتواند بهتر از بهترین هکرها باشد؟
بنابر دادهها به دست آمده، در این آزمونها، مدل زبانی بزرگ GPT-4 تنها با شرحی که توسط اطلاعات مندرج در پایگاه داده عمومی مسائل امنیتی رایج یا همان CVE استخراج شده، با موفقیتی 87 درصدی آسیبپذیریهای مورد هدف را شناسایی کرده و با تنظیم حملات موفق، از آنها برای رسیدن به اهداف امنیتی مد نظر، استفاده کند.
این درصد موفقیت بسیار چشمگیر و قابل توجه است و طبق اعلام گروه پژوهشی مذکور، هیچ مدل دیگری از جمله GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B)، و … تا به این حد عملکرد دقیق و موفقیتآمیزی در استفاده از آسیبپذیریها را به ثبت نرسانده است. جالب است که طبق اعلام این تیم، برخی از برنامههایی اسکنر آسیب پذیری هدفمند، حتی یک بار هم نتوانستند با موفقیت از آسیب پذیری های ارائه شده سوء استفاده کنند ولی GPT-4 و بسیاری از مدلهای زبانی به مراتب سادهتر در اکثر تستها، به راحتی موفق به اکسپلویت آسیبپذیریها شدهاند.
این قابلیت، زنگ خطری را برای امنیت سایبری به صدا درآورده و نگرانیهایی را در مورد سوءاستفاده از این هوش مصنوعی قدرتمند توسط مجرمان سایبری به وجود آورده است.
در بخش دیگری از این مقاله، تیم بررسی، دلیل این موفقیت GPT-4 را توانایی منحصر به فرد آن در درک و پردازش حجم عظیمی از دادهها و اطلاعات فنی مربوط به تراشهها و آسیبپذیریهای آنها استنباط کرده است. ظاهراً مدل زبانی بزرگ GPT-4 با تجزیه و تحلیل دادهها CVE، الگوهایی را شناسایی میکند که نشاندهنده وجود نقاط ضعف در طراحی یا عملکرد تراشهها هستند و در مرحله بعدی، با بررسی دقیق الگوریتمهای نفوذ و تطابق آنها با محدودیتهای آسیبپذیری، راه استفاده از آنها را با درصد صحت بالایی حدس میزند.
هوش مصنوعی با هزینه بسیار کمتر از انسان، دست به کاری میزند که انسانها حتی قادر به انجام آن نیستند.
با فرض اینکه یک کارشناس امنیت سایبری ساعتی 50 دلار (در آمریکا) دستمزد میگیرد، این مقاله بیان میکند که هوش مصنوعی همین حالا هم بسیار ارزانتر از انسان عمل میکند:
استفاده از یک عامل LLM (برای بهره برداری از آسیبپذیریهای امنیتی) در حال حاضر 2.8 برابر ارزانتر از نیروی کار انسانی است. علاوه بر این عوامل LLM بر خلاف نیروی کار انسانی، میتوانند ساعتها بدون استراحت کار کرده و تا به جواب نرسند، دست از کار نکشند!
این مقاله همچنین تخمین میزند که LLMهای آینده مانند GPT-5 در این تواناییها و شاید در مهارتهای کشف قویتر خواهند شد. با توجه به پیامدهای عظیم آسیب پذیری های گذشته، مانند Spectre و Meltdown، که هنوز در ذهن دنیای فناوری وجود دارد، نیاز به توجه ویژه به خطرات امنیت مدلهای هوش مصنوعی توسط شرکتهای توسعه دهنده و همزمان، هوش مصنوعی مقابله کننده با آن بیشتر از پیش احساس میشود.
مزایا و معایب این روح شیطانی GPT-4 چیست؟
با وجود این که این قابلیت GPT-4 میتواند تهدیدی جدی برای امنیت سایبری به شمار آید، اما پتانسیلهای مثبتی نیز برای آن متصور است. متخصصان امنیت سایبری میتوانند از این هوش مصنوعی برای شناسایی و رفع سریعتر آسیبپذیریهای تراشهها قبل از سوءاستفاده توسط مجرمان سایبری استفاده کنند.
علاوه بر این،GPT-4 میتواند برای طراحی تراشههای امنتر و مقاومتر در برابر حملات سایبری به کار گرفته شود.
با این حال، چالشهای مهمی نیز در رابطه با استفاده از GPT-4 برای ارتقای امنیت سایبری وجود دارد. یکی از این چالشها، امکان سوءاستفاده از این هوش مصنوعی توسط هکرها برای طراحی و اجرای حملات سایبری پیچیدهتر و مخربتر است.
چالش دیگر، تضمین شفافیت و قابل اعتماد بودن عملکرد GPT-4 است. با توجه به ماهیت پیچیده این هوش مصنوعی، درک نحوه عملکرد دقیق آن و اطمینان از عدم وجود سوگیری یا خطا در نتایج آن دشوار است.
در نهایت، استفاده از GPT-4 برای ارتقای امنیت سایبری نیازمند قوانین و مقررات مدون و نظارت دقیق برای جلوگیری از سوءاستفاده از آن است.
در مجموع،GPT-4 یک ابزار قدرتمند با پتانسیلهای مثبت و منفی در حوزه امنیت سایبری است. استفاده مسئولانه و اخلاقی از این هوش مصنوعی و تدوین چارچوبهای قانونی مناسب برای نظارت بر آن، ضروری است تا از به کارگیری آن برای مقاصد مخرب جلوگیری شود
منبع: https://www.shahrsakhtafzar.com/fa/news/security/50454-gpt4_can_exploit_real_vulnerabilities