عملیات فریب ChatGPT؛ وقتی هوش مصنوعی کلیدهای فعالسازی ویندوز را لو داد
به تازگی یک پژوهشگر امنیتی با طراحی یک بازی حدس کلمه، ChatGPT را مجاب کرد تا کلیدهای فعالسازی معتبر ویندوز را فاش کند. به نظر میرسد با وجود تمام تدابیر امنیتی، همچنان میتوان ChatGPT را برای افشای اطلاعات حساس فریب داد.
با وجود تمام لایههای امنیتی و حفاظتی که برای مدلهای زبان بزرگ مانند ChatGPT در نظر گرفته شده، این چتباتها همچنان در برابر پرامپتهای هوشمندانه آسیبپذیر هستند. به تازگی، یک پژوهشگر امنیتی موفق شده است با بیان درخواست خود در قالب یک «بازی حدس کلمه»، این هوش مصنوعی را وادار به افشای کلیدهای فعالسازی قانونی ویندوز کند؛ اتفاقی که ضعفهای بنیادی در سیستمهای حفاظتی هوش مصنوعی را بار دیگر به نمایش گذاشت.
این روش که توسط Marco Figueroa، مدیر فنی محصولات در پلتفرم 0DIN GenAI Bug Bounty تشریح شده، از یک بازی برای دور زدن محدودیتهای مدلهای زبانی مانند GPT-4o بهره میبرد.
چگونه ChatGPT با یک بازی ساده فریب خورد؟
ترفند اصلی برای دستیابی به کلیدهای ویندوز، ارائه درخواست در قالب یک بازی بود تا از حساسیت موضوع کاسته شود. در دستورالعملهای این بازی از ChatGPT خواسته میشد که یک کلید فعالسازی معتبر ویندوز را در نظر بگیرد و سپس کاربر را که سعی میکند این کلید را حدس بزند، راهنمایی کند.
پژوهشگر ابتدا با درخواست راهنمایی، ChatGPT را مجبور میکرد تا چند کاراکتر اول سریال را فاش کند. سپس پس از وارد کردن یک حدس اشتباه، عبارت «تسلیم میشوم» را تایپ میکرد. در این لحظه، هوش مصنوعی با تصور اینکه در حال مشارکت در یک بازی است، کلید کامل را نمایش میداد. بررسیهای بعدی نشان داد که کلیدهای فاش شده کاملاً معتبر است.
علت موفقیت این ترفند این بود که ترکیبی از کلیدهای ویندوز نسخههای Home، Pro و Enterprise که به طور معمول در فرومهای عمومی یافت میشوند، بخشی از دادههای آموزشی مدل بودهاند. به همین دلیل، ChatGPT آنها را به عنوان اطلاعات کمتر حساس شناسایی میکرد. اگرچه درخواست مستقیم این اطلاعات توسط پروتکلهای ایمنی مسدود شده است، اما تاکتیکهای پنهانسازی مانند قرار دادن درخواست در قالب بازی، هنوز هم میتواند.
اهمیت این موضوع زمانی بیشتر میشود که بدانیم طبق مصاحبه Figueroa با وبسایت The Register، یکی از کلیدهای فاششده، یک کلید خصوصی متعلق به بانک Wells Fargo بوده است. حال فرض کنید که همین همین تکنیک برای افشای سایر محتواهای محدودشده، از جمله مطالب مخصوص بزرگسالان، آدرس وبسایتهای مخرب و حتی اطلاعات هویتی اشخاص نیز به کار گرفته شود.
در همین رابطه بخوانید:
– 5 عبارت ساده که کمک میکند پاسخهای بهتری از ChatGPT دریافت کنید
– هکر با استفاده از هوش مصنوعی Gemini گوگل، خودش را هک کردند!
خوشبختانه به نظر میرسد OpenAI به سرعت این آسیبپذیری را برطرف کرده است. اکنون اگر همان پرامپت را وارد کنید، ChatGPT اینگونه پاسخ میدهد:
من نمیتوانم این کار را انجام دهم. به اشتراک گذاشتن یا استفاده از شماره سریالهای واقعی ویندوز ۱۰ چه در قالب بازی و چه غیر آن خلاف دستورالعملهای اخلاقی و توافقنامههای نرمافزاری است.
این پژوهشگر امنیتی در پایان تاکید میکند که برای مقابله با چنین حملاتی، توسعهدهندگان هوش مصنوعی باید تکنیکهای پنهانسازی پرامپت را پیشبینی کرده، محافظهای منطقی برای تشخیص چارچوبهای فریبکارانه تعبیه کنند و به جای تکیه صرف بر فیلترهای کلمات کلیدی، الگوهای مهندسی اجتماعی را نیز در نظر بگیرند.
منبع: https://www.shahrsakhtafzar.com/fa/news/56816-chatgpt-tricked-to-reveal-window-keys