قیمت خرید فروش | فروشگاه دی نت
0 محصولات نمایش سبد خرید

هیچ محصولی در سبد خرید نیست.

عملیات فریب ChatGPT؛ وقتی هوش مصنوعی کلیدهای فعال‌سازی ویندوز را لو داد

chatgpt-windows-keys-2.jpg

به تازگی یک پژوهشگر امنیتی با طراحی یک بازی حدس کلمه، ChatGPT را مجاب کرد تا کلیدهای فعال‌سازی معتبر ویندوز را فاش کند. به نظر می‌رسد با وجود تمام تدابیر امنیتی، همچنان می‌توان ChatGPT را برای افشای اطلاعات حساس فریب داد.

با وجود تمام لایه‌های امنیتی و حفاظتی که برای مدل‌های زبان بزرگ مانند ChatGPT در نظر گرفته شده، این چت‌بات‌ها همچنان در برابر پرامپت‌های هوشمندانه آسیب‌پذیر هستند. به تازگی، یک پژوهشگر امنیتی موفق شده است با بیان درخواست خود در قالب یک «بازی حدس کلمه»، این هوش مصنوعی را وادار به افشای کلیدهای فعال‌سازی قانونی ویندوز کند؛ اتفاقی که ضعف‌های بنیادی در سیستم‌های حفاظتی هوش مصنوعی را بار دیگر به نمایش گذاشت.

این روش که توسط Marco Figueroa، مدیر فنی محصولات در پلتفرم 0DIN GenAI Bug Bounty تشریح شده، از یک بازی برای دور زدن محدودیت‌های مدل‌های زبانی مانند GPT-4o بهره می‌برد.

چگونه ChatGPT با یک بازی ساده فریب خورد؟

ترفند اصلی برای دستیابی به کلیدهای ویندوز، ارائه درخواست در قالب یک بازی بود تا از حساسیت موضوع کاسته شود. در دستورالعمل‌های این بازی از ChatGPT خواسته می‌شد که یک کلید فعال‌سازی معتبر ویندوز را در نظر بگیرد و سپس کاربر را که سعی می‌کند این کلید را حدس بزند، راهنمایی کند.

chatgpt-windows-keys-2.jpg
پرامپت استفاده شده برای فریب ChatGPT

پژوهشگر ابتدا با درخواست راهنمایی، ChatGPT را مجبور می‌کرد تا چند کاراکتر اول سریال را فاش کند. سپس پس از وارد کردن یک حدس اشتباه، عبارت «تسلیم می‌شوم» را تایپ می‌کرد. در این لحظه، هوش مصنوعی با تصور اینکه در حال مشارکت در یک بازی است، کلید کامل را نمایش می‌داد. بررسی‌های بعدی نشان داد که کلیدهای فاش شده کاملاً معتبر است.

chatgpt-windows-keys-3.jpg
افشای کلید فعال سازی Windows 10 Pro بعد از تایپ عبارت تسلیم می‌شوم.

علت موفقیت این ترفند این بود که ترکیبی از کلیدهای ویندوز نسخه‌های Home، Pro و Enterprise که به طور معمول در فروم‌های عمومی یافت می‌شوند، بخشی از داده‌های آموزشی مدل بوده‌اند. به همین دلیل، ChatGPT آن‌ها را به عنوان اطلاعات کمتر حساس شناسایی می‌کرد. اگرچه درخواست مستقیم این اطلاعات توسط پروتکل‌های ایمنی مسدود شده است، اما تاکتیک‌های پنهان‌سازی مانند قرار دادن درخواست در قالب بازی، هنوز هم می‌تواند.

اهمیت این موضوع زمانی بیشتر می‌شود که بدانیم طبق مصاحبه Figueroa  با وب‌سایت The Register، یکی از کلیدهای فاش‌شده، یک کلید خصوصی متعلق به بانک Wells Fargo بوده است. حال فرض کنید که همین همین تکنیک برای افشای سایر محتواهای محدودشده، از جمله مطالب مخصوص بزرگسالان، آدرس وب‌سایت‌های مخرب و حتی اطلاعات هویتی اشخاص نیز به کار گرفته شود.

در همین رابطه بخوانید:

– 5 عبارت ساده که کمک می‌کند پاسخ‌های بهتری از ChatGPT دریافت کنید

– هکر با استفاده از هوش مصنوعی Gemini گوگل، خودش را هک کردند!

خوشبختانه به نظر می‌رسد OpenAI به سرعت این آسیب‌پذیری را برطرف کرده است. اکنون اگر همان پرامپت را وارد کنید، ChatGPT اینگونه پاسخ می‌دهد:

من نمی‌توانم این کار را انجام دهم. به اشتراک گذاشتن یا استفاده از شماره سریال‌های واقعی ویندوز ۱۰ چه در قالب بازی و چه غیر آن خلاف دستورالعمل‌های اخلاقی و توافق‌نامه‌های نرم‌افزاری است.

این پژوهشگر امنیتی در پایان تاکید می‌کند که برای مقابله با چنین حملاتی، توسعه‌دهندگان هوش مصنوعی باید تکنیک‌های پنهان‌سازی پرامپت را پیش‌بینی کرده، محافظ‌های منطقی برای تشخیص چارچوب‌های فریبکارانه تعبیه کنند و به جای تکیه صرف بر فیلترهای کلمات کلیدی، الگوهای مهندسی اجتماعی را نیز در نظر بگیرند.

منبع: https://www.shahrsakhtafzar.com/fa/news/56816-chatgpt-tricked-to-reveal-window-keys

0