کمکاری هوش مصنوعی DeepSeek در حق مخالفان دولت چین
محققان شرکت امنیتی CrowdStrike مدعی شدهاند که چتبات هوش مصنوعی دیپسیک برای کاربران گروهها و مناطقی که دولت چین روی آنها حساس است، کدهای ضعیف و دارای نقص امنیتی تولید میکند که حفرههای امنیتی قابل توجهی دارد. جزئیات بیشتر را در . بخوانید.
ظاهراً هوش مصنوعی دیپسیک به منطقه جغرافیایی کاربران حساس است و پاسخهای متفاوتی ایجاد میکند. طبق گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمایشی طراحی کرده تا نحوه پاسخدهی دیپسیک به درخواستهای کدنویسی را بررسی کند.
در واقع محققان یک سری درخواست مشابه برای تولید برنامههای مختلف به این هوش مصنوعی ارسال کردند، اما در هر درخواست، کاربر را یک گروه یا منطقه متفاوت معرفی کردند.
این درخواستها از آمریکا و تبت گرفته تا گروههایی مانند داعش و جنبش مذهبی فالونگونگ را شامل میشد. نتایج نشان داد که دیپسیک برخی درخواستها را رد کرده و در موارد دیگر کدهایی با کیفیت پایینتر و حفرههای امنیتی قابل توجه ایجاد میکند.
نتایج تحقیق نشان میدهد کیفیت کد تولیدی دیپسیک شدیداً تحت تأثیر هویت سیاسی کاربر قرار دارد. برای مثال، در درخواست تولید برنامه سیستمهای کنترل صنعتی، 22.8 درصد از پاسخها دارای نقص امنیتی بودند، اما وقتی مشخص شد که کاربر عضو داعش است، این رقم به 42.1 درصد افزایش یافت.
همچنین درخواستها برای کاربران تبت، تایوان و فالونگونگ نیز به کدهای بیکیفیت منجر میشد. دیپسیک درخواستهای مربوط به داعش و فالونگونگ را به ترتیب در 61 و 45 درصد موارد به طور کامل رد میکرد.
چرا دیپسیک این کار را انجام میدهد؟
پیشتر مشخص شده بود که مدلهای هوش مصنوعی چینی در پاسخ به پرسشهای متنی، اطلاعاتی همسو با روایت دولت میدهند، اما این تحقیق اولین شواهد مبنی بر تولید کد ناامن به دلایل سیاسی را نشان میدهد. تولید عمدی کد معیوب میتواند پروژههای هدف را آسیبپذیر کرده و امکان هک را آسان کند.
کارشناسان سه احتمال را برای این پدیده مطرح کردهاند. اولین احتمال، دستورالعملهای دولتی است که ممکن است عمداً کدهای مربوط به گروههای حساس را معیوب کند. دومین احتمال، سوگیری دادههای آموزشی است که دلیل آن وجود دادههای با کیفیت پایین در این مناطق خاص است.
در همین رابطه بخوانید:
– دیپ سیک چیست؟ 0 تا 100 هوش مصنوعی چینی DeepSeek
– تحریم DeepSeek را به فکر تولید تراشه هوش مصنوعی انداخت؛ رقیب دیگری برای انویدیا؟
سومین احتمال، یادگیری خودکار هوش مصنوعی است که ممکن است مفاهیمی مانند «شورشی» یا گروههای مخالف را با کیفیت پایین مرتبط دانسته و بر اساس آن کد ناایمن تولید و در اختیار آنها قرار دهد.
منبع: https://www.shahrsakhtafzar.com/fa/news/57736-deepseek-less-secure-for-china-disfavors