ایلان ماسک به دنبال جایگزینی کارمندان دولت آمریکا با هوش مصنوعی!
اداره کارآمدی دولت (DODGE) آمریکا به ریاست ایلان ماسک، طی هفتههای گذشته سر و صدای زیادی به پا کرده است به خصوص با قطع بودجه و تعدیل بسیاری از کارکنان دولت فدرال. اما در غیاب هزاران کارمند، چه کسی قرار است وظایف آنها را انجام دهد؟ به نظر میرسد پاسخ ایلان ماسک، استفاده از هوش مصنوعی است.
اداره کارآمدی دولت یا به اختصار دوج (DOGE) همزمان با ریاست جمهوری دونالد ترامپ کار خود را شروع کرد. این سازمان که ایلان ماسک آن را رهبری میکند، هدف مشخصی دارد: جلوگیری از اتلاف منابع در دولت عریض و طویل ایالات متحده.
اکنون طبق گزارشی که توسط The Atlantic منتشر شده است، دوج در نظر دارد برای جبران کمبود نیروی کار، از هوش مصنوعی برای جایگزینی برخی از کارمندان دولتی استفاده کند. این طرح جدید که هنوز در مراحل اولیه است، میتواند به جدیدترین جنجال مرتبط با DOGE در تاریخ کوتاه این اداره تبدیل شود. چرا که ما هنوز در ابتدای راه هوش مصنوعی هستیم و چتباتها نمیتوانند به طور کامل و با اطمینان جایگزین انسانها شوند.
مدیریت میلیاردها دلار قرار داد دولتی با هوش مصنوعی
با این حال، DOGE قصد دارد برنامه GSAi یا (چت بات GSA) را ابتدا برای 1500 کارمند فدرال به کار گیرد و برنامهریزی کرده است تا آن را برای بیش از 10,000 کارمند GSA که کل نیروی کار این سازمان را تشکیل میدهد، در دسترس قرار دهد. اداره خدمات عمومی یا GSA، شاخهای از دولت ایالات متحده است که قراردادها و خدماتی به ارزش بیش از 100 میلیارد دلار را مدیریت میکند.
توسعه GSAi سال گذشته در دولت بایدن به عنوان یک برنامه آزمایشی با تدابیر احتیاطی خاص آغاز شد. اما دولت ترامپ فرمان اجرایی بایدن در مورد ایمنی هوش مصنوعی را لغو کرده و به طور تهاجمی توسعه و استقرار GSAi را دنبال میکند.
در گزارش آتلانتیک آمده است که GSAi شباهت زیادی به ChatGPT دارد. دارای یک ورودی متن است که کاربران دستورات را در آن وارد میکنند و چتبات پاسخ میدهد. این هوش مصنوعی میتواند ایمیلها را پیشنویس کند، کد بنویسد و «خیلی کارهای دیگر!» را انجام دهد. این نقل قولی مستقیم از زک ویتمن، مدیر ارشد هوش مصنوعی GSA، در یک ایمیل داخلی است.
در همین رابطه بخوانید:
– هوش مصنوعی به خالقان خود هم رحم نمیکند؛ مارک زاکربرگ: برنامهنویسان پایینرتبه با AI جایگزین میشوند
– آیندهای که برایش آماده نیستیم: هکرهای هوش مصنوعی
GSAi از مدلهای متا و آنتروپیک استفاده میکند، اما به اندازه برخی از برنامههای هوش مصنوعی تجاری پیشرفته نیست. به عنوان مثال، در حال حاضر نمیتوانید اسناد را در آن آپلود کنید، اما نسخههای آینده ممکن است از این قابلیت پشتیبانی کنند.
آتلانتیک اشاره میکند که GSAi ممکن است در آینده برای کارهای پیچیدهتر مورد استفاده قرار گیرد. یکی از کارکنان GSA در این رابطه میگوید:
این برنامه به طور بالقوه میتواند برای برنامهریزی پروژههای بزرگ دولتی، اطلاعرسانی در مورد کاهش نیرو و یا جستوجوی اطلاعات در مخازن متمرکز دادههای فدرال مورد استفاده قرار گیرد.
این گزارش همچنین به اظهارات توماس شِد، مدیر بخش خدمات تحول فناوری (TTS) در GSA، در یکی از جلسههای اخیر اشاره میکند. شِد، مهندس سابق تسلا، در جلسه گفته است که این سازمان در حال پیشبرد «استراتژی اولویت هوش مصنوعی» است، جایی که فناوری و اتوماسیون میتوانند کمبود نیروی کار انسانی اخراج شده توسط DOGE را جبران کنند.
شد گفت که «عاملهای هوش مصنوعی با قابلیت کدنویسیی» میتوانند در سراسر دولت به کار گرفته شوند و هوش مصنوعی میتواند وظیفه تحلیل قراردادهای دولتی یا خودکارسازی فرایندههای مالی GSA را برعهده بگیرد. اما با توجه به اینکه GSAi نمیتواند به اندازه ChatGPT، Claude و سایر هوش مصنوعیهای تجاری که این قابلیتها را با هزینههای میلیارد دلاری توسعه دادهاند، پیشرفته باشد، این نیز در حال حاضر یک آرزوی واهی است.
آتلانتیک همچنین به تمایل دولت ترامپ برای پیشبرد سریع این نرمافزار بدون تعیین اینکه آیا برای کار دولتی مناسب است یا خیر، اشاره میکند. برنامه اولیه برای این هوش مصنوعی آزمایش چنین محصولات هوش مصنوعی برای کار دولتی بود، نه تکیه بر آنها برای هر کار.
خطرات استفاده از هوش مصنوعی به جای کارمندان دولت
یک کارمند سابق GSA در مورد برخی از خطرات آشکار GSAi که به نظر نمیرسد DOGE نگران آنها باشد، هشدار داد:
آنها میخواهند دادههای قراردادها را در هوش مصنوعی جمعآوری کنند تا آن را برای تقلب احتمالی تجزیه و تحلیل کنند، که هدف بزرگی است. اما اگر چنین کاری ممکن بود، تا به حال آن را نجام داده بودیم. استفاده از هوش مصنوعی خطر بسیار بالایی تشخیص اشتباه ایجاد میکند و من فکر نمیکنم که هیچ راهکاری برای جلوگیری از این مشکل در نظر گرفته شده باشد.
در این گزارش اشاره شده است که یک صفحه راهنما برای کاربران اولیه GSAi هشدارهایی در مورد توهمات هوش مصنوعی یا Ai Hallucination ارائه میدهد. این موارد ممکن است شامل «پاسخهای مغرضانه یا بر اساس کلیشهها» و «مسائل مربوط به حریم خصوصی» باشد.
این راهنما همچنین به کاربران میگوید که اطلاعات شخصی یا اطلاعات حساس طبقهبندی نشده را در چت با هوش مصنوعی درج نکنند. با این حال، مشخص نیست که آیا کسی این موارد ایمنی را جدی میگیرد یا خیر.
با توجه به اینکه سالها طول کشید تا برنامههایی مانند ChatGPT، Claude، Gemini و DeepSeek به جایگاه امروزی خود برسند، بعید است که GSAi بتواند به این زودیها جایگزین فرایندهای دولتی شود.
منبع: https://www.shahrsakhtafzar.com/fa/news/55125-elon-musk-dodge-repalces-us-employees-with-ai