اداره کارآمدی دولت (DODGE) آمریکا به ریاست ایلان ماسک، طی هفته‌های گذشته سر و صدای زیادی به پا کرده است به خصوص با قطع بودجه‌ و تعدیل بسیاری از کارکنان دولت فدرال. اما در غیاب هزاران کارمند، چه کسی قرار است وظایف آنها را انجام دهد؟ به نظر می‌رسد پاسخ ایلان ماسک، استفاده از هوش مصنوعی است.

اداره کارآمدی دولت یا به اختصار دوج (DOGE) همزمان با ریاست جمهوری دونالد ترامپ کار خود را شروع کرد. این سازمان که ایلان ماسک آن را رهبری می‌کند، هدف مشخصی دارد: جلوگیری از اتلاف منابع در دولت عریض و طویل ایالات متحده.

اداره کارآمدی دولت

اکنون طبق گزارشی که توسط The Atlantic منتشر شده است، دوج در نظر دارد برای جبران کمبود نیروی کار، از هوش مصنوعی برای جایگزینی برخی از کارمندان دولتی استفاده کند. این طرح جدید که هنوز در مراحل اولیه است، می‌تواند به جدیدترین جنجال مرتبط با DOGE در تاریخ کوتاه این اداره تبدیل شود. چرا که ما هنوز در ابتدای راه هوش مصنوعی هستیم و چت‌بات‌ها نمی‌توانند به طور کامل و با اطمینان جایگزین انسان‌ها شوند.

مدیریت میلیاردها دلار قرار داد دولتی با هوش مصنوعی

با این حال، DOGE قصد دارد برنامه GSAi یا (چت بات GSA) را ابتدا برای 1500 کارمند فدرال به کار گیرد و برنامه‌ریزی کرده است تا آن را برای بیش از 10,000 کارمند GSA که کل نیروی کار این سازمان را تشکیل می‌دهد، در دسترس قرار دهد. اداره خدمات عمومی یا GSA، شاخه‌ای از دولت ایالات متحده است که قراردادها و خدماتی به ارزش بیش از 100 میلیارد دلار را مدیریت می‌کند.

مدیریت دولت با هوش مصنوعی

توسعه GSAi سال گذشته در دولت بایدن به عنوان یک برنامه آزمایشی با تدابیر احتیاطی خاص آغاز شد. اما دولت ترامپ فرمان اجرایی بایدن در مورد ایمنی هوش مصنوعی را لغو کرده و به طور تهاجمی توسعه و استقرار GSAi را دنبال می‌کند.

در گزارش آتلانتیک آمده است که GSAi شباهت زیادی به ChatGPT دارد. دارای یک ورودی متن است که کاربران دستورات را در آن وارد می‌کنند و چت‌بات پاسخ می‌دهد. این هوش مصنوعی می‌تواند ایمیل‌ها را پیش‌نویس کند، کد بنویسد و «خیلی کارهای دیگر!» را انجام دهد. این نقل قولی مستقیم از زک ویتمن، مدیر ارشد هوش مصنوعی GSA، در یک ایمیل داخلی است.

در همین رابطه بخوانید:

– هوش مصنوعی به خالقان خود هم رحم نمی‌کند؛ مارک زاکربرگ: برنامه‌نویسان پایین‌رتبه با AI جایگزین می‌شوند

– آینده‌ای که برایش آماده نیستیم: هکرهای هوش مصنوعی

GSAi از مدل‌های متا و آنتروپیک استفاده می‌کند، اما به اندازه برخی از برنامه‌های هوش مصنوعی تجاری پیشرفته نیست. به عنوان مثال، در حال حاضر نمی‌توانید اسناد را در آن آپلود کنید، اما نسخه‌های آینده ممکن است از این قابلیت پشتیبانی کنند.

آتلانتیک اشاره می‌کند که GSAi ممکن است در آینده برای کارهای پیچیده‌تر مورد استفاده قرار گیرد. یکی از کارکنان GSA در این رابطه می‌گوید:

این برنامه به طور بالقوه می‌تواند برای برنامه‌ریزی پروژه‌های بزرگ دولتی، اطلاع‌رسانی در مورد کاهش نیرو و یا جست‌وجوی اطلاعات در مخازن متمرکز داده‌های فدرال مورد استفاده قرار گیرد.

این گزارش همچنین به اظهارات توماس شِد، مدیر بخش خدمات تحول فناوری (TTS) در GSA، در یکی از جلسه‌های اخیر اشاره می‌کند. شِد، مهندس سابق تسلا، در جلسه گفته است که این سازمان در حال پیشبرد «استراتژی اولویت هوش مصنوعی» است، جایی که فناوری و اتوماسیون می‌توانند کمبود نیروی کار انسانی اخراج شده توسط DOGE را جبران کنند.

شد گفت که «عامل‌های هوش مصنوعی با قابلیت کدنویسیی» می‌توانند در سراسر دولت به کار گرفته شوند و هوش مصنوعی می‌تواند وظیفه تحلیل قراردادهای دولتی یا خودکارسازی فراینده‌های مالی GSA را برعهده بگیرد. اما با توجه به اینکه GSAi نمی‌تواند به اندازه ChatGPT، Claude و سایر هوش مصنوعی‌های تجاری که این قابلیت‌ها را با هزینه‌های میلیارد دلاری توسعه داده‌اند، پیشرفته باشد، این نیز در حال حاضر یک آرزوی واهی است.

اخراج کارمندان و استفاده از هوش منصوعی

آتلانتیک همچنین به تمایل دولت ترامپ برای پیشبرد سریع این نرم‌افزار بدون تعیین اینکه آیا برای کار دولتی مناسب است یا خیر، اشاره می‌کند. برنامه اولیه برای این هوش مصنوعی آزمایش چنین محصولات هوش مصنوعی برای کار دولتی بود، نه تکیه بر آنها برای هر کار.

خطرات استفاده از هوش مصنوعی به جای کارمندان دولت

یک کارمند سابق GSA در مورد برخی از خطرات آشکار GSAi که به نظر نمی‌رسد DOGE نگران آنها باشد، هشدار داد:

آنها می‌خواهند داده‌های قراردادها را در هوش مصنوعی جمع‌آوری کنند تا آن را برای تقلب احتمالی تجزیه و تحلیل کنند، که هدف بزرگی است. اما اگر چنین کاری ممکن بود، تا به حال آن را نجام داده بودیم. استفاده از هوش مصنوعی خطر بسیار بالایی تشخیص اشتباه ایجاد می‌کند و من فکر نمی‌کنم که هیچ راهکاری برای جلوگیری از این مشکل در نظر گرفته شده باشد.

در این گزارش اشاره شده است که یک صفحه راهنما برای کاربران اولیه GSAi هشدارهایی در مورد توهمات هوش مصنوعی یا Ai Hallucination ارائه می‌دهد. این موارد ممکن است شامل «پاسخ‌های مغرضانه یا بر اساس کلیشه‌ها» و «مسائل مربوط به حریم خصوصی» باشد. 

این راهنما همچنین به کاربران می‌گوید که اطلاعات شخصی یا اطلاعات حساس طبقه‌بندی نشده را در چت با هوش مصنوعی درج نکنند. با این حال، مشخص نیست که آیا کسی این موارد ایمنی را جدی می‌گیرد یا خیر.

با توجه به اینکه سال‌ها طول کشید تا برنامه‌هایی مانند ChatGPT، Claude، Gemini و DeepSeek به جایگاه امروزی خود برسند، بعید است که GSAi بتواند به این زودی‌ها جایگزین فرایندهای دولتی شود.

source

توسط siahnet.ir