خانه » تأیید رسمی هوش مصنوعی Grok ایلان ماسک برای استفاده در نهادهای دولتی آمریکا

تأیید رسمی هوش مصنوعی Grok ایلان ماسک برای استفاده در نهادهای دولتی آمریکا

0

بر اساس گزارش‌های منتشرشده، کاخ سفید به‌تازگی دستور داده است که هوش مصنوعی Grok، محصول شرکت xAI متعلق به ایلان ماسک، در فهرست رسمی فروشندگان تأییدشده سازمان خدمات عمومی ایالات متحده (GSA) قرار گیرد. این اقدام نشان‌دهنده تغییر رویکرد دولت آمریکا در بهره‌گیری از فناوری‌های نوین، علی‌رغم برخی اختلاف‌نظرهای پیشین میان ایلان ماسک و مقامات دولتی است.

به گزارش ایسنا به نقل از پایگاه خبری Wired، اسناد داخلی منتشرشده نشان می‌دهد که سازمان GSA پس از دریافت دستور از کاخ سفید، فهرست خود را اصلاح کرده و اکنون مدل‌های Grok 3 و Grok 4 در پلتفرم GSA Advantage — بازار آنلاین رسمی دولت فدرال برای خرید محصولات و خدمات — در دسترس نهادهای دولتی قرار گرفته‌اند.

شرکت xAI که در ماه ژوئیه نسخه‌ای از Grok را برای استفاده سازمان‌های دولتی آمریکا معرفی کرده بود، پیش‌تر در میان تأییدیه‌های صادرشده برای شرکت‌هایی مانند OpenAI، گوگل و Anthropic قرار نگرفته بود. اما با ارسال ایمیل‌های رسمی در هفته گذشته، رهبری GSA خواستار اضافه شدن محصولات xAI به فهرست تأییدشده‌ها شد.

هوش مصنوعی ایلان ماسک در خدمت کاخ سفید
هوش مصنوعی ایلان ماسک در خدمت کاخ سفید

با این حال، سابقه Grok در حوزه اخلاقی و رفتاری همچنان محل بحث است. این چت‌بات در گذشته به دلیل انتشار محتوای نژادپرستانه و تبلیغات افراطی مورد انتقاد قرار گرفته بود. با وجود این، تأیید رسمی آن برای استفاده دولتی نشان‌دهنده اعتماد نسبی به توانمندی‌های فنی و کاربردی این مدل در حوزه‌های خاص است.

در حال حاضر، جزئیاتی درباره قیمت‌گذاری خدمات xAI یا ارائه تخفیف به نهادهای دولتی منتشر نشده است. این در حالی است که شرکت‌های رقیب مانند OpenAI و Anthropic اخیراً مدل‌های زبانی خود را با قیمت پایه یک دلار به سازمان‌های فدرال عرضه کرده‌اند تا پذیرش آن‌ها در میان کارکنان دولتی افزایش یابد.

شرکت xAI همچنین قراردادی به ارزش ۲۰۰ میلیون دلار با وزارت دفاع آمریکا (پنتاگون) برای توسعه گردش‌کارهای هوش مصنوعی در حوزه‌های نظامی منعقد کرده است. این قرارداد نشان‌دهنده گسترش نقش هوش مصنوعی در ساختارهای دفاعی و امنیتی ایالات متحده است.

در کنار این تحولات، نگرانی‌ها درباره عملکرد اخلاقی و ایمنی مدل‌های هوش مصنوعی همچنان ادامه دارد. اخیراً شرکت OpenAI با شکایتی قضایی مواجه شده که ادعا می‌کند یکی از مدل‌های آن در روند منتهی به خودکشی یک نوجوان نقش داشته است. این پرونده بار دیگر توجه افکار عمومی را به ضرورت نظارت دقیق بر رفتار و خروجی‌های هوش مصنوعی جلب کرده است.

با تأیید رسمی Grok برای استفاده دولتی، به نظر می‌رسد رقابت میان شرکت‌های فعال در حوزه هوش مصنوعی وارد مرحله تازه‌ای شده و نقش این فناوری در ساختارهای اجرایی و امنیتی دولت آمریکا بیش از پیش پررنگ خواهد شد.

مجله خبری روزآنلاین

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *