به گزارش خبرخوان
برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکتهایی همانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چتبات Grok بهشدت انتقاد کردهاند و آن را دلواپسکننده و مغایر با استانداردهای رایج صنعت گفتن کردهاند.
در هفتههای تازه، عمل های جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چتبات ابتدا اظهاراتی ضدیهود را نقل کرده می بود و حتی خود را یک «مکاهیتلر» معارفه کرد. بعدازآن xAI از نسخه گسترش یافتهتری با نام Grok 4 بهگفتن هوشمندترین هوش مصنوعی جهان رونمایی کرد.
اما در برخی گزارشها اظهار شده می بود که این نسخه تازه نیز در جواب به موضوعات حساس به دیدگاههای شخصی ایلان ماسک مراجعه میکند.
در تازه ترین حواشی مربوط به این چتبات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معارفه کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتبرانگیز میشود و انتقادات جدی را بهجستوجو داشته است.
انتقادات از حالت ایمنی Grok
بهجستوجو همه این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که اکنون در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:
«نمیخواستم درمورد ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار میکنم، اما این نوشته ربطی به رقابت ندارد. از همه مهندسان و دانشمندان xAI سپاس میکنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»
باراک در پست خود بهطور خاص از تصمیم xAI برای عدم انتشار کردن سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل راه حلهای آموزشی و برسیهای ایمنی این شرکت میشود. او میگوید که دقیقاً اشکار نیست در مدل تازه Grok 4 چه عمل های ایمنی در نظر گرفته شدهاند.
یقیناً OpenAI و گوگل نیز در انتشار کردن بهموقع سیستم کارت مدلهای خود سابقه فوق الاده ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی انتشار نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماهها بعد از معارفه Gemini 2.5 Pro گزارش ایمنی مربوط به آن را انتشار کرد. بااینحال، این شرکتها پیش از اراعه کامل مدلهای مرزی هوش مصنوعی خود، گزارشهای ایمنی آن را انتشار میکنند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار کردن گزارش ایمنی را «بیپروا» توصیف کرده و حرف های است:
«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار کردن دارند، اما حداقل برای برسی ایمنی و مستندسازی آن کاری انجام خواهند داد. xAI حتی همین کار را هم انجام نمیدهد.»
درهمینحال، در پستی که در فروم LessWrong انتشار شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در جواب به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس خبرداد که این شرکت «برسی توانمندیهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااینحال، نتایج این برسیها تا این مدت بهصورت عمومی انتشار نشدهاند.
«استیون ادلر»، پژوهشگر جدا گانه حوزه هوش مصنوعی که پیشتر مسئول تیمهای ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch میگوید:
«هنگامی رویههای استاندارد ایمنی در صنعت هوش مصنوعی مراعات نمیشود — همانند انتشار کردن نتایج برسیهای خطرناک — دلواپس میشوم. دولتها و مردم حق دارند بدانند شرکتهای هوش مصنوعی چطور با خطرات سیستمهایی که میگویند زیاد قوی می باشند، روبه رو خواهد شد.»
برای رسیدگی به این مشکلات، کوششهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحهای است که شرکتهای پیشرو هوش مصنوعی (ازجمله به گمان زیادً xAI) را ناچار به انتشار کردن گزارشهای ایمنی میکند. این چنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه شبیهی را در دست بازدید دارد.
دسته بندی مطالب
اخبار کسب وکار