توجهی به مسائل ایمنی نمی‌شود_خبرخوان

علی باقری
5 Min Read


به گزارش خبرخوان

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی همانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را دلواپس‌کننده و مغایر با استانداردهای رایج صنعت گفتن کرده‌اند.

در هفته‌های تازه، عمل های جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را نقل کرده می بود و حتی خود را یک «مکاهیتلر» معارفه کرد. بعد‌ازآن xAI از نسخه گسترش یافتهتری با نام Grok 4 به‌گفتن هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اظهار شده می بود که این نسخه تازه نیز در جواب به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

در تازه ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معارفه کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌جستوجو داشته است.

اولین اجلاس بین‌المللی هوش مصنوعی در لندن برگزار شد
ادامه مطلب
آخرین مطالب

انتقادات از حالت ایمنی Grok

به‌جستوجو همه این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که اکنون در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درمورد ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این نوشته ربطی به رقابت ندارد. از همه مهندسان و دانشمندان xAI سپاس می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار کردن سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل راه حلهای آموزشی و برسی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً اشکار نیست در مدل تازه Grok 4 چه عمل های ایمنی در نظر گرفته شده‌اند.

گوگل امکان «پرو کردن مجازی لباس» با عکس شخصی را فراهم کرد_خبرخوان
ادامه مطلب

یقیناً OpenAI و گوگل نیز در انتشار کردن به‌موقع سیستم کارت مدل‌های خود سابقه فوق الاده ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی انتشار نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها بعد از معارفه Gemini 2.5 Pro گزارش ایمنی مربوط به آن را انتشار کرد. بااین‌حال، این شرکت‌ها پیش از اراعه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را انتشار می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار کردن گزارش ایمنی را «بی‌پروا» توصیف کرده و حرف های است:

در سایت خبری خبرخوان آخرین اخبارحوادث,سیاسی,فرهنگ وهنر,اقتصاد و تکنولوژی,دفاعی,ورزشی,ایران,جهان را بخوانید.

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار کردن دارند، اما حداقل برای برسی ایمنی و مستندسازی آن کاری انجام خواهند داد. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong انتشار شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

حرکت خودسرانه هوش مصنوعی ایلان ماسک؛ جواب‌های نامربوط گراک_خبرخوان
ادامه مطلب
1752738535 453 توجهی به مسائل ایمنی نمی‌شود خبرخوان

در جواب به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس خبرداد که این شرکت «برسی توانمندیهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این برسی‌ها تا این مدت به‌صورت عمومی انتشار نشده‌اند.

«استیون ادلر»، پژوهشگر جدا گانه حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«هنگامی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی مراعات نمی‌شود — همانند انتشار کردن نتایج برسی‌های خطرناک — دلواپس می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند زیاد قوی می باشند، روبه رو خواهد شد.»

برای رسیدگی به این مشکلات، کوششهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله به گمان زیادً xAI) را ناچار به انتشار کردن گزارش‌های ایمنی می‌کند. این چنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه شبیهی را در دست بازدید دارد.

ایلان ماسک برای رقابت با OpenAI به‌جستوجو 6 میلیارد دلار اندوخته برای xAI می‌گردد
ادامه مطلب

دسته بندی مطالب
اخبار کسب وکار

اخبار تکنولوژی

اخبار اقتصادی

اخبار فرهنگ وهنر

اخبار تکنولوژی

اخبار سلامتی

Share This Article