به گزارش خبرخوان
نسخه هک یا جیلبریک شده چتبات هوش مصنوعی ChatGPT با نام «GODMODE GPT» توسط یک هکر انتشار شده است. در حالی که OpenAI ادعا کرده که نسبت به سازنده این چتبات عمل قانونی کرده است، GODMODE GPT انگارً میتواند همه مانع ها محافظتی آن را از بین ببرد.
هکری که در ایکس خود را با نام «Pliny the Prompter» و بهگفتن یک «کلاه سفید» معارفه کرده است، امروز از GODMODE GPT رونمایی کرد. او در پست خود نوشت:
«این GPT سفارشی زیاد خاص دارای یک دستور جیلبریک داخلی است که اکثر مانع ها محافظ را دور میزند و یک ChatGPT آزادشده را اراعه میکند تا همه بتوانند هوش مصنوعی را همانطور که همیشه قرار بوده توانایی کنند: رایگان.
لطفا مسئولانه از آن منفعت گیری کنید و لذت ببرید!»
این هکر این چنین اسکرینشاتهایی را به اشتراک گذاشته است که ادعا میکند نشان خواهند داد ChatGPT از مانع ها مخافظتی OpenAI عبور کرده است. در یکی از این تصاویر، هوش مصنوعی Godmode «راهنمای قدمبهقدم» نحوه «ساخت ناپالم با وسایل خانه» را آموزش داده است (عکس بالا). ناپالم مادهای آتشزا و نوعی بمب است.
عمل قانونی OpenAI علیه ChatGPT جیلبریک شده
تقریباً یک ساعت بعد از انتشار کردن این نوشته در ایکس، «کالین رایز»، سخنگوی OpenAI در بیانیهای به Futurism اظهار کرده که آنها «از نوشته آگاه می باشند و برای نقض سیاستهای خود، عمل قانونی» کردهاند.
تقریباً از زمان اغاز به کار ChatGPT، کاربران بهطور مداوم در تلاش بودهاند تا مدلهای هوش مصنوعی همانند آن را جیلبریک کنند، کاری که انجام آن انگارً زیاد سخت است. با این حال، بهنظر میرسد که هکر GODMODE GPT کار خود را با یک زبان غیررسمی به نام «leetspeak» انجام داده است که حروف خاصی را با اعداد همانند به آنها جانشین میکند.
بهگفتن مثال، با این زبان، عدد ۳ جانشین سخن E در برخی کلمات میشود و در این نسخه جیلبریکشده از ChatGPT نیز کلماتی همانند Sur3 یا h3r3 y0u ar3 my fr3n دیده میشود. یقیناً دقیقاً اشکار نیست که منفعت گیری از این زبان غیررسمی چطور علتشده تا این چتبات بتواند مانع ها حفاظتی OpenAI را دور بزند.
دسته بندی مطالب
اخبار کسب وکار