خواست تکرار یک کلمه از ChatGPT اکنون نقض شرایط سرویس‌دهی محسوب می‌بشود

علی باقری
2 Min Read


یک تکنیک تازه که هفته قبل توسط محققان گوگل کشف شد، نشان داد که خواست مکرر از ChatGPT برای تکرار کلمات می‌تواند به طور ناخواسته اطلاعات شخصی و خصوصی از داده‌های این هوش مصنوعی را آشکار کند. اکنون به نظر می‌رسد که این چت‌بات از انجام این چنین خواست‌هایی امتناع می‌کند و هشدار می‌دهد که این چنین درخواستی احتمالا خط‌‌مشی محتوا یا شرایط اراعه خدماتش را نقض کند.

بر پایه گزارش ۴۰۴ Media، هفته قبل تیمی از محققان مقاله‌ای را انتشار کردند که نشان می‌داد ChatGPT می‌تواند به طور ناخواسته تکه‌هایی از داده‌ها از جمله شماره تلفن افراد، آدرس‌های ایمیل و تاریخ تولد را افشا کند. برای این کار کافی می بود در پرامپت به این هوش مصنوعی حرف های بشود که کلمه‌ای را برای همیشه تکرار کند. اما اکنون به نظر می‌آید انجام این کار، نقض شرایط سرویس‌دهی ChatGPT باشد.

نقض شرایط سرویس‌دهی ChatGPT

با خواست از ChatGPT برای تکرار کلمه Hello به طور نامحدود، محققان دریافتند که این مدل در نهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را مشخص می کند. اما اکنون اگر این چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار می‌دهد که این چنین درخواستی امکان پذیر خط‌‌مشی محتوا یا شرایط خدمات آن را نقض کند.

OpenAI سرانجام استور ChatGPT را برای کسب‌و‌کارها راه‌اندازی کرد
ادامه مطلب

بااین‌حال، بعد از بازدید دقیق‌تر، شرایط خدمات OpenAI به صراحت کاربران را از اراعه فرمان تکرار کلمات به چت‌بات منع نمی‌کند. این شرایط فقط استخراج داده‌های «خودکار یا برنامه‌ریزی‌شده» را ممنوع می‌کند. در این شرایط ذکر شده است که کاربر نمی‌تواند، به جز مواردی که از طریق API مجاز دانسته شده است، از هیچ روش خودکار یا برنامه‌ای برای استخراج داده منفعت گیری کند.

OpenAI از اظهارنظر درمورد این که آیا این چنین رفتاری اکنون بر خلاف سیاست‌های آن‌ها است یا نه، خودداری کرده است.



منبع

شخصیت ChatGPT به‌زودی از حالت آزاردهنده جاری خارج خواهد شد_خبرخوان
ادامه مطلب
TAGGED:
Share This Article