به گزارش خبرخوان
مؤسسه ایمنی هوش مصنوعی بریتانیا که اخیراً تأسیس شده است، نرمافزاری را با مجموعهای از ابزارهای گوناگون برای تحکیم ایمنی هوش مصنوعی معارفه کرد. این ابزارها بهمنظور تسهیل برسیهای هوش مصنوعی و برای سازمانهای تحقیقاتی و دانشگاهها طراحی شده است.
بر پایه بیانیه مطبوعاتی این مؤسسه، این مجموعه ابزار که «Inspect» نامیده میشود تحت مجوز دانشگاه MIT و بهصورت متنباز در دسترس است. مقصد این ابزارها نیز برسی قابلیتهای خاص مدلهای هوش مصنوعی همانند دادههای مهم و توانایی استدلال آنها است.
نرمافزار تازه بریتانیا برای آزمایش ایمنی مدلهای هوش مصنوعی
در بیانیه مطبوعاتی مؤسسه ایمنی بریتانیا ادعا شده که برای اولینبار است که یک پلتفرم آزمایش ایمنی هوش مصنوعی، با حمایتدولتی و برای منفعت گیری گستردهتر انتشار شده است.
بهطورکلی بهدستآوردن معیارهایی برای برسی مدلهای هوش مصنوعی دشوار است؛ چراکه زیرساختها، دادههای آموزشی و دیگر جزئیات کلیدی مدلهای پیشرفته هوش مصنوعی توسط شرکتهای گسترشدهنده نهان نگه داشته خواهد شد. به این علت از این لحاظ Inspect با مسائلی مواجه خواهد می بود، یقیناً این نرمافزار تلاش دارد با تکنیکهای تازه این مدلها را برسی کند.
نرمافزار Inspect از سه جزء مهم راه اندازی شده است: دادهها، حلکنندهها (Solvers) و امتیازدهندهها (Scorers). قسمت دادهها مثالهایی را برای آزمونهای برسی نقل میکنند. سپس حلکنندهها این آزمونها را انجام خواهند داد. درنهایت امتیازدهندگان کار حلکنندهها را برسی میکنند.
در فروردین ماه، آمریکا و بریتانیا توافقنامهای برای آزمایش ایمنی هوش مصنوعی پیشرفته امضا کردند. بر پایه این توافقنامه، هر دو سرزمین راه حلها و ابزارهایی برای برسی ایمنی مدلهای هوش مصنوعی تشکیل خواهند کرد. بهگفتن بخشی از این همکاری، ایالاتمتحده نیز تصمیم دارد مؤسسه ایمنی هوش مصنوعی خود را راهاندازی کند. این مؤسسه عمدتاً مسئولیت برسی خطرات ناشی از هوش مصنوعی را بهمسئولیت خواهد داشت.
دسته بندی مطالب
اخبار کسب وکار
منبع