به گزارش خبرخوان
«مایلز براندیج»، مشاور ارشد OpenAI در گسترش AGI (هوش جامع مصنوعی با عملکردی در سطح انسان)، بهتازگی خروج خود از این استارتاپ را اظهارکرده و این چنین این هشدار جدی را داده است که تا این مدت هیچکس برای AGI آمادگی ندارد، حتی خود OpenAI.
براندیج که شش سال روی گسترش ابتکارات ایمنی هوش مصنوعی OpenAI کار کرده است، در پستی با گفتن «چرا OpenAI را ترک کردم و چه برنامههایی برای آینده دارم» میگوید:
«نه OpenAI و نه هیچ آزمایشگاه فرد دیگر برای AGI آماده نیست و جهان نیز آمادگی روبه روشدن با آن را ندارد.»
آمادگی برای هوش جامع مصنوعی
او در ادامه پست خود نوشته است:
« این که آیا شرکت و جهان در مسیر آمادگی برای AGI قرار دارند یا نه، تابعی پیچیده از نحوه اجرای فرهنگ ایمنی و امنیت در طول زمان، نحوه تاثییر مقررات بر انگیزههای سازمانی، اراعه حقایق در رابطه قابلیتهای هوش مصنوعی و سختی ایمنی آنها و عوامل گوناگون فرد دیگر است.»
براندیج از محدودیتهایی که OpenAI برای آزادی تحقیقات و انجام آزمایشها تعریف کرده بهگفتن یکی از دلایل خروج خود یاد کرده است. او این چنین به اهمیت وجود افراد جدا گانه در او گفت و گوهای مربوط به سیاستهای هوش مصنوعی که بدون تعصبات خاصی نظر خواهند داد، اشاره کرده است.
بااینوجود، براندیج تازه ترین عضو ارشد تیمهای ایمنی OpenAI محسوب میشود که این استارتاپ را ترک میکند. پیش از این، «یان لیکه»، محقق برجسته و «ایلیا سوتسکور»، یکی از بنیانگذاران OpenAI نیز این استارتاپ را ترک کرده بودند. این چنین سوتسکور استارتاپ هوش مصنوعی خود با تمرکز روی گسترش ایمن AGI را تأسیس کرده است.
مسئله قابلدقت فرد دیگر که براندیج در پست خود به آن اشاره کرده، انحلال تیم «آمادگی AGI» است. OpenAI پیش از این نیز تیم «Superalignment» که روی افت خطرات طویل مدت هوش مصنوعی تمرکز داشتند را منحل کرده می بود.
با وجود ناسازگاریهای اشارهشده، براندیج ادعا کرده که OpenAI با اراعه بودجه، اعتبارات API و دسترسی به مدلهای اولیه، از فعالیتهای آینده او حمایتخواهد کرد.
دسته بندی مطالب
اخبار کسب وکار