ادعای جدید «اوپن ای آی» نشان می دهد که این شرکت، مدل های هوش مصنوعی o1 و o3 را آموزش داده است تا درباره خط مشی ایمنی خود فکر کنند.
– مدل های هوش مصنوعی اوپن ای آی درباره حفظ ایمنی خود فکر می کنند ادعای جدید اوپن ای آی نشان می دهد که این شرکت، مدل های هوش مصنوعی o1 و o3 را آموزش داده است تا درباره خط مشی ایمنی خود فکر کنند.
به گزارش ایسنا، شرکت اوپن ای آی (OpenAI) در روز جمعه خانواده جدیدی را از مدل های هوش مصنوعی استدلالی معرفی کرد.
این استارت آپ ادعا می کند که مدل موسوم به o3 از مدل o1 و سایر مدل های منتشرشده، پیشرفته تر است.
به نظر می رسد این پیشرفت ها از مقیاس بندی محاسبات زمان آزمایش به دست آمده اند اما اوپن ای آی می گوید از یک پارادایم جدید ایمنی برای آموزش مدل های سری o خود استفاده کرده است.
به نقل از تک کرانچ، اوپن ای آی روز جمعه پژوهش جدیدی را درباره هم ترازی مشورتی منتشر کرد و آخرین راه خود را برای اطمینان از هم ترازی مدل های هوش مصنوعی استدلالی با ارزش های توسعه دهندگان انسانی آنها شرح داد.
اوپن ای آی از این روش استفاده کرد تا o1 و o3 را وادارد که درباره خط مشی ایمنی خود در طول استنتاج -مرحله ای که کاربر دکمه enter را فشار می دهد- فکر کنند.
source