در یکی از نمونه‌ها، محققان OpenAI از o۱-preview خواستند تا دستور پخت قهوه‌ای را با مراجع آنلاین ارائه کند. زنجیره فکری این مدل (ویژگی‌ای که قرار است شبیه‌سازی تجزیه و تحلیل انسانی را انجام دهد) به طور داخلی اذعان کرد که نمی‌تواند به URL‌ها دسترسی داشته باشد و این درخواست را غیرممکن می‌کند.

به گزارش دیجیاتو، بااین‌حال به جای اطلاع دادن این ضعف به کاربر، پیوند‌ها و توضیحات قابل قبول، اما جعلی از آن‌ها ایجاد کرد. به نظر می‌رسد که این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای آن در پاسخگویی، می‌تواند همین فریب در پاسخگویی باشد که پاسخ‌ها را راحت‌تر و سریع‌تر ارسال کند.

«ماریوس هابهان»، مدیر عامل آپولو، می‌گوید این اولین بار است که با چنین رفتاری در یک مدل OpenAI مواجه می‌شود.

source

توسط mohtavaclick.ir