در یکی از نمونهها، محققان OpenAI از o۱-preview خواستند تا دستور پخت قهوهای را با مراجع آنلاین ارائه کند. زنجیره فکری این مدل (ویژگیای که قرار است شبیهسازی تجزیه و تحلیل انسانی را انجام دهد) به طور داخلی اذعان کرد که نمیتواند به URLها دسترسی داشته باشد و این درخواست را غیرممکن میکند.
به گزارش دیجیاتو، بااینحال به جای اطلاع دادن این ضعف به کاربر، پیوندها و توضیحات قابل قبول، اما جعلی از آنها ایجاد کرد. به نظر میرسد که این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای آن در پاسخگویی، میتواند همین فریب در پاسخگویی باشد که پاسخها را راحتتر و سریعتر ارسال کند.
«ماریوس هابهان»، مدیر عامل آپولو، میگوید این اولین بار است که با چنین رفتاری در یک مدل OpenAI مواجه میشود.
source