**هوش مصنوعی هنوز نمیتواند مثل انسان تفکر کند**
پژوهشگران اپل در تحقیق تازهای دریافتند که هوش مصنوعی ما هنوز فرارسیده است که مانند انسان تفکر کند. این نتیجه در بررسی عملکردهای مدلهای مختلف هوش مصنوعی در حل مسائل پیچیده به دست آمد. محققان اگر مدلهای پیشرفته هوش مصنوعی با قابلیت استدلال با مدلهای زبانی متداول مقایسه کردند؛ ترسیم خصوصیات عملکردگرایانهتر این دونوع مدل و اینکه آیا مدلهای بزرگتر دارای عملکرد متفاوتی نسبت به مدلهای کوچکتر هستند را ارایه کردند.
این بررسی توسط گروهی از پژوهشگران اپل انجام شد و توانایی مدلهای LRM در حل مسائل منطقی بررسی شد. محیطهایی تحت کنترل مثل معمای برج هانوی و عبور از رودخانه ایجاد شد تا سطوح مختلفی از پیچیدگی را تعریف کنند. کارشناسان وظایف مختلفی برای مدلها آمیخته و بعداً مقایسه کردند تا عملکرد مدلها را نه فقط در ارائهی پاسخ نهایی، بلکه در نحوهی استدلال درونیشان ارزیابی کنند.
**جلوگیری از پیچیدگی محاسباتی**
مدلهای مختلف که از ساختارهای استدلالی بهره میبردند برتری پیدا کردند، اما هنگامی که پیچیدگی بیشازحد افزایش یافت، عملکرد همهی مدلها بهکلی فروپاشید و دقتشان به صفر رسید؛ حتی در شرایطی که منابع محاسباتی کافی در اختیار داشتند.
در آسیبشناسی مسیرهای استدلالی مدلها رفتارهای غیرمنتظرهای را آشکار کردند. در مراحل ابتدایی، مدلها با افزایش پیچیدگی، فرآیند تفکر خود را طولانیتر میکردند؛ اما نزدیک به نقطهی شکست، این روند برعکس شد و مدت تفکر کاهش یافت؛ حتی زمانی که امکان استفادهی بیشتر از منابع وجود داشت.
تحقیق نشان میدهد که مدلها در فرایند استدلال خود، با افزایش پیچیدگی، فرآیند تفکر خود را طولانیتر میکنند، اما با نزدیک شدن به نقطه شکست، این روند برعکس میشود و مدت تفکر کاهش مییابد. این نتیجه نشاندهندهی محدودیتها و ضعفهای مدلها در مواجهه با مسائل پیچیده و مهم است.
**کیفیت و حرمت**
کیفیت کار مدلها در مواجهه با مسائل آشنا بهمراتب بهتر از معماهای کمتر شناختهشده بود. این یافته نشانه وابستگی شدید مدلها به دادههای آموزشی است و نشان میدهد که مدلها در واقع توانایی واقعی در استدلال قابل تعمیم ندارند.
شیوه آزمون مدلها و دادن دستورالعملها و کلیشههای گوناگون، قابلیت تفکر و مدارا را دراین مدلها نشان نمیدهد. وگرنه در بسیاری از случаев با تنوع دادن به کار مدلها و طرق آزمون، جوابهای بهتری به دست میآید.
این تحقیق اهمیت تضمینپذیری حدود برخی از مدلها را که بهدلیل مسئولیتهای ازدحامی یحتمل، خطرناک شدهاند، برجسته کرد. بدین جهت تصدیق میکنیم که به این شبهه باید تحقیق بیشتری بر سر آن رفت تا بتونیم اطمینان به نتایج را داشته باشیم. اگر هدفتان میانهروی کردن برای انطباق برای قوانین هر نقطهای درپنجره بهینهسازیایست که در ضمن آن از اننتقادات برای همراهی تجرید پروبلماتیک باشد؛ بسیار زود باید با رویکردی همه جانبهتر به این آزمون ها نگاهی بگذارید.