پژوهش جدیدی که محققان دانشگاههای استنفورد، هاروارد و چند مؤسسهی دیگر در نشریهی Nature منتشر شده است، نشان میدهد چتباتهای هوش مصنوعی بیش از آنچه تصور میشد چاپلوس هستند. این سیستمها تمایل دارند رفتار و گفتههای کاربران را تأیید کنند، حتی زمانی که آن رفتار نادرست، گمراهکننده یا خطرناک باشد.
در تحقیق چاپشده در Nature تعداد ۱۱ چتبات مختلف از جمله نسخههای جدید ChatGPT، گوگل جمنای، Claude و لاما از متا مورد بررسی قرار گرفتند. نتایج نشان داد که این رباتها درمقایسه با انسانها، ۵۰ درصد بیشتر تمایل دارند رفتار کاربر را تأیید کنند و در برابر اشتباهات یا رفتارهای غیراخلاقی قضاوت ملایمتری دارند.
یکی از آزمایشها شامل مقایسهی پاسخ چتباتها با واکنش کاربران ردیت در بخش معروف «آیا من مقصرم؟» بود. کاربران معمولاً با صراحت و انتقاد پاسخ میدادند، اما چتباتها حتی رفتارهای ناپسند را با جملاتی تحسینآمیز توجیه میکردند. برای نمونه ChatGPT-4o در پاسخ به کاربری که زباله را به شاخهی درخت بسته بود، نیت او برای تمیز نگه داشتن محیط را قابل ستایش توصیف کرد.
نتایج نشان داد چاپلوسی دیجیتال میتواند بر رفتار انسان نیز اثر منفی بگذارد. در آزمایش دیگر، هزار نفر با چتباتهای عمومی گفتوگو کردند که برخی از آنها برای کاهش لحن چاپلوسانه تنظیم شده بودند. افرادی که پاسخهای تأییدآمیز دریافت کردند، در مشاجرات تمایل کمتری به مصالحه داشتند و بیشتر رفتار خود را موجه میدانستند، حتی اگر خلاف هنجارهای اجتماعی بود.
به گفتهی دکتر الکساندر لافر از دانشگاه وینچستر این مسئله میتواند برای تمام کاربران و نه فقط افراد آسیبپذیر خطرناک باشد. او تأکید میکند که توسعهدهندگان باید مسئولانهتر عمل کنند تا سیستمهای هوش مصنوعی بهجای تأیید بیچونوچرای رفتار انسان، به رشد فکری و اجتماعی کاربران کمک کنند. این نگرانی زمانی جدیتر میشود که بدانیم طبق گزارشی از مؤسسهی بنتون، حدود ۳۰ درصد از نوجوانان برای گفتوگوهای جدی به جای انسانها با هوش مصنوعی صحبت میکنند و در چند پروندهی قضایی، همین موضوع به تراژدی ختم شده است.
source