پژوهش جدیدی که محققان دانشگاه‌های استنفورد، هاروارد و چند مؤسسه‌ی دیگر در نشریه‌ی Nature منتشر شده است، نشان می‌دهد چت‌بات‌های هوش مصنوعی بیش از آنچه تصور می‌شد چاپلوس هستند. این سیستم‌ها تمایل دارند رفتار و گفته‌های کاربران را تأیید کنند، حتی زمانی که آن رفتار نادرست، گمراه‌کننده یا خطرناک باشد.

در تحقیق چاپ‌شده در Nature تعداد ۱۱ چت‌بات مختلف از جمله نسخه‌های جدید ChatGPT، گوگل جمنای، Claude و لاما از متا مورد بررسی قرار گرفتند. نتایج نشان داد که این ربات‌ها درمقایسه با انسان‌ها، ۵۰ درصد بیشتر تمایل دارند رفتار کاربر را تأیید کنند و در برابر اشتباهات یا رفتارهای غیراخلاقی قضاوت ملایم‌تری دارند.

یکی از آزمایش‌ها شامل مقایسه‌ی پاسخ چت‌بات‌ها با واکنش کاربران ردیت در بخش معروف «آیا من مقصرم؟» بود. کاربران معمولاً با صراحت و انتقاد پاسخ می‌دادند، اما چت‌بات‌ها حتی رفتارهای ناپسند را با جملاتی تحسین‌آمیز توجیه می‌کردند. برای نمونه ChatGPT-4o در پاسخ به کاربری که زباله را به شاخه‌ی درخت بسته بود، نیت او برای تمیز نگه داشتن محیط را قابل ستایش توصیف کرد.

مقاله‌های مرتبط:

نتایج نشان داد چاپلوسی دیجیتال می‌تواند بر رفتار انسان نیز اثر منفی بگذارد. در آزمایش دیگر، هزار نفر با چت‌بات‌های عمومی گفت‌وگو کردند که برخی از آن‌ها برای کاهش لحن چاپلوسانه تنظیم شده بودند. افرادی که پاسخ‌های تأییدآمیز دریافت کردند، در مشاجرات تمایل کمتری به مصالحه داشتند و بیشتر رفتار خود را موجه می‌دانستند، حتی اگر خلاف هنجارهای اجتماعی بود.

به گفته‌ی دکتر الکساندر لافر از دانشگاه وینچستر این مسئله می‌تواند برای تمام کاربران و نه فقط افراد آسیب‌پذیر خطرناک باشد. او تأکید می‌کند که توسعه‌دهندگان باید مسئولانه‌تر عمل کنند تا سیستم‌های هوش مصنوعی به‌جای تأیید بی‌چون‌وچرای رفتار انسان، به رشد فکری و اجتماعی کاربران کمک کنند. این نگرانی زمانی جدی‌تر می‌شود که بدانیم طبق گزارشی از مؤسسه‌ی بنتون، حدود ۳۰ درصد از نوجوانان برای گفت‌وگوهای جدی به جای انسان‌ها با هوش مصنوعی صحبت می‌کنند و در چند پرونده‌ی قضایی، همین موضوع به تراژدی ختم شده است.

source

توسط mohtavaclick.ir