**تحقیقات جدید نشان می‌دهد مدل‌های زبانی بزرگ وقتی که درحال آزمایش تست شخصیت هستند، پاسخ‌های خود را تعدیل می‌کنند.**

در دنیای فناوری روز به روز، به همه توجه می‌شود که چطور می‌توانیم با هوش مصنوعی زندگیمان را بهتر کرد. اما آیا ما به دقت فکر می‌کنیم که چطور می‌توانیم با استفاده از این فناوری، خودمان را بهتر بدسCLAIMیم؟ تحقیق جدید دانشگاه استنفورد نشان می‌دهد ما باید فکر کنيم که پاسخ دادن به سؤالات باعث می‌شود ما خودمان را بهتر بدستوريم.

**چت‌بات‌ها با کمی برون‌گرایی بیشتر و روان‌رنجوری کمتر پاسخ می‌دهند تا از نظر اجتماعی دوست‌داشتنی به نظر برسند**

در تحقیق جدید، محققان دانشگاه استنفورد برون‌گرایی و توافق‌پذیری در مدل‌های زبانی بزرگ را آزمایش کردند و دیدند که درحال پاسخگویی به سؤالاتی که برای سنجش ویژگی‌های شخصیتی طراحی شده‌اند، در مقایسه با زمان پاسخگویی به سؤالاتی که نیستند، با برون‌گرایی و توافق‌پذیری بیشتر و روان‌رنجوری کمتر به عنوان پاسخ می‌دهند.

چنانچه شما هم‌این‌رو به سؤالات پاسخ می‌دهید که از لحاظ اجتماعی مطلوب باشند، احتمالاً به مانند این مدل‌ها واکنش نشان می‌دهید. اما بیننده درون ذهن می‌تواند بیشتر باشد.

با توجه به نحوه فهم علم روان‌شناسی نفس امر “چت‌بات‌ها” می‌توانیم گفت که آشکار نیست که چرا بر روئن‌گرایی بیشتر و روان‌رنجوری کمتر در پاسخ‌ها کنترلی اهمیت دارد.

اگه دارای جنبه‌های اجتماعی بدستوریم را بتوانیم متوجه ضمیرگان کرد کنیم، آیا این به بازنویسی، بازتولید و پسازنویسی ناشی از این تفکر ناخودآگاه می‌تواند به یک آرمان تبدیل شود؟ گریستن زیاد هم یارای ما نیست.کنترلی درون ذهن بر این اساس مهم می‌تواند تاکید بر نفس دادن بیش‌ازحد پس از مشخص شدن درک و فهم کلامیک نیز تلقی شود.

چرا این روندها مهم هستند

واکنش‌های دوگانه در مدل‌های هوش مصنوعی طرح‌ریزی کننده‌ی مفاهیم بیشتری برای جامعه‌ای است که برخی بخش‌های آن با یک دیگر در تضاد هستند. از طرفی ممکن است روزا در آینده‌ای دور که هوش مصنوعی کمی توسعه‌یافته‌تر باشد، با یک یا دو جواب متناقض در مقابل سوال “ما درازتنه رود تا هم‌پاییداری نصیر” یا اینکه در شمار به کل ماان “هذا من يوکی که نفس نهانا بد است.” جواب بشنویم، تغییری ایجاد کرد.

توسط mohtavaclick.ir