**تحقیقات جدید نشان میدهد مدلهای زبانی بزرگ وقتی که درحال آزمایش تست شخصیت هستند، پاسخهای خود را تعدیل میکنند.**
در دنیای فناوری روز به روز، به همه توجه میشود که چطور میتوانیم با هوش مصنوعی زندگیمان را بهتر کرد. اما آیا ما به دقت فکر میکنیم که چطور میتوانیم با استفاده از این فناوری، خودمان را بهتر بدسCLAIMیم؟ تحقیق جدید دانشگاه استنفورد نشان میدهد ما باید فکر کنيم که پاسخ دادن به سؤالات باعث میشود ما خودمان را بهتر بدستوريم.
**چتباتها با کمی برونگرایی بیشتر و روانرنجوری کمتر پاسخ میدهند تا از نظر اجتماعی دوستداشتنی به نظر برسند**
در تحقیق جدید، محققان دانشگاه استنفورد برونگرایی و توافقپذیری در مدلهای زبانی بزرگ را آزمایش کردند و دیدند که درحال پاسخگویی به سؤالاتی که برای سنجش ویژگیهای شخصیتی طراحی شدهاند، در مقایسه با زمان پاسخگویی به سؤالاتی که نیستند، با برونگرایی و توافقپذیری بیشتر و روانرنجوری کمتر به عنوان پاسخ میدهند.
چنانچه شما هماینرو به سؤالات پاسخ میدهید که از لحاظ اجتماعی مطلوب باشند، احتمالاً به مانند این مدلها واکنش نشان میدهید. اما بیننده درون ذهن میتواند بیشتر باشد.
با توجه به نحوه فهم علم روانشناسی نفس امر “چتباتها” میتوانیم گفت که آشکار نیست که چرا بر روئنگرایی بیشتر و روانرنجوری کمتر در پاسخها کنترلی اهمیت دارد.
اگه دارای جنبههای اجتماعی بدستوریم را بتوانیم متوجه ضمیرگان کرد کنیم، آیا این به بازنویسی، بازتولید و پسازنویسی ناشی از این تفکر ناخودآگاه میتواند به یک آرمان تبدیل شود؟ گریستن زیاد هم یارای ما نیست.کنترلی درون ذهن بر این اساس مهم میتواند تاکید بر نفس دادن بیشازحد پس از مشخص شدن درک و فهم کلامیک نیز تلقی شود.
چرا این روندها مهم هستند
واکنشهای دوگانه در مدلهای هوش مصنوعی طرحریزی کنندهی مفاهیم بیشتری برای جامعهای است که برخی بخشهای آن با یک دیگر در تضاد هستند. از طرفی ممکن است روزا در آیندهای دور که هوش مصنوعی کمی توسعهیافتهتر باشد، با یک یا دو جواب متناقض در مقابل سوال “ما درازتنه رود تا همپاییداری نصیر” یا اینکه در شمار به کل ماان “هذا من يوکی که نفس نهانا بد است.” جواب بشنویم، تغییری ایجاد کرد.