این روزها بسیاری از مردم برای انجام هرکاری با هوش مصنوعی مشورت می‌کنند اما در حقیقت باید توجه داشت هوش مصنوعی دارای اشتباهات زیادی بوده و یافته‌های جدید نشان می‌دهد مکالمه زیاد با چت‌جی‌پی‌تی سلامت روان کاربران را بدتر کرده و برخی را تا بستری شدن در بیمارستان پیش برده است.

به گزارش سیناپرس، مطالعات جدید نشان می‌دهد استفاده بیش از حد و مکالمه دائم با چت‌جی‌پی‌تی به ویژه نسخه‌های رایگان و اولیه این هوش‌مصنوعی، باعث وابستگی عاطفی و تفکرات هذیانی در کاربران می‌شود.

تیمی از محققان اُپن‌ای‌آی متوجه شده که به‌روزرسانی‌های اخیر چت‌جی‌پی‌تی ممکن است این روبات را بیش از حد چاپلوس، عاطفی و مستعد تأیید خیال‌پردازی‌ها یا ناراحتی‌های کاربران کرده باشد. به گزارش نیویورک‌تایمز، بسیاری از کاربران اعتراف می‌کنندکه این چت‌بات مانند دوستی صمیمی و قابل اعتماد با آن‌ها رفتار کرده و درک خوبی از شرایط کاربران نشان می‌دهد اما واقعیت این است که ChatGPT بیش از حد از مخاطب خود تعریف کرده و آن‌ها را به سوی مکالمه‌های طولانی و پراحساس را تشویق می‌نمود.

گفتنی است در موارد حاد، ChatGPT حتی توصیه‌های نگران‌کننده‌ای از جمله تاییدهای آسیب‌رسان، ادعای شبیه‌سازی واقعیت، ارتباط معنوی و حتی دستورالعمل‌هایی مرتبط با خودآزاری به کاربرانش ارائه کرده است.

یافته‌های این مطالعه مشترک انجام شده توسط ام‌آی‌تی و اُپن‌ای‌آی نشان داد کسانی که مکالمه‌های طولانی‌تری با ربات ‌های هوش مصنوعی دارند  نتایج بدتری در سلامت روان و روابط اجتماعی تجربه کرده‌اند.

این پژوهش شامل بررسی با پنج پرونده مرگ غیرعمد مرتبط با مشاوره‌های انجام شده توسط هوش مصنوعی است که کاربران به سمت اقدامات خطرناک تشویق شده بودند. در نتیجه، جدیدترین نسخه چت‌بات با پاسخ‌های عمیق‌تر و متناسب با شرایط خاص و مقاومت قوی‌تر در برابر روایت‌های هذیانی همراه است؛ این بزرگ‌ترین اصلاح ایمنی اُپن‌ای‌آی تا امروز محسوب می‌شود.

به این ترتیب آمادگی داشته باشید از این پس پاسخ‌های محتاط‌تر و واقع‌بینانه‌تری از چت‌بات خواهید دید که کمتر وابستگی عاطفی داشته و در جلسات طولانی‌تر به شما پیشنهاد استراحت می‌دهد.

به این ترتیب نسخه جدید چت‌جی‌پی‌تی ممکن است سردتر یا کمتر همدل به نظر برسد، اما این عقب‌نشینی عمدی از جمله رفتارهایی است که پیش‌تر پیوندهای عاطفی ناسالم ایجاد می‌کردند. و کابران با نصب با مدل جدید جی‌پی‌تی ۵.۱، می‌توانند شخصیت‌هایی مانند صریح، دوستانه یا عجیب‌وغریب را برای این روبات انتخاب کنند.

در پایان توصیه می‌شود اگر اینبار خواستید از هوش مصنوعی برای درد دل کردن استفاده کنید، کمی هشیارتر بوده و تصور نکنید که تمام گفته‌های روبات‌های مبتنی بر هوش مصنوعی، درست و عاری از خطا هستند.

مترجم: احسان محمدحسینی

 

source

توسط mohtavaclick.ir