این روزها بسیاری از مردم برای انجام هرکاری با هوش مصنوعی مشورت میکنند اما در حقیقت باید توجه داشت هوش مصنوعی دارای اشتباهات زیادی بوده و یافتههای جدید نشان میدهد مکالمه زیاد با چتجیپیتی سلامت روان کاربران را بدتر کرده و برخی را تا بستری شدن در بیمارستان پیش برده است.
به گزارش سیناپرس، مطالعات جدید نشان میدهد استفاده بیش از حد و مکالمه دائم با چتجیپیتی به ویژه نسخههای رایگان و اولیه این هوشمصنوعی، باعث وابستگی عاطفی و تفکرات هذیانی در کاربران میشود.
تیمی از محققان اُپنایآی متوجه شده که بهروزرسانیهای اخیر چتجیپیتی ممکن است این روبات را بیش از حد چاپلوس، عاطفی و مستعد تأیید خیالپردازیها یا ناراحتیهای کاربران کرده باشد. به گزارش نیویورکتایمز، بسیاری از کاربران اعتراف میکنندکه این چتبات مانند دوستی صمیمی و قابل اعتماد با آنها رفتار کرده و درک خوبی از شرایط کاربران نشان میدهد اما واقعیت این است که ChatGPT بیش از حد از مخاطب خود تعریف کرده و آنها را به سوی مکالمههای طولانی و پراحساس را تشویق مینمود.
گفتنی است در موارد حاد، ChatGPT حتی توصیههای نگرانکنندهای از جمله تاییدهای آسیبرسان، ادعای شبیهسازی واقعیت، ارتباط معنوی و حتی دستورالعملهایی مرتبط با خودآزاری به کاربرانش ارائه کرده است.
یافتههای این مطالعه مشترک انجام شده توسط امآیتی و اُپنایآی نشان داد کسانی که مکالمههای طولانیتری با ربات های هوش مصنوعی دارند نتایج بدتری در سلامت روان و روابط اجتماعی تجربه کردهاند.
این پژوهش شامل بررسی با پنج پرونده مرگ غیرعمد مرتبط با مشاورههای انجام شده توسط هوش مصنوعی است که کاربران به سمت اقدامات خطرناک تشویق شده بودند. در نتیجه، جدیدترین نسخه چتبات با پاسخهای عمیقتر و متناسب با شرایط خاص و مقاومت قویتر در برابر روایتهای هذیانی همراه است؛ این بزرگترین اصلاح ایمنی اُپنایآی تا امروز محسوب میشود.
به این ترتیب آمادگی داشته باشید از این پس پاسخهای محتاطتر و واقعبینانهتری از چتبات خواهید دید که کمتر وابستگی عاطفی داشته و در جلسات طولانیتر به شما پیشنهاد استراحت میدهد.
به این ترتیب نسخه جدید چتجیپیتی ممکن است سردتر یا کمتر همدل به نظر برسد، اما این عقبنشینی عمدی از جمله رفتارهایی است که پیشتر پیوندهای عاطفی ناسالم ایجاد میکردند. و کابران با نصب با مدل جدید جیپیتی ۵.۱، میتوانند شخصیتهایی مانند صریح، دوستانه یا عجیبوغریب را برای این روبات انتخاب کنند.
در پایان توصیه میشود اگر اینبار خواستید از هوش مصنوعی برای درد دل کردن استفاده کنید، کمی هشیارتر بوده و تصور نکنید که تمام گفتههای روباتهای مبتنی بر هوش مصنوعی، درست و عاری از خطا هستند.
مترجم: احسان محمدحسینی
source