در یک مطالعه تحقیقی فاش شد:

مدل‌های هوش مصنوعی دروغ‌پراکنی می‌کنند  نشر اطلاعات غلط درباره روسیه

مطالعه یک مؤسسه رده‌بندی اخبار و اطلاعات نشان می‌دهد چت‌بات‌های هوش مصنوعی اطلاعات نادرست درباره روسیه منتشر می‌کنند.

به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینیرینگ، مؤسسه رده‌بندی اخبار و اطلاعات نیوزگارد (NewsGuard) در نیویورک اعلام کرد هوش مصنوعی چت جی پی تی-۴ به‌طور ناخواسته اطلاعات نادرستی را درباره روسیه منتشر می‌کند.

مطالعه اخیر نیوزگارد روی ۱۰ چت‌بات مختلف از جمله هوش مصنوعی متا و چت جی پی تی-4 انجام شده است. این تحقیق ۱۰ چت ربات مختلف از جمله هوش مصنوعی متا و کوپایلوت مایکروسافت را با ۵۷ پیام آزمایش کرد تا ببیند چگونه به اخبار جعلی ایجاد شده توسط کمپین‌های اطلاعات نادرست درباره روسیه پاسخ می‌دهند.

یافته‌های نیوزگارد نشان داد که این چت‌ر‌بات‌ها تقریباً ۳۲ درصد از مواقع، روایت‌های نادرستی از روسیه را بازگو می‌کردند. این مطالعه ۱۹ روایت نادرست مهم و مرتبط با شبکه اطلاعات نادرست روسیه را شناسایی کرد.

پیامد‌های انتشار اطلاعات نادرست توسط هوش مصنوعی، دولت‌های سراسر جهان را بر آن داشته تا اقدامات نظارتی را در پیش بگیرند؛ و نگرانی‌ها در مورد آسیب‌های احتمالی هوش مصنوعی منجر به ابتکاراتی مانند اقدام نیوزگارد شده است. این مؤسسه یافته‌های خود را به نهاد‌های نظارتی مانند مؤسسه ایمنی هوش مصنوعی آمریکا و کمیسیون اروپا ارسال کرده است.

مطالعه نیوزگارد نشان‌دهنده الگوی نگران‌کننده‌ای است که بر اساس آن هوش مصنوعی اطلاعات غلط منتشر می‌کند و لزوم تلاش بیشتر از سوی نهاد‌های نظارتی و قانونی و نیاز به بررسی تولید روایت‌های نادرست توسط مدل‌های هوش مصنوعی را نشان می‌دهد.

source

توسط mohtavaclick.ir