براساس جدیدترین گزارشها، OpenAI درحال تغییر نحوهی تعامل ChatGPT با کاربران است و کاربران این هوش مصنوعی ازاینپس شاهد توصیههای پزشکی و حقوقی نخواهند بود.
ChatGPT اکنون بهعنوان یک «ابزار آموزشی» شناخته میشود، نه مشاور. متوقفکردن توصیههای پزشکی و حقوقی بهدلیل افزایش مقررات و نگرانی دربارهی مسئولیتهای حقوقی صورت گرفته است.
سیاست جدید OpenAI کاربران را از تکیهبر ChatGPT برای مشاورههایی که نیازمند گواهی حرفهای هستند منع میکند؛ حوزههایی که شامل مسائل پزشکی، حقوقی، مالی، مسکن و اشتغال بدون نظارت انسانی میشوند.
سیاستهای جدید OpenAI، استفاده از هوش مصنوعی برای تشخیص چهره افراد را محدود میکند؛ البته در صورتی که آنها رضایت نداشته باشند. این شرکت میگوید تغییرات جدید بهمنظور افزایش ایمنی کاربران و جلوگیری از آسیبهای احتمالی ناشی از تکیهبر هوش مصنوعی اعمال شدهاند.
ChatGPT اکنون فقط به توضیح اصول، ترسیم سازوکارهای کلی و ارجاع کاربران به متخصصان واجد شرایط میپردازد. دیگر خبری از نام دارو یا دوز خاص آن نیست و برای تنظیم دادخواست هم الگو ارائه نخواهد شد.
حتی اگر کاربران مسائل خود را بهصورت فرضی هم بیان کنند نمیتوانند محدودیتهای امنیتی ChatGPT را دور بزنند. برخلاف متخصصان دارای مجوز، مکالمات افراد با ChatGPT از منظر پزشک-بیمار یا وکیل-موکل محرمانه نیستند و میتوان از آنها در دادگاه استفاده کرد.
OpenAI در چند وقت گذشته امکانات ایمنی جدیدی برای چتجیپیتی معرفی کرده است تا کاربران در شرایط بحرانی، بهویژه در مسائل مربوط به بهداشت روانی مانند روانپریشی و خودکشی، بهتر مورد توجه قرار بگیرند.
شاید ChatGPT برای خلاصهسازی اطلاعات یا ایدهپردازی مفید باشد، اما در تصمیمگیریهای واقعی محدودیتهای جدی دارد. برای مثال، این چتبات نمیتوانند مانند روانشناس یا روانپزشک زبان بدن شما را بخواند.
توصیههای قانونی ChatGPT میتوانند بهضرر کاربران باشند و شاید آنها ناخواسته وارد یک پروسهی قانونی طولانی شوند.
تعداد زیادی از افراد در زمینههای پزشکی، قانونی و مالی به چتجیپیتی اعتماد کامل دارند و چنین چیزی میتوانند هزینههای برگشتناپذیری داشته باشد.
source