براساس جدیدترین گزارش‌ها، OpenAI درحال تغییر نحوه‌ی تعامل ChatGPT با کاربران است و کاربران این هوش مصنوعی ازاین‌پس شاهد توصیه‌های پزشکی و حقوقی نخواهند بود.

ChatGPT اکنون به‌عنوان یک «ابزار آموزشی» شناخته می‌شود، نه مشاور. متوقف‌کردن توصیه‌های پزشکی و حقوقی به‌دلیل افزایش مقررات و نگرانی درباره‌ی مسئولیت‌های حقوقی صورت گرفته است.

سیاست جدید OpenAI کاربران را از تکیه‌بر ChatGPT برای مشاوره‌هایی که نیازمند گواهی حرفه‌ای هستند منع می‌کند؛ حوزه‌هایی که شامل مسائل پزشکی، حقوقی، مالی، مسکن و اشتغال بدون نظارت انسانی می‌شوند.

سیاست‌های جدید OpenAI، استفاده از هوش مصنوعی برای تشخیص چهره افراد را محدود می‌کند؛ البته در صورتی که آن‌ها رضایت نداشته باشند. این شرکت می‌گوید تغییرات جدید به‌منظور افزایش ایمنی کاربران و جلوگیری از آسیب‌های احتمالی ناشی از تکیه‌‌بر هوش مصنوعی اعمال شده‌اند.

ChatGPT اکنون فقط به توضیح اصول، ترسیم سازوکارهای کلی و ارجاع کاربران به متخصصان واجد شرایط می‌پردازد. دیگر خبری از نام دارو یا دوز خاص آن نیست و برای تنظیم دادخواست هم الگو ارائه نخواهد شد.

حتی اگر کاربران مسائل خود را به‌صورت فرضی هم بیان کنند نمی‌توانند محدودیت‌های امنیتی ChatGPT را دور بزنند. برخلاف متخصصان دارای مجوز، مکالمات افراد با ChatGPT از منظر پزشک-بیمار یا وکیل-موکل محرمانه نیستند و می‌توان از آن‌ها در دادگاه استفاده کرد.

OpenAI در چند وقت گذشته امکانات ایمنی جدیدی برای چت‌جی‌پی‌تی معرفی کرده است تا کاربران در شرایط بحرانی، به‌ویژه در مسائل مربوط به بهداشت روانی مانند روان‌پریشی و خودکشی، بهتر مورد توجه قرار بگیرند.

شاید ChatGPT برای خلاصه‌سازی اطلاعات یا ایده‌پردازی مفید باشد، اما در تصمیم‌گیری‌های واقعی محدودیت‌های جدی دارد. برای مثال، این چت‌بات نمی‌توانند مانند روان‌شناس یا روان‌پزشک زبان بدن شما را بخواند.

مقاله‌های مرتبط

توصیه‌های قانونی ChatGPT می‌توانند به‌ضرر کاربران باشند و شاید آن‌ها ناخواسته وارد یک پروسه‌ی قانونی طولانی شوند.

تعداد زیادی از افراد در زمینه‌های پزشکی، قانونی و مالی به چت‌جی‌پی‌تی اعتماد کامل دارند و چنین چیزی می‌توانند هزینه‌های برگشت‌ناپذیری داشته باشد.

source

توسط mohtavaclick.ir