شرکت آنتروپیک اعلام کرد که شرایط خدمات و سیاست حفظ حریم خصوصی خود را تغییر می‌دهد و قصد دارد برای آموزش چت‌بات هوش مصنوعی Claude از داده‌های کاربران استفاده کند.

کاربران جدید آنتروپیک هنگام ثبت‌نام امکان انصراف خواهند داشت و کاربران فعلی اعلان پاپ‌آپ دریافت می‌کنند که به آن‌ها اجازه می‌دهد استفاده از داده‌هایشان برای آموزش هوش مصنوعی را غیرفعال کنند. این اعلان با عنوان Updates to Consumer Terms and Policies نمایش داده می‌شود و اگر گزینه‌ی You can help improve Claude غیرفعال شود، چت‌ها برای آموزش ذخیره نمی‌شوند. کاربرانی که سیاست جدید را بپذیرند، تمامی گفت‌وگوهای جدید یا ادامه‌یافته آن‌ها برای آموزش مدل استفاده خواهد شد. مهلت انتخاب یا لغو این گزینه تا تاریخ ۲۸ سپتامبر ۲۰۲۵ (۶ مهر ۱۴۰۴) است.

کاربران در صورت تمایل می‌توانند از طریق بخش Settings > Privacy و غیرفعال کردن گزینه‌ی Help improve Claude، اشتراک داده‌هایشان را متوقف کنند.

آنتروپیک می‌گوید سیاست جدید به توسعه‌ی مدل‌های هوش مصنوعی توانمندتر و کاربردی‌تر کمک می‌کند و ایمنی در برابر سؤاستفاده‌هایی مانند کلاهبرداری و سوءاستفاده‌های مخرب را افزایش می‌دهد. این تغییرات شامل تمام کاربران پلن‌های رایگان، پرو و مکس خواهد شد اما سرویس‌های تجاری مانند Claude for Work یا Claude for Education را در بر نمی‌گیرد.

مقاله‌های مرتبط:

یکی از تغییرات مهم دیگر Claude، افزایش مدت زمان نگهداری داده‌ها است. اگر کاربری اجازه‌ی استفاده از داده‌هایش را برای آموزش بدهد، آنتروپیک آن‌ها را به مدت ۵ سال ذخیره می‌کند. البته گفت‌وگوهایی که حذف شوند، وارد چرخه‌ی آموزش مدل نخواهند شد. برای کاربرانی که اشتراک داده را نمی‌پذیرند، همچنان دوره‌ی نگهداری ۳۰ روزه اعمال می‌شود.

آنتروپیک تأکید می‌کند که ترکیبی از ابزارها و فرایندهای خودکار برای فیلترکردن داده‌های حساس به‌کار گرفته می‌شود و هیچ اطلاعاتی به سایر شرکت‌ها و سازمان‌ها منتقل نخواهد شد.

source

توسط mohtavaclick.ir