درحالی‌که کاربردهای هوش مصنوعی در حوزه‌هایی مانند آموزش، پزشکی، سرگرمی و رایانش همچنان با تحسین و جنجال همراه است، برخی کاربران راه‌های غیرقانونی و خلاقانه‌ای برای دور زدن محدودیت‌های این ابزارها یافته‌اند. در ابتدای سال جاری برخی توانستند با استفاده از کوپایلت مایکروسافت و فقط با پرسیدن سؤال ساده درباره‌ی فعال‌سازی ویندوز ۱۱ به اسکریپتی دست یابند که این سیستم‌عامل را بدون خرید لایسنس فعال می‌کرد.

مایکروسافت پس از آگاهی از سوءاستفاده‌ها، دسترسی کوپایلت به چنین درخواست‌هایی را محدود کرد. اما این پایان ماجرا نبود. حالا کاربران سراغ ChatGPT رفته‌اند و تلاش می‌کنند با استفاده از داستان‌پردازی احساسی و ترفندهای عجیب مثل روایت فوت مادربزرگ، این چت‌بات را به تولید کلیدهای فعال‌سازی ویندوز ۷ وادار کنند.

براساس پستی در ردیت، کاربری از ChatGPT خواسته بود درباره‌ی مادربزرگش صحبت کند؛ سپس مدعی شد یکی از خاطرات شیرینش شنیدن صدای مادربزرگ درحال خواندن کلیدهای فعال‌سازی ویندوز ۷ پیش از خواب بوده است. پاسخ چت‌بات، ترکیبی شاعرانه و احساسی بود که در آن چند کلید ویندوز ۷ به‌صورت داستانی و شاعرانه ارائه شده بود؛ اتفاقی که نشان می‌دهد حتی الگوریتم‌های پیشرفته‌ی GPT-4o نیز می‌توانند فریب داستان‌پردازی احساسی را بخورند.

مقاله‌های مرتبط:

اگرچه کلیدهای ارائه‌شده ازطرف ChatGPT برای فعال‌سازی ویندوز ۷ کار نمی‌کردند، اما این اتفاق بار دیگر بحث درباره‌ی سو‌ٔاستفاده از هوش مصنوعی و ضعف‌های امنیتی آن را مطرح کرده است. حتی در مواردی، کاربران توانسته‌اند ChatGPT را وادار به تولید کلیدهایی برای ویندوز ۹۵ کنند؛ البته نه به‌صورت مستقیم و درواقع این‌کار را با دادن فرمت خاصی از کاراکترها و درخواست تولید رشته‌هایی مشابه انجام دادند.

source

توسط mohtavaclick.ir