درحالیکه کاربردهای هوش مصنوعی در حوزههایی مانند آموزش، پزشکی، سرگرمی و رایانش همچنان با تحسین و جنجال همراه است، برخی کاربران راههای غیرقانونی و خلاقانهای برای دور زدن محدودیتهای این ابزارها یافتهاند. در ابتدای سال جاری برخی توانستند با استفاده از کوپایلت مایکروسافت و فقط با پرسیدن سؤال ساده دربارهی فعالسازی ویندوز ۱۱ به اسکریپتی دست یابند که این سیستمعامل را بدون خرید لایسنس فعال میکرد.
مایکروسافت پس از آگاهی از سوءاستفادهها، دسترسی کوپایلت به چنین درخواستهایی را محدود کرد. اما این پایان ماجرا نبود. حالا کاربران سراغ ChatGPT رفتهاند و تلاش میکنند با استفاده از داستانپردازی احساسی و ترفندهای عجیب مثل روایت فوت مادربزرگ، این چتبات را به تولید کلیدهای فعالسازی ویندوز ۷ وادار کنند.
براساس پستی در ردیت، کاربری از ChatGPT خواسته بود دربارهی مادربزرگش صحبت کند؛ سپس مدعی شد یکی از خاطرات شیرینش شنیدن صدای مادربزرگ درحال خواندن کلیدهای فعالسازی ویندوز ۷ پیش از خواب بوده است. پاسخ چتبات، ترکیبی شاعرانه و احساسی بود که در آن چند کلید ویندوز ۷ بهصورت داستانی و شاعرانه ارائه شده بود؛ اتفاقی که نشان میدهد حتی الگوریتمهای پیشرفتهی GPT-4o نیز میتوانند فریب داستانپردازی احساسی را بخورند.
مقالههای مرتبط:
اگرچه کلیدهای ارائهشده ازطرف ChatGPT برای فعالسازی ویندوز ۷ کار نمیکردند، اما این اتفاق بار دیگر بحث دربارهی سؤاستفاده از هوش مصنوعی و ضعفهای امنیتی آن را مطرح کرده است. حتی در مواردی، کاربران توانستهاند ChatGPT را وادار به تولید کلیدهایی برای ویندوز ۹۵ کنند؛ البته نه بهصورت مستقیم و درواقع اینکار را با دادن فرمت خاصی از کاراکترها و درخواست تولید رشتههایی مشابه انجام دادند.
source