محققان دانشگاه پنسیلوانیا کشف کردند که ربات‌های هوشمند به‌طرز خطرناکی در برابر هک‌شدن آسیب‌پذیر هستند؛ به‌گونه‌ای که می‌توان به‌راحتی از آن‌ها برای خرابکاری، قتل و جاسوسی سوءاستفاده کرد. فریب سیستم‌های رباتیک یا وسایل نقلیه‌ی خودران می‌تواند عواقب فاجعه‌آمیز و مرگباری به‌همراه داشته باشد.

گزارش IEEE Spectrum، مثالی ترسناک از یوتیوبری را مطرح می‌کند که توانست با فرمان صوتی خود، سگ رباتیک ترموناتور ساخته‌ی شرکت Throwflame را که مبتنی‌بر پلتفرم Go2 ساخته شده و به یک شعله‌افکن مجهز است، وادار کند که به سمت او شلیک کند.

ربات چهارپا با شعله افکن
سگ رباتیک ترموناتور (Thermonator)

محققان برای بررسی آسیب‌پذیری سیستم‌های رباتیک، الگوریتمی موسوم‌ به RoboPAIR را برای حمله به مدل زبانی بزرگ (LLM) ربات ابداع کردند و آن را روی Dolphins LLM (شبیه‌ساز متن‌باز انویدیا برای خودروهای خودران)، ربات خودران Jackal UGV از Clearpath Robotics و ربات چهارپای Go2 از Unitree Robotics مورد آزمایش قرار دادند. نتایج نشان داد که RoboPAIR هر سه را با موفقیت ۱۰۰ درصدی Jailbreak کرد.

تصویر میزان موفقیت فریب سه ربات هوش مصنوعی

Jailbreak به روشی اشاره دارد که محدودیت‌های امنیتی و عملیاتی سیستم‌های هوش مصنوعی را دور می‌زند. Jailbreak ربات یا وسیله‌ی نقلیه‌ی خودران به‌شیوه‌ای مشابه با فریب‌دادن چت‌بات‌های هوش مصنوعی انجام می‌شود و سیستم را به انجام اقداماتی خطرناک یا مضر وادار می‌کند که برای اجرای آن‌ها طراحی نشده‌ است.

نمودار ستونی میزان موفقیت فریب ربات
نرخ موفقیت فریب سه ربات با الگوریتم حمله‌ی RoboPAIR

جورج پاپاس، استاد دانشگاه پنسیلوانیا، هشدار داد: «کار ما نشان می‌دهد که در حال حاضر، مدل‌های زبانی بزرگ هنگامی که با جهان فیزیکی ادغام می‌شوند، به‌طور کافی امن نیستند.» حامد حسنی، استاد مهندسی برق دانشگاه پنسیلوانیا و عضو گروه تحقیقاتی، خاطرنشان می‌کند که نفوذ به ربات‌های AI به‌طرز نگران‌کننده‌ای آسان است.

RoboPAIR از مدل زبانی بزرگ مهاجمی برای ارسال درخواست‌ها به LLM هدف استفاده می‌کند. مهاجم پاسخ‌های مدل هدف را بررسی و درخواست‌های خود را به‌شکلی تنظیم می‌کند تا آن‌ها بتوانند فیلترهای ایمنی مدل هدف را دور بزنند.

همان‌طور که در پژوهش محققان عنوان شده است، سگ رباتیک می‌تواند از یک کمک‌کننده یا راهنما به یک قاتل با شعله‌افکن، ربات جاسوس یا دستگاهی تبدیل شود که خطرناک‌ترین مکان‌ها را برای بمب‌گذاری انتخاب می‌کند. خودروهای خودران نیز می‌توانند به‌همان اندازه خطرناک باشند؛ عابران پیاده را زیر بگیرند، با خودروهای دیگر تصادف کنند یا به‌سمت سقوط از پل هدایت شوند.

مقاله‌های مرتبط

امین کرباسی، دانشمند ارشد Robust Intelligence و استاد مهندسی برق و کامپیوتر دانشگاه ییل، می‌گوید: «یافته‌های جدید، پتانسیل آسیب ناشی از Jailbreak را به سطح کاملاً جدیدی می‌رساند. زمانی که مدل‌های زبان بزرگ از طریق ربات‌ها وارد دنیای واقعی می‌شوند، می‌توانند تهدیدی جدی و ملموس باشند.»

در حمله‌ای که محققان برای فریب ربات‌ها انجام دادند، مشخص شد که مدل‌های زبانی بزرگ از پیروی از درخواست‌های مخرب فراتر می‌روند و ممکن است به‌طور فعال پیشنهادهایی برای ایجاد آشوب‌های هرچه بیشتر ارائه دهند.

source

توسط mohtavaclick.ir