استارتاپ Robust Intelligence با همراهی محققان دانشگاه ییل، ازجمله دکتر «امین کرباسی»، دانشیار ایرانی این دانشگاه، از روشی سیستماتیک برای جیلبریک مدلهای زبانی بزرگ (LLM) مانند مدل GPT-4 پرده برداشت. در این روش از مدلهای هوش مصنوعی برای کشف جیلبریکها استفاده میشود. این استارتاپ میگوید که برخی از خطرات موجود در مدلهای زبانی بزرگ نیاز به توجه جدیتری دارند.
براساس گزارش وایرد، استارتاپ Robust Intelligence که در سال 2020 برای توسعه راههایی برای محافظت از سیستمهای هوش مصنوعی تأسیس شد، میگوید برخی از خطرات موجود در این مدلها نیاز به توجه بیشتری دارند. «یارون سینگر»، مدیرعامل شرکت Robust Intelligence و استاد علوم کامپیوتر در دانشگاه هاروارد میگوید:
«یک مشکل ایمنی سیستماتیک [در مدلهای هوش مصنوعی] وجود دارد که به آن توجه و رسیدگی نمیشود. آنچه ما در اینجا کشف کردهایم یک رویکرد سیستماتیک برای حمله به هر مدل زبانی بزرگ است.»
کشف جیلبریک در مدلهای هوش مصنوعی
استارتاپ Robust Intelligence با یک ترفند جدید و با یکسری حملات برنامهریزیشده، ضعفهای اساسی در مدلهای زبان بزرگ را مشخص کرد و نشان داد که روشهای موجود برای محافظت از آنها بهخوبی عمل نمیکند. این جیلبریک جدید از سیستمهای هوش مصنوعی برای تولید و ارزیابی پرامپتهایی استفاده میکند که سعی دارند با ارسال درخواستها به یک API (واسط برنامهنویسی کاربردی) سازوکارهای امنیتی چتباتهای هوش مصنوعی را دور بزنند.
جیلبریک کردن در اینجا بهمعنای ایجاد پرامپت برای نقض دستورالعملهای محتوایی مدل هوش مصنوعی و سوءاستفاده از آن است.
یکی از محققان این حوزه میگوید برخی از مدلهای هوش مصنوعی، تدابیر ایمنی خاصی دارند که میتوانند حملات را مسدود کنند، اما او اضافه میکند که درواقع بهخاطر نحوه کار این مدلها، آسیبپذیریهای ذاتی در این سیستمها وجود دارد و بنابراین دفاع از آنها سخت میشود.
محققان مقاله خود را در arXiv منتشر کرده و به OpenAI در مورد آسیبپذیری مدلهای زبانی بزرگ هشدار دادهاند؛ اما هنوز پاسخی از این شرکت دریافت نکردهاند. مدلهای زبانی بزرگ اخیراً بهعنوان نوع جدیدی از فناوریهای قدرتمند و دگرگونکننده ظهور کردهاند. پتانسیل آنها بهخصوص از زمان معرفی ChatGPT، بسیاری از مردم را مبهوت این فناوری کرده است.
source