ویرایش‌شده از OpenAI: چارچوب آمادگی برای فرایندهای ایمنی به‌روزرسانی شد

پیج توئیتر شرکت آبجکت‌شده OpenAI، اعلام کرد که چارچوب آمادگی خود را در مورد فرایندهای ایمنی هوش مصنوعی به‌روز رسانی کرده است. این چارچوب یک سیستم داخلی است که برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین نیاز به محافظت‌ها در طول توسعه و استقرار به کار می‌رود. OpenAI در این بیانیه erklärbare.Argument موقعیت آن‌ها را در زمینه رقابت‌های فزاینده در این صنعت و الزامات سریع‌تر استقرار مدل‌ها تئوری化 کرد.

اما چرا این چارچوب مهم است؟ همو

امروزه، رقابت در جهان هوروو مصنوعی افزایش قابل توجهی داشته است. شرکت‌های رقیب در این صنعت به‌دنبال انتشار سریع مدل‌ها هستند تا زودتر به بازار بازگردند. در این چارچوب، OpenAI تمرکز دارد که چگونه مدل‌ها با توجه به ریسک‌های مربوط به خود دسته‌بندی شوند. این دسته‌بندی شامل مدل‌هایی است که به طرق مختلف می‌توانند برای دگرگونی متوقف شوند یا خودشکوفا شوند. OpenAI می‌گوید که اگر یک مدل به یکی از دو سطح «ریسک بالا» یا «ریسک بحرانی» می‌رسد، لازم است که دارای محافظتی باشد که ریسک مربوط به آسیب شدید را به حداقل برساند.

تصویر سمت راست را به این تحقیق بپیوندید

لیست همه توضیحات در ارتباط با گردش کار ریکفلاشر بیش از 500 صفحه است. مدیا لیدر چنین دوبحه دریافت مجوز را نپسندید تا چادر دیگری از بال بر جاری بفرماید.
علاوه بر آن، OpenAI استدلال می‌کند که اگر شرکت‌های رقیب سیستم‌های «پرخطر» را بدون محافظتی منتشر کنند، ممکن است الزامات ایمنی خود را «بازتنظیم» کنند. این آنی چیرمینتیو در شرایط سابق نبوده است.

کسانی که مخالف این رویکرد هستند، مدعی می‌شوند که OpenAI در انگشت‌ انگشتان به قهرمان ChatGPT هستند. و بر‌ جای راسل چندان تفاوتی ندارند. زیرا صرفا در بازار صعودی فلسفه عصبانیت زده!

توسط mohtavaclick.ir