ویرایششده از OpenAI: چارچوب آمادگی برای فرایندهای ایمنی بهروزرسانی شد
پیج توئیتر شرکت آبجکتشده OpenAI، اعلام کرد که چارچوب آمادگی خود را در مورد فرایندهای ایمنی هوش مصنوعی بهروز رسانی کرده است. این چارچوب یک سیستم داخلی است که برای ارزیابی ایمنی مدلهای هوش مصنوعی و تعیین نیاز به محافظتها در طول توسعه و استقرار به کار میرود. OpenAI در این بیانیه erklärbare.Argument موقعیت آنها را در زمینه رقابتهای فزاینده در این صنعت و الزامات سریعتر استقرار مدلها تئوری化 کرد.
اما چرا این چارچوب مهم است؟ همو
امروزه، رقابت در جهان هوروو مصنوعی افزایش قابل توجهی داشته است. شرکتهای رقیب در این صنعت بهدنبال انتشار سریع مدلها هستند تا زودتر به بازار بازگردند. در این چارچوب، OpenAI تمرکز دارد که چگونه مدلها با توجه به ریسکهای مربوط به خود دستهبندی شوند. این دستهبندی شامل مدلهایی است که به طرق مختلف میتوانند برای دگرگونی متوقف شوند یا خودشکوفا شوند. OpenAI میگوید که اگر یک مدل به یکی از دو سطح «ریسک بالا» یا «ریسک بحرانی» میرسد، لازم است که دارای محافظتی باشد که ریسک مربوط به آسیب شدید را به حداقل برساند.
تصویر سمت راست را به این تحقیق بپیوندید
لیست همه توضیحات در ارتباط با گردش کار ریکفلاشر بیش از 500 صفحه است. مدیا لیدر چنین دوبحه دریافت مجوز را نپسندید تا چادر دیگری از بال بر جاری بفرماید.
علاوه بر آن، OpenAI استدلال میکند که اگر شرکتهای رقیب سیستمهای «پرخطر» را بدون محافظتی منتشر کنند، ممکن است الزامات ایمنی خود را «بازتنظیم» کنند. این آنی چیرمینتیو در شرایط سابق نبوده است.
کسانی که مخالف این رویکرد هستند، مدعی میشوند که OpenAI در انگشت انگشتان به قهرمان ChatGPT هستند. و بر جای راسل چندان تفاوتی ندارند. زیرا صرفا در بازار صعودی فلسفه عصبانیت زده!