شرکت اوپن‌ای‌آی، توسعه‌دهنده مشهور ChatGPT، در تلاش است تا به اطلاعات مربوط به توهمات و محتوای مضر هوش مصنوعی خود شفافیت بیشتری بخشد. برای این منظور، این شرکت هاب جدیدی را تحت عنوان “مرکز ارزیابی ایمنی” راه‌اندازی کرده است. این مرکز به صورت منظم به‌روزرسانی می‌شود و اطلاعات را به صورت عمومی در دسترس قرار می‌دهد.

در این هاب، اطلاعات مربوط به مدل‌های مختلف هوش مصنوعی، از جمله GPT-4.1 تا 4.5، در دسترس قرار گرفته است. این مرکز در واقع attempts کردتا اعمالی به طور رسمی که شارکت درباره شفافیت و ایمنی بتواند به اشتراک بگذارد. اما این سوال مطرح می‌شود که آیا این مرکز كافی است؟ آیا شرکت‌های دیگر نیز چنین تلاش‌هایی را انجام می‌دهند؟ و یا اصلا مسائل مربوط به توهمات و محتوای مضر هوش مصنوعی چگونه قابل حل هستند؟

روندهای جدید در صنعت هوش مصنوعی
————————

هوش مصنوعی در چند سال اخیر به طور سریع به پیشرفت وگسترش خود ادامه داده است. اما با این پیشرفت، خطر توهمات و محتوای مضر نیز افزایش یافته است. این مسئله هم‌چنین باعث شده است تا شرکت‌های در این صنعت با چالش‌های زیر مواجه شوند:

– کمیابی به اشتراک‌گذاری دانش و تجربه در صنعت هوش مصنوعی به قصد مشارکت‌های عمیق‌تر
– کمبود تدابیر امنیتی مناسب برای جلوگیری از توهمات و محتوای مضر
– نیاز به مطالعات بیشتر برای درک نحوه تولید توهمات و محتوای مضر توسط هوش مصنوعی
– وابستگی زیاد به آموزش مدل‌های هوش مصنوعی با داده‌های آنلاین که ممکن است هم‌چنین شامل اطلاعات با حق نشر بوده باشد.

با در نظر گرفتن این چالش‌ها، بزرگترین سوال آن است که آیا فقط تلاش‌های شرکت اوپن‌ای‌آی می‌تواند روش مناسبی برای درمان این مشکلات باشد؟ یا خیر ما نیازی به بررسی چالش‌های موجود در این صنعت و حرکت به سمت اتحاد و همبستگی در این زمینه داریم.

بحث‌های تاریخی
—————–

ماهیت توهمات و محتوای مضر هوش مصنوعی به قدری پیچیده است که نمی‌توان آن‌ها را به سایر اجزای کامپیوتر‌ها بر اساس تناسب آنها با خطاها مرتبط کرد. بخش قابل توجهی از این توهمات به خطاها در پردازش بهینه در خوشه‌های چندکی دست پیدا می‌کنند و در نامناسبترین موارد، توهمات در جریان از پیش ورودی آن‌ها شکل می‌گیرند. این تشابه بین توهمات و خطاها کمی آشنا است. بلندبالا‌ترین آسیب این توهمات این است که آنها احتمالچندان شبیه به خطای فضایی ( الخطای فضایی لاینفکی ] عواملی که نقض دهند赶‌های مردم هستند داد رد راه گپ و مناسب دیده می‌شود.هم چنین می‌توان به حقوق انتشاراتی اشاره کرد که قطعاً شرکتی‌ها باید به آن‌ها و الزامات مرتبط با آن‌ها پاسخ دهند.

گسترش نظارت
—————–

هاب اوپن‌ای‌آی گسترش نظارت را در این صنعت القا می‌کند و توجه به این موضوع مهم است. زیرا می‌تواند به کاستن تراژدی‌های ناشی از چپاول شدن اطلاعات حقوقی و همچنین بهبود-quality و کیفیت را مورد نظر قرار دهند. حوزه‌هایی که باید به آنها ورود دارن خوب است مسائل امنیتی دسترس در آنها بررسی چرا.

بحث‌های فرهنگی
—————–

پرسش مهم است که آیا محصولات هوش مصنوعی که در حال حاضر توسط صنعت عرضه می‌شوند چه تأثیری بر فرهنگ ما دارد و این فرهنگ را چگونه دگرگون می‌کند. از نظر فرهنگی، به‌طور معمول می‌توان انتظار داشت که محصولات هوش مصنوعی کل علمی را دگرگون کنند. این بخاطر بسیاری از حقایق بی‌تکراری است که در شرایط علمی پشت به هم هستند و در حال اکنون در اینجا حتی نیست.

توسط mohtavaclick.ir