اصول مشترک رگولاتور آمریکا و اروپا برای قانون‌گذاری هوش مصنوعی

رگولاتور‌های ایالات متحده و اروپا برای حفاظت از رقابت و مصرف کنندگان هوش مصنوعی اصولی مشترک ارائه کردند.

به گزارش خبرگزاری علم و فناوری آنا به نقل از انگجت، رگولاتورهای ایالات متحده و اروپا اصول مشترکی را برای حفاظت از رقابت و مصرف کنندگان در حوزه هوش مصنوعی ارائه کردند که قصد دارند به آن پایبند باشند. وزارت دادگستری، کمیسیون تجارت فدرال، کمیسیون اروپا و سازمان رقابت و بازار بریتانیا (CMA) گفت: «با توجه به قوانین مربوطه، برای تضمین رقابت مؤثر و رفتار منصفانه و صادقانه با مصرف‌کنندگان و کسب‌وکارها تلاش خواهیم کرد».

این آژانس‌ها در بیانیه‌ای مشترک گفتند: «نقاط عطف فناوری می‌تواند ابزارهای جدیدی برای رقابت، تسریع فرصت‌ها، نوآوری و رشد معرفی کند.بر این اساس، ما اطمینان حاصل کنیم که مردم از مزایای کامل این لحظات بهره مند می شوند.

رگولاتورها همچنین رفتار عادلانه (یعنی اطمینان از اجتناب از تاکتیک های حذفی توسط بازیگران اصلی این بخش)، قابلیت همکاری و انتخاب را به عنوان سه اصل برای محافظت از رقابت در فضای هوش مصنوعی ذکر کردند. آنها این عوامل را بر اساس تجربه کار در بازارهای مرتبط بنا کردند.

این آژانس ها همچنین برخی از خطرات بالقوه برای رقابت، مانند معاملات بین بازیگران اصلی در بازار را مطرح کردند. آنها گفتند در حالی که قرارادادهای بین شرکت‌ها در این بخش (که قبلاً گسترده شده‌اند) ممکن است در برخی موارد بر رقابت تأثیری نداشته باشد، در موارد دیگر «این مشارکت‌ها و سرمایه‌گذاری‌ها می‌تواند توسط شرکت‌های بزرگ برای تضعیف یا مقابله با تهدیدهای رقابتی و هدایت نتایج بازار به نفع خود و به ضرر مردم استفاده شود.

سایر خطرات رقابتی که در بیانیه ذکر شده است شامل تقویت یا گسترش قدرت بازار در بازارهای مرتبط با هوش مصنوعی و همچنین کنترل متمرکز ورودی های کلیدی است. آژانس‌ها، شرکت‌های کوچکی را به‌عنوان تعداد کمی از شرکت‌ها تعریف می‌کنند که به‌دلیل کنترل و عرضه تراشه‌های تخصصی، محاسبات قابل توجه، داده‌ها در مقیاس و تخصص فنی تخصصی به طور بالقوه نفوذ زیادی بر فضای هوش مصنوعی دارند.

علاوه بر این، آژانس‌ها می گویند که مراقب تهدیداتی هستند که ممکن است هوش مصنوعی برای مصرف کنندگان ایجاد کند. این بیانیه خاطرنشان می کند که برای مصرف کنندگان مهم است که در جریان چگونگی عوامل هوش مصنوعی در محصولات و خدماتی که خریداری یا استفاده می کنند، باشند. در بیانیه آمده است: «شرکت‌هایی که به‌طور فریبنده یا ناعادلانه از داده‌های مصرف‌کننده برای آموزش مدل‌های خود استفاده می‌کنند، می‌توانند حریم خصوصی، امنیت و استقلال افراد را تضعیف کنند». شرکت‌هایی که از داده‌های مشتریان تجاری برای آموزش مدل‌های خود استفاده می‌کنند نیز می‌توانند اطلاعات حساس رقابتی را در معرض نمایش بگذارند.»

همه اینها اظهارات نسبتاً کلی در مورد رویکرد مشترک آژانس ها برای تقویت رقابت در فضای هوش مصنوعی هستند، اما با توجه به اینکه همه آنها تحت قوانین مختلف عمل می کنند، برای بیانیه دشوار است که به جزئیات نحوه تنظیم آنها بپردازد. حداقل، این بیانیه باید به شرکت‌هایی که در فضای مولد هوش مصنوعی کار می‌کنند یادآوری کند که تنظیم‌کننده‌ها در میان پیشرفت‌های سریع این بخش نظارت دقیقی بر همه چیز دارند.

source

توسط mohtavaclick.ir