تولید محتوا

چگونه ASI می‌تواند خود را از زندگی بیولوژیکی مزاحمی که آن را اسیر کرده، رهایی پیدا کند؟ ممکن است ویروسی کشنده را مهندسی کند؛ یا از تولید و توزیع محصولات کشاورزی جلوگیری کند یا حتی به فروگداخت نیروگاه هسته‌ای بینجامد و جنگی را آغاز کند.

هنوز نمی‌توان به طور قطعی درباره‌ی احتمالات سخن گفت، زیرا قلمروی هوش مصنوعی نامشخص است. صدها سال پیش، نقشه‌نگارها هیولاهایی را در مناطق کشف‌نشده‌ی دنیا ترسیم می‌کردند و حالا این کاری است که ما انجام می‌دهیم. تحلیل گرت مبتنی بر این مسئله است که ASI و انسان‌ها فضای یکسانی را اشغال کنند؛ اما اگر بتوانیم به وضعیت چندسیاره‌ای برسیم، این چشم‌انداز تغییر خواهد کرد. گرت می‌نویسد:

برای مثال، گونه‌های بیولوژیکی چندسیاره‌ای می‌توانند از تجربیات مستقل سیاره‌های مختلف استفاده کنند و با افزایش تنوع استراتژی‌های بقا از شکست تک نقطه‌ای که تمدن تک سیاره‌ای تحمیل می‌کند، اجتناب کنند.

اگر بتوانیم خطر را روی سیاره‌های متعدد در اطراف چند ستاره توزیع کنیم، می‌توانیم از خود در برابر بدترین پیامدهای احتمالی ASI محافظت کنیم. این مدل توزیع‌یافته با ایجاد افزونگی، انعطاف تمدن بیولوژیکی را در برابر فاجعه‌های هوش مصنوعی افزایش می‌دهد. اگر یکی از سیاره‌ها یا پایگاه‌هایی که انسان آینده اشغال می‌کند، در بقا در مقابل تکینگی فناورانه‌ی ASI شکست بخورند، ممکن است بقیه جان سالم به در ببرند و از این شکست درس بگیرند.

وضعیت چندسیاره‌ای همچنین می‌تواند فراتر از نجات از دست ASI باشد. براساس سناریوهای فرضی گرت می‌توانیم تجربیات بیشتری را با هوش مصنوعی امتحان کنیم و در عین حال آن را محدود نگه‌داریم. هوش مصنوعی را روی یک سیارک ایزوله یا سیاره کوتوله در نظر بگیرید که به منابع لازم برای فرار دسترسی ندارد و به این صورت می‌توان آن را محدود کرد. به نوشته‌ی گرت:

این سناریو برای محیط‌های ایزوله صدق می‌کند که در آن‌ها آثار هوش مصنوعی پیشرفته را می‌توان بدون ریسک آنی نابودی سراسری بررسی کرد.

با این‌حال یک مسئله‌ی پیچیده در اینجا مطرح می‌شود. هوش مصنوعی با سرعتی فزاینده در حال پیشرفت است، در حالی که تلاش‌های انسان برای تبدیل‌شدن به گونه‌ی چندسیاره‌ای سرعت پائینی دارند. به نوشته‌ی گرت، ناسازگاری بین پیشرفت سریع هوش مصنوعی و توسعه‌ی آهسته‌ی فناوری فضایی بسیار واضح است.

سرعت پیشرفت هوش مصنوعی بسیار بیشتر از سفرهای فضایی است

تفاوت در اینجاست که هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفرهای فضایی با موانع فیزیکی متعددی روبه‌رو هستند که هنوز روش غلبه بر آن‌ها را نمی‌دانیم. ماهیت بیولوژیکی انسان مانعی برای سفرهای فضایی است، اما هیچ کدام از این موانع هوش مصنوعی را محدود نمی‌کنند.

بیشتر بخوانید:

به نوشته‌ی گرت، با اینکه هوش مصنوعی از نظر تئوری قابلیت‌های خود را حتی بدون محدودیت‌های فیزیکی بهبود می‌دهد، سفرهای فضایی با محدودیت‌های انرژی، علم مواد و واقعیت‌های خشن محیط فضا روبه‌رو هستند.

در حال حاضر هوش مصنوعی تحت محدودیت‌هایی که انسان تعیین کرده عمل می‌کند؛ اما شاید همیشه این طور نباشد. هنوز نمی‌دانیم هوش مصنوعی چه زمانی ممکن است به ASI تبدیل شود؛ اما نمی‌توانیم این احتمال را نادیده بگیریم. این مسئله می‌تواند به دو نتیجه‌گیری درهم‌تنیده منجر شود.

اگر حق با گرت باشد، انسان باید بیشتر برای سفرهای فضایی تلاش کند. شاید به نظر دور از دسترس برسد، اما افراد آگاه می‌دانند که زمین برای همیشه سکونت‌پذیر نخواهد بود. اگر انسان تمدن خود را به داخل فضا گسترش ندهد، ممکن است به دست خود یا به دست طبیعت نابود شود. با این‌حال دستیابی به ماه و مریخ می‌تواند نوید‌بخش گام‌های آینده باشد.

دومین نتیجه‌گیری در ارتباط با قانون‌مند شدن و نظارت بر هوش مصنوعی است؛ وظیفه‌ای دشوار در جهانی که بیمارهای روانی می‌توانند کنترل کل ملت‌ها را به دست بگیرند و به جنگ‌افزوزی منجر شوند. به نوشته‌ی گرت، با اینکه ذینفعان صنایع، سیاست‌گذارها، کارشناسان مستقل و دولت‌هایشان درباره‌ی ضرورت قانون‌گذاری هشدار می‌دهند، ایجاد یک چارچوب قانونی که در سراسر جهان پذیرفته شود کار دشواری است.

در واقع اختلاف همیشگی بشریت، هدف نظارت بر هوش مصنوعی را غیرقابل کنترل می‌سازد. صرف‌نظر از اینکه با چه سرعتی راهبردها را توسعه دهیم، ابرهوش مصنوعی می‌تواند با سرعت بیشتری رشد کند. در واقع بدون قانون کاربردی، دلیلی بر این باور وجود دارد که هوش مصنوعی نه‌تنها تهدیدی برای تمدن‌ آینده بلکه تهدیدی برای کل تمدن‌های پیشرفته به شمار می‌رود.

تداوم حیات هوشمند و آگاهانه در جهان ممکن است به پیاده‌سازی مؤثر و به موقع ضوابط قانونی و تلاش‌های فناورانه وابسته باشد.

source

توسط mohtavaclick.ir