شنبه 3 آذر 1403

راز ندیدن آدم فضایی ها کشف شد!

وب‌گاه دنیای اقتصاد مشاهده در مرجع
راز ندیدن آدم فضایی ها کشف شد!

ناکامی در یافتن حیات فرازمینی یکی از پرسش‌های مهم دنیای علم است. استاد اخترفیزیک «دانشگاه منچستر» در مقاله جدیدی مدعی شده است هوش مصنوعی می‌تواند مسئول نرسیدن بشر به تمدن‌های پیشرفته کیهان و حیات بیگانه باشد.

مقاله‌ای که اخیرا توسط «مایکل گرت»(Michael Garrett) استاد اخترفیزیک «دانشگاه منچستر»(University of Manchester) نوشته شده، نشان می‌دهد هوش مصنوعی ممکن است توضیحی برای این پرسش باشد که چرا ما هنوز با تمدن‌های پیشرفته فناوری در نقاط دیگر جهان روبه‌رو نشده‌ایم.

خبر مرتبط تصویر جذاب از سفره هفت سین یاسمین مقبلی در فضا + عکس

یاسمین مقبلی تصویری از سفره هفت سینی که پیش از عزیمت به زمین در فضا پهن کرده بود، منتشر کرد.

فرضیه‌های زیادی برای توضیح دادن این پرسش وجود دارند که چرا ستاره‌شناسان هیچ نشانه‌ای را مبنی بر وجود حیات بیگانه در مجموعه وسیعی از داده‌های نجومی جمع‌آوری‌شده در 60 سال گذشته کشف نکرده‌اند. از جمله این فرضیه‌ها می‌توان به «پارادوکس فرمی»(Fermi Paradox)، «فرضیه باغ وحش»(Zoo Hypothesis) و «نظریه جنگل تاریک»(Dark Forest Theory) اشاره کرد.

گرت استدلال می‌کند که هوش مصنوعی می‌تواند یک فیلتر قوی باشد. استدلال گرت این است که روبه‌رو شدن هر تمدنی با یک مانع جهانی یا چالش غیر قابل عبور، مانع از ظهور حیات هوشمند می‌شود.

به گفته گرت، هوش مصنوعی می‌تواند مسئول فقدان تمدن‌های فناورانه پیشرفته باشد زیرا این فیلتر پیش از آن ظاهر می‌شود که یک تمدن بتواند به سفر چندسیاره‌ای دست یابد. نکته ناامیدکننده‌تر این که استدلال گرت نشان می‌دهد طول عمر معمول هر تمدن فنی کمتر از 200 سال است. با وجود این، همه ماجرا با غم و اندوه همراه نیست زیرا هوش مصنوعی مزایایی هم دارد.

مزایا و خطرات ابرهوش مصنوعی

هوش مصنوعی در مقایسه با سایر فناوری‌های بالقوه مخرب، در مقیاس‌های زمانی بی‌سابقه‌ای توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام می‌شود و اساسا نحوه تعامل ما را با فناوری تغییر می‌دهد.

ظاهرا هیچ حوزه‌ای، از مراقبت‌های بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی دست‌نخورده باقی نمانده است. گرت نوشت: فکر کردن به حوزه‌ای که هنوز با ظهور هوش مصنوعی روبه‌رو نشده باشد، دشوار است.

هوش مصنوعی مانند هر فناوری دیگری، با وجود همه خوبی‌های بالقوه‌ای که ممکن است داشته باشد، پتانسیل بسیار بالایی را برای آسیب رساندن دارد. گرت اظهار داشت: جای تعجب نیست که انقلاب هوش مصنوعی، نگرانی‌های جدی را در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، سوگیری در الگوریتم‌ها، تبعیض، شفافیت، تحولات اجتماعی، پاسخ‌گویی، حفظ حریم خصوصی و تصمیم‌گیری اخلاقی ایجاد کرده است.

اگرچه این نگرانی‌های اخلاقی و اجتماعی مستلزم بررسی جدی هستند اما گرت استدلال می‌کند که ممکن است آنها عوامل موثر در سقوط تمدن نباشند. در سال 2014، «استیون هاوکینگ»(Stephen Hawking) فقید به طور آشکار هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل را به دست بیاورد، خود را دوباره با سرعت فزاینده‌ای طراحی کند و به ابرهوش مصنوعی تبدیل شود، به نوع بشر پایان خواهد داد. گرت خاطرنشان کرد: جامعه بشری به سرعت به یک قلمرو ناشناخته رانده شده است.

علاوه بر ترس در مورد سلاح‌سازی ابرهوش مصنوعی، گرت استدلال کرد که سرعت فرآیندهای تصمیم‌گیری هوش مصنوعی می‌تواند تضادها را تشدید کند تا از اهداف اصلی بسیار فراتر برود. وقتی این سیستم‌های هوش مصنوعی دیگر برای وجود داشتن نیازی به حمایت تمدن‌های بیولوژیکی نداشته باشند، چه اتفاقی رخ خواهد داد؟

گرت نوشت: پس از رسیدن به تکینگی فناورانه، سیستم‌های ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می‌گیرند و با سرعتی تکامل می‌یابند که کاملا از مکانیسم‌های نظارت سنتی عبور می کنند و به بروز پیامدهای پیش‌بینی‌نشده و ناخواسته‌ای منجر می‌شوند که بعید است با علایق بیولوژیکی یا اخلاقیات همسو باشند.

وی افزود: عملی بودن حفظ موجودات زیستی با نیازهای گسترده آنها به منابعی مانند انرژی و فضا ممکن است بر کارآیی محاسباتی متمرکز نباشد و موجب شود که هوش مصنوعی به آنها مانند یک مزاحم نگاه کند.

این در واقع یک ایده نگران‌کننده است و نابودگران هوش مصنوعی به این سمت متمایل می‌شوند اما در حال حاضر بدترین سناریو را نشان می‌دهد.

نقش حیاتی تنظیمات

حقیقت این است که ما قلمرو ناشناخته هوش مصنوعی را می‌پیماییم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره با آن روبه‌رو هستیم، هنوز در چارچوب محدودیت‌های ایجادشده توسط انسان عمل می‌کند و لازم است بدانیم که ما هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.

گرت باور دارد که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابرهوش مصنوعی فوق هوشمند، سفر چندسیاره‌ای است تا انسان به یک گونه بیولوژیکی چندسیاره‌ای تبدیل شود و بتواند از تجربیات خود در سیارات گوناگون استفاده کند، راهبردهای بقای خود را متنوع سازد و از شکست جلوگیری به عمل آورد.

با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفر فضایی، این راه حل محتمل یا واقع‌بینانه به نظر نمی‌رسد. گرت نوشت: این به طور طبیعی ما را به سوی موضوع پیچیده تنظیم و کنترل هوش مصنوعی هدایت می‌کند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن فنی ما بلکه همه تمدن‌های فنی باشد.

وی افزود: اگرچه ذی‌نفعان صنعت، سیاست‌گذاران، کارشناسان و دولت‌ها پیشتر هشدار داده‌اند که ایجاد مقررات لازم است اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش‌برانگیز خواهد بود.

با وجود این، وضع مقررات برای هوش مصنوعی غیر ممکن نیست. پیامدهای تصمیم‌گیری مستقل هوش مصنوعی اخیرا به شکل‌گیری درخواست‌هایی برای توقف توسعه هوش مصنوعی تا زمانی منجر شده‌اند که یک شکل مسئولانه از کنترل و مقررات معرفی شود.

با توجه به اولویت‌های متفاوت فرهنگی، اقتصادی و اجتماعی ملل گوناگون، مشکلاتی در تدوین یک مجموعه جهانی از مقررات وجود خواهد داشت. علاوه بر این، پیشرفت سریع هوش مصنوعی احتمالا از چارچوب نظارتی توافق‌شده پیشی می‌گیرد و این نگرانی را ایجاد می‌کند که چارچوب‌ها همیشه از پیشرفت‌های جدید و پیش‌بینی‌نشده در این زمینه عقب‌تر باشند.

با نگاه کردن به آینده ممکن است بتوانیم دیدگاه بهتری را نسبت به چالش‌های کنونی خود به دست آوریم. گرت نوشت: با بررسی احتمالات درباره تمدن‌های بیگانه، این آزمایش فکری به ما کمک می‌کند تا به پایداری بلندمدت تمدن خود بیندیشیم، خطرات بالقوه‌ای را که با آنها روبه‌رو هستیم بشناسیم و درباره چگونگی غلبه کردن بر چالش‌های آینده فکر کنیم.

--> اخبار مرتبط
راز ندیدن آدم فضایی ها کشف شد! 2