دوشنبه 5 آذر 1403

از هوش‌مصنوعی بترسید، اما نه آخرالزمانی

وب‌گاه فرارو مشاهده در مرجع
از هوش‌مصنوعی بترسید، اما نه آخرالزمانی

برخی از این می‌ترسند که هوش مصنوعی بقای بشریت را به خطر بیندازد، اما خطر هوش مصنوعی بیشتر یک خطر هویتی و فلسفی است تا تهدیدی برای نابودی کلی بشر

فرارو - ظهور چت جی‌پی‌تی و سیستم‌های هوش مصنوعی باعث افزایش نگرانی‌ها در مورد آینده شده است. در چند ماه گذشته، برخی مدیران، کارشناسان و حتی سیاستمداران در مورد مشکلات عمده‌ای که استفاده کنترل نشده از هوش مصنوعی می‌تواند ایجاد کند، هشدار داده‌اند. آنطور که منتقدین می‌گویند ظهور این تکنولوژی می‌تواند چندین شغل، درآمد، امنیت، انسانیت و حتی بقا بشریت تهدید کند.

به گزارش فرارو و به نقل از نشریه کانورسیشن، نگرانی‌ها در می 2023 (خرداد 1402) به اوج خود رسید، زمانی که سازمان غیرانتفاعی تحقیقاتی و حمایتی مرکز ایمنی هوش مصنوعی بیانیه‌ای تک جمله‌ای منتشر کرد "کاهش خطر انقراض بشر از طریق هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه گیر و جنگ هسته‌ای یک اولویت جهانی باشد" این بیانیه توسط بسیاری از بازیگران کلیدی در این زمینه، از جمله رهبران گوگل و آنتروپیک، و همچنین دو تن از به اصطلاح (پدرخوانده‌های) هوش مصنوعی امضا شد: جفری هینتون و یوشوا بنجیو.

ممکن است بپرسید که چنین ترس‌هایی چگونه ظاهر می‌شوند. یکی از سناریو‌های معروف آزمایش فکری «بیشینه ساز گیره کاغذ» است که توسط فیلسوف آکسفورد نیک بوستروم بیان شد. ایده این آزمایش اینگونه است که یک سیستم هوش مصنوعی که وظیفه تولید هرچه بیشتر گیره‌های کاغذ را دارد، ممکن است برای یافتن مواد اولیه دست به تخریب کارخانه‌ها و ایجاد تصادفات رانندگی بزند یا یک هوش مصنوعی که وظیفه رزرو یک رستوران محبوب را دارد چراغ‌های راهنمایی را خاموش می‌کند تا از گرفتن میز توسط مشتریان و رسیدن آن‌ها به مقصد جلوگیری کند، چون او اساسا وجدان انسانی را ندارد که ایمانوئل کانت فیلسوف آلمانی در قرن 18 از آن سخن گفت.

هوش مصنوعی به سرعت در حال تبدیل شدن به یک هوش بیگانه است، در دستیابی به اهداف بسیار خوب است، اما خطرناک، زیرا لزوماً با ارزش‌های اخلاقی سازندگانش همخوانی ندارد و در افراطی‌ترین شکلش، این استدلال به نگرانی‌های صریح در مورد بردگی یا نابودی نژاد بشر توسط هوش مصنوعی تبدیل می‌شود.

در سال گذشته، محققان در مرکز اخلاق کاربردی بوستون در حال بررسی تأثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بوده و معتقد هستند که این اضطراب‌ها بیش از حد افراطی و اشتباه هستند.

بله، توانایی هوش مصنوعی برای ایجاد ویدیو و صدای جعلی متقاعد کننده ترسناک است و می‌تواند توسط افراد با نیت بد مورد سوءاستفاده قرار گیرد.

در واقع، این اتفاق هم‌اکنون هم به سادگی رخ می‌دهد مثلا عوامل روسی احتمالا سعی کردند با به دام انداختن بیل برودر، منتقد کرملین، او را در گفتگو با آواتار رئیس جمهور سابق اوکراین، پترو پوروشنکو، زمین بزنند یا مجرمان سایبری از شبیه سازی صوتی هوش مصنوعی برای انواع جرایم مانند دزدی با فناوری پیشرفته گرفته تا کلاهبرداری‌های معمولی استفاده می‌کنند.

سیستم‌های تصمیم‌گیری هوش مصنوعی که توصیه‌های تأیید وام و استخدام را ارائه می‌دهند، خطر سوگیری الگوریتمی را به همراه دارند، زیرا داده‌های آموزشی و مدل‌های تصمیمی که آن‌ها بر روی آن‌ها اجرا می‌کنند، منعکس کننده تعصبات اجتماعی طولانی مدت هستند. این‌ها مشکلات بزرگی است و توجه ویژه سیاستگذاران را می‌طلبد. اما در واقع بیش از هوش مصنوعی خود بشر این خطرات را رقم زده است.

خطر وجودی هوش مصنوعی

در واقع یک خطر وجودی و ذاتی در هوش مصنوعی وجود دارد. این خطر بیشتر فلسفی است تا یک خطر ویران‌گر و آخر الزمانی؛ اینکه هوش مصنوعی در شکل کنونی خود می‌تواند دیدگاه افراد را نسبت به خود تغییر دهد؟ می‌تواند توانایی‌ها و تجربیاتی را که مردم برای انسان بودن ضروری می‌دانند، تنزل دهد. یعنی باعث بازنگری افراد درباره خود بشود.

به عنوان مثال، انسان‌ها موجوداتی هستند که قضاوت می‌کنند؛ مردم به طور منطقی جزئیات را می‌سنجند و روزانه در محل کار و در اوقات فراغت در مورد اینکه چه کسی را استخدام کنند، چه کسی باید وام بگیرند، چه چیزی را تماشا کنند و... قضاوت می‌کنند.

قضاوت‌ها بیشتر و بیشتر خودکار می‌شوند و به الگوریتم‌ها تبدیل می‌شوند، اما این اتفاق موجب پایان دنیا نمی‌شود. مردم به تدریج توانایی انجام این قضاوت‌ها را از دست خواهند داد. قابلیت‌های نوشتن چت جی‌پی‌تی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر چنین شود، مربیان یک ابزار کلیدی را برای آموزش تفکر انتقادی به دانش آموزان از دست خواهند داد.

بنابراین، هوش مصنوعی دنیا را منفجر نخواهد کرد. اما پذیرش غیرانتقادی آن، در انواع زمینه‌های محدود، به معنای فرسایش تدریجی برخی از مهم‌ترین مهارت‌های انسان است. الگوریتم‌ها در حال حاضر توانایی افراد برای قضاوت کردن، لذت بردن از شانس یاتقویت تفکر انتقادی را تضعیف می‌کنند.

نوع بشر از چنین خساراتی جان سالم به در خواهد برد، اما راه وجودی ما در این روند ضعیف خواهد شد. نگرانی‌ها شاید بیشتر به این جمله پایانی معروف الیوت در (مردان توخالی) نزدیک‌تر باشد که می‌گوید: این راهی است که دنیا به پایان می‌رسد، اما نه با صدای بلند.

از میان اخبار

زابل از 7 سال پیش آلوده‌ترین شهر ایران است

قیمت محصولات سایپا امروز یکشنبه 15 مرداد 1402