سه‌شنبه 6 آذر 1403

سازندگان چت‌جی‌پی‌تی خواستار تشکیل نهاد ناظر بین‌المللی برای هوش مصنوعی شدند / افزایش نگرانی ها در مورد نابودی بشریت

خبرگزاری فارس مشاهده در مرجع
سازندگان چت‌جی‌پی‌تی خواستار تشکیل نهاد ناظر بین‌المللی برای هوش مصنوعی شدند / افزایش نگرانی ها در مورد نابودی بشریت

به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، تیم پشتیبان چت‌جی‌پی‌تی می‌گوید که برای محافظت در برابر خطرات هوش مصنوعی فوق‌هوشمند به یک ناظر معادل آژانس انرژی اتمی نیاز است.

رهبران شرکت اپن‌ای‌آی، توسعه‌دهنده چت‌جی‌پی‌تی، خواستار تنظیم‌گری هوش مصنوعی فوق‌هوشمند شده‌اند و استدلال می‌کنند که معادل آژانس بین‌المللی انرژی اتمی برای محافظت بشریت از خطر ایجاد تصادفی چیزی با قدرت نابود کردن انسان مورد نیاز است.

گرگ براکمن، رئیس اداری و ایلیا سوتس‌کِور، دانشمند ارشد و سم آلتمن مدیر اجرایی، از یک تنظیم کننده بین المللی خواستند تا در مورد چگونگی بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و محدودیت هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجودی چنین سیستم هایی ایجاد کند.

آنها نوشتند: «می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام خواهند داد. از نظر جنبه‌های مثبت و منفی، ابرهوشمند قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. ما می توانیم آینده ای مرفه تر داشته باشیم؛ اما برای رسیدن به آن باید خطرات را مدیریت کنیم و با توجه به احتمال خطر وجودی، نمی توانیم تنها واکنش نشان دهیم.»

این سه نفر در کوتاه‌مدت، خواستار درجاتی از هماهنگی میان شرکت‌هایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند، تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. به عنوان مثال این هماهنگی می تواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

محققان ده‌ها سال است که درباره خطرات بالقوه ابرهوشمند شدن هشدار می‌دهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی کار می کند، هشت دسته خطر فاجعه بار و وجودی ناشی از توسعه هوش مصنوعی را توصیف کرده است.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، مرکز ایمنی هوش مصنوعی آسیب های مخرب دیگری را توصیف می کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند منجر به از دست دادن توانایی خودگردانی و وابستگی کامل بشر به ماشین‌ها می‌شود و گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند.

رهبران اپن‌ای‌آی می گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت ها و پیش فرض های سیستم های هوش مصنوعی تصمیم بگیرند؛ اما اذعان دارند که ما هنوز نمی دانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها می گویند توسعه مداوم سیستم های قدرتمند ارزش ریسک را دارد.

مدل‌های هوش مصنوعی مولد به دلیل اشتباهات یا سوگیری ها، اطلاعات نادرست را با اطمینان عجیبی منتشر می‌کنند. چنین اشتباهاتی می تواند عواقب جدی داشته باشد. اتحادیه اروپا در حال نوشتن پیش‌نویس قوانین جدید هوش مصنوعی پیشرو است؛ اما چند سال طول می کشد تا این قانون اجرا شود بنابراین رگولاتورها قصد دارند قوانین موجود را در این مورد اعمال کنند. این قوانین همه چیز از حق نسخه برداری و حریم خصوصی داده ها گرفته تا دو موضوع کلیدی داده های وارد شده به مدل ها و محتوای تولید شده را شامل می شوند.

پایان پیام /

شما می توانید این مطلب را ویرایش نمایید

این مطلب را برای صفحه اول پیشنهاد کنید هوش مصنوعی نظارت امنیت هوش مصنوعی این خبر توسط افراد زیر ویرایش شده است