سه‌شنبه 6 آذر 1403

هشدار «ایلان ماسک»؛ هرچه سریع‌تر جلوی این تهدید بزرگ را بگیرید!

وب‌گاه اقتصاد نیوز مشاهده در مرجع
هشدار «ایلان ماسک»؛ هرچه سریع‌تر جلوی این تهدید بزرگ را بگیرید!

اقتصادنیوز: پیشرفت هوش مصنوعی پدیده این روزهای دنیای فناوری شده و در عین حال بسیاری از بزرگان عرصه فناوری را عمیقا نگران کرده است.

به گزارش اقتصادنیوز به نقل از خبرآنلاین، گروهی از پژوهشگران به نام در کنار شخصیت‌های مشهور دنیای فناوری چون ایلان ماسک با انتشار نامه‌ای سرگشاده از تمام آزمایشگاه‌های هوش مصنوعی در سراسر جهان درخواست کردند تا کار توسعه سیستم‌های بزرگ هوش مصنوعی را به حالت تعلیق درآورند. آن‌ها نگران «ریسک‌های بزرگ پیش روی جامعه و بشریت» در صورت توسعه غیرقابل کنترل هوش مصنوعی هستند.

سقوط هولناک پهپاد آمریکایی در عراق + فیلم

ورج گزارش داد، این نامه سرگشاده را موسسه‌ای غیرانتفاعی به نام «آینده زندگی» منتشر کرده و در آن به رقابت خارج از کنترل آزمایشگاه‌های هوش مصنوعی برای توسعه و راه‌اندازی سیستم‌های یادگیری ماشین اشاره شده است. سیستم‌هایی که بر اساس متن نامه «هیچ کس حتی خالقانش نمی‌توانند به شکلی مطمئن کنترل، پیش‌بینی یا درکشان کنند.»

آن‌ها از آزمایشگاه‌های هوش مصنوعی در سراسر جهان درخواست کرده‌اند تا «بلافاصله حداقل برای شش ماه آموزش تمام سیستم‌های هوش مصنوعی بزرگتر از GPT-4 را معلق کنند. این تعلیق باید برای عموم قابل اعتبارسنجی باشد و همه بازیگران بزرگ این عرصه را شامل شود.»

نویسندگان نامه از دولت‌ها درخواست کرده‌اند که در صورت بی‌توجهی آزمایشگاه‌ها، خود دست به کار شده و این تعلیق موقت را عملی کنند.

در کنار ایلان ماسک، امضای چهره‌های مشهوری چون استیو وزنیاک هم‌بنیان‌گذار اپل، یوال نوح هراری نویسنده، یان تالین هم‌بنیان‌گذار اسکایپ، اندرو یانگ سیاستمدار و تعدادی از پژوهشگران برجسته حوزه هوش مصنوعی به چشم می‌خورد. فهرست کامل امضاکنندگان نامه اینجا قابل مشاهده است.

البته بعید به نظر می‌رسد که این نامه در حالی که پژوهش درباره هوش مصنوعی داغ‌تر از هر زمانی شده، اثری داشته باشد. هم اکنون بزرگترین غول‌های دنیای فناوری از مایکروسافت و گوگل گرفته تا دیگران به سرعت درحال معرفی محصولات تازه در این حوزه هستند و به نظر نمی‌رسد که تصمیمی برای کند کردن این روند داشته باشند.

در نقطه مقابل نویسندگان این نامه باور دارند که دیدگاه توسعه هوش مصنوعی باید با تمام محصولات پیشین متفاوت باشد و در این عرصه نمی‌توان محصول را راه‌اندازی کرد و بعد دنبال رفع خطاهایش رفت: «آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از این تعلیق برای تهیه مجموعه‌ای از پروتکل‌ها برای طراحی و پیاده‌سازی ایمن هوش مصنوعی پیشرفته استفاده کنند.»

همچنین بخوانید