سه‌شنبه 2 بهمن 1403

هوش مصنوعی تمام دانش بشر را خسته کرده است: عواقب آن چیست؟

خبرگزاری دانشجو مشاهده در مرجع
هوش مصنوعی تمام دانش بشر را خسته کرده است: عواقب آن چیست؟

به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی (AI) به آستانه بحرانی رسیده است: آنها تقریباً تمام دانش بشری موجود را برای یادگیری خود خسته کرده‌اند. ایلان ماسک، در میان دیگران، زنگ خطر این بن بست فناوری را به صدا در می‌آورد. این وضعیت محققان و شرکت‌ها را وادار می‌کند تا جایگزین‌ها، به‌ویژه داده‌های مصنوعی تولید شده توسط خود هوش مصنوعی را بررسی کنند. در حالی که این راه حل امیدوارکننده...

به گزارش گروه دانشگاه خبرگزاری دانشجو، هوش مصنوعی (AI) به آستانه بحرانی رسیده است: آنها تقریباً تمام دانش بشری موجود را برای یادگیری خود خسته کرده‌اند. ایلان ماسک، در میان دیگران، زنگ خطر این بن بست فناوری را به صدا در می‌آورد.

این وضعیت محققان و شرکت‌ها را وادار می‌کند تا جایگزین‌ها، به‌ویژه داده‌های مصنوعی تولید شده توسط خود هوش مصنوعی را بررسی کنند. در حالی که این راه حل امیدوارکننده به نظر می‌رسد، سؤالات عمده‌ای در مورد کیفیت و قابلیت اطمینان مدل‌های آینده ایجاد می‌کند.

پایان داده‌های انسانی: نقطه عطفی برای هوش مصنوعی

مدل‌های مدرن هوش مصنوعی، مانند ChatGPT یا Bard، برای عملکرد به مقادیر نجومی داده نیاز دارند. این داده‌ها از کتاب ها، مقالات علمی، مکالمات آنلاین و منابع دیگر به دست می‌آیند. با این حال، رشد تصاعدی در نیاز‌های داده منجر به کمبود منابع با کیفیت شده است.

ایلان ماسک اخیراً اظهار داشت که از تمام دانش بشر برای آموزش هوش مصنوعی استفاده شده است، نقطه عطفی که سال گذشته به آن دست یافت. این منجر به "فروپاشی مدل" شده است که به عنوان فروپاشی مدل نیز شناخته می‌شود. این محدودیت محققان را وادار می‌کند تا در روش‌های یادگیری سیستم‌های هوش مصنوعی تجدید نظر کنند.

داده‌های مصنوعی: یک راه حل خطرناک

به نظر می‌رسد داده‌های مصنوعی تولید شده توسط هوش مصنوعی جایگزین مناسبی باشد. هزینه‌ها را کاهش می‌دهد و از مسائل مربوط به حریم خصوصی جلوگیری می‌کند. به عنوان مثال، استارتاپ Writer با استفاده از این روش، هزینه آموزش مدل Palmyra X 004 خود را شش برابر کاهش داد.

با این حال، این رویکرد خطراتی را به همراه دارد. هوش مصنوعی آموزش‌دیده بر روی داده‌های مصنوعی می‌تواند نتایج اشتباهی را ایجاد کند، پدیده‌ای به نام «توهم». علاوه بر این، این داده‌ها می‌توانند سوگیری‌های موجود در مدل‌های اولیه را تقویت کنند و قابلیت اطمینان آنها را به خطر بیندازند.

پیامد‌های آینده هوش مصنوعی

افزایش استفاده از داده‌های مصنوعی می‌تواند منجر به کاهش کیفیت مدل‌های هوش مصنوعی شود. محققان دانشگاه استنفورد نشان داده‌اند که مدل‌هایی که بر روی بیش از 50 درصد داده‌های مصنوعی آموزش دیده‌اند، خطا‌های واقعی بیشتری دارند.

علاوه بر این، این اتکا به داده‌های مصنوعی می‌تواند خلاقیت هوش مصنوعی را محدود کند. مدل‌ها در معرض خطر چرخیدن هستند و همان الگو‌ها را بدون نوآوری بازتولید می‌کنند. این وضعیت می‌تواند شرکت‌ها را وادار کند تا در استراتژی‌های توسعه خود تجدید نظر کنند.

به سوی افزایش همکاری و مقررات

در مواجهه با این چالش ها، شرکت‌ها ممکن است به مدل‌های فشرده‌تر و تخصصی‌تر روی بیاورند. همکاری بین سازمان‌ها برای به اشتراک گذاری داده‌های واقعی نیز می‌تواند ضروری باشد.

در عین حال، باید چارچوب‌های نظارتی سخت‌گیرانه‌تری برای کنترل استفاده از داده‌های مصنوعی ایجاد شود. هدف این اقدامات محدود کردن خطرات اخلاقی و فنی مرتبط با این عمل خواهد بود.