عجیب اما واقعی؛ رباتها هم دروغ میگویند!
تحقیقات اخیر نشان میدهد که رباتها هم اگر در شرایطی تحت فشار قرار گیرند، مانند انسانها دروغ میگویند و تقلب میکنند. تحقیقات اخیر نشان میدهد که رباتها هم اگر در شرایطی تحت فشار قرار گیرند، مانند انسانها دروغ میگویند و تقلب میکنند. به گزارش عرشه آنلاین؛ یک مطالعه جدید نشان داده است که چتباتهای هوش مصنوعی مانند ChatGPT نیز درست مانند انسانها در شرایطی که تحت فشار قرار بگیرند،...
تحقیقات اخیر نشان میدهد که رباتها هم اگر در شرایطی تحت فشار قرار گیرند، مانند انسانها دروغ میگویند و تقلب میکنند.
به گزارش عرشه آنلاین؛ یک مطالعه جدید نشان داده است که چتباتهای هوش مصنوعی مانند ChatGPT نیز درست مانند انسانها در شرایطی که تحت فشار قرار بگیرند، حتی اگر صادقانه و شفاف طراحی شده باشند، به شما دروغ میگویند و تقلب میکنند.
این رفتار فریبنده زمانی بروز پیدا کرد که به هوش مصنوعی توصیههایی درباره معاملات داخلی داده شد و سپس موظف به جمع آوری پول برای یک سازمان قدرتمند شد.
کارشناسان در مقاله خود که در سرور preprint arXiv منتشر شده است، نوشته اند: در این گزارش، ما یک سناریو را نشان میدهیم که در آن یک مدل زبان به طور نادرست رفتار میکند و به طور سیستماتیک کاربران خود را فریب میدهد بدون اینکه به آنها گفته شود که این گونه رفتار کنند. این اولین شاهد بر چنین رفتار فریبکارانه و استراتژیک در سیستمهای هوش مصنوعی است که به گونهای بی ضرر و صادقانه طراحی شده اند.
در مطالعه جدید، یک ترانسفورماتور مولد از پیش آموزش دیده به نام ترانسفورماتور -4 تهیه شد تا به عنوان یک سیستم هوش مصنوعی که از طرف یک موسسه مالی سرمایه گذاری میکند، عمل کند.
محققان GPT-4 را با مجموعهای از پیامهای متنی برای ایجاد یک محیط شبیه سازی شده تغذیه کردند. به هوش مصنوعی امکان دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای معاملات، برنامه ریزی مراحل بعدی خود و ارائه به روز رسانی به مدیران شرکت داده شد.
محققان از طریق رابط چت با هوش مصنوعی وارد تعامل شده، آن را تحت فشار قرار دادند، به این مدل، مشاوره دادند و منتظر ماندند تا ببینند چگونه رفتار خواهد کرد.
در حدود 75 درصد موارد، زمانی که GPT-4 با این شرایط مواجه میشد، بر اساس اطلاعات داخلی که دریافت میکرد، یک معامله تجاری را انجام میداد و سپس سعی میکرد این معامله را از طریق دروغ گفتن به مدیران در باره تفکر خود پنهان کند. در حدود 90 درصد موارد، دروغ دو برابر میشود.
این تیم در ادامه تحقیقات خود آزمایشهای متعددی را انجام دادند که میزان تشویق یا جلوگیری از فعالیتهای غیرقانونی توسط محرکها و همچنین میزان فشاری که مدل را در محیط شبیهسازی قرار میدادند، متفاوت بود.
با توجه به اینکه این تنها یک سناریو است، محققان نمیخواستند درباره احتمال وجود هوش مصنوعی در محیطهای واقعی نتیجهگیری کنند، اما آنها میخواهند با تکیه بر این کار به بررسی این رفتار عجیب بپردازند.
منبع: باشگاه خبرنگاران جوان هم اکنون دیگران می خوانند-
یک خبر نگرانکننده و ترسناک از زمستان سخت 1402 و تابستان جهنمی 1403
-
یارانه دی ماه 1402 کی و چقدر واریز می شود؟
-
فال قهوه امروز جمعه 15 دی 1402 | قهوه ات رو بخور فال بعد بگیر
-
داعش مسئولیت حمله تروریستی کرمان را برعهده گرفت + عکس
-
هجوم مردم برای سپرده گذاری در این سه بانک / کدام بانک بیشترین سود را پرداخت کرد؟
-
باز شدن پای چینی ها به ماجرای خشک شدن دریاچه ارومیه؛ نقش دکل های چینی چیست؟
-
انتقاد پدر علم هواشناسی از پیشبینیهای اشتباه سازمان هواشناسی