پنج‌شنبه 8 آذر 1403

چالش آگاهی در عصر هوش مصنوعی

وب‌گاه مشرق نیوز مشاهده در مرجع
چالش آگاهی در عصر هوش مصنوعی

به گزارش مشرق، آگاهی راستین، مفهومی عمیق و چندوجهی است که از دیرباز مورد بحث فلاسفه، دانشمندان و اندیشمندان بوده است. آگاهی راستین به‌عنوان شناخت و درک عمیق و دقیق انسان از خود، جهان و موقعیت او در اجتماع تعریف می‌شود.

آگاهی راستین زمانی در افراد شکل می‌گیرد که چند ویژگی در ساحت شناخت و معرفت او برجسته باشد؛ نخست «خودآگاهی» است یعنی شناخت دقیق نقاط قوت، نقاط ضعف، ارزش‌ها، باورها و انگیزه‌های خود؛ دوم «آگاهی از محیط» است یعنی درک عمیق از دنیای پیرامون، اعم از مسائل اجتماعی، سیاسی، اقتصادی و فرهنگی؛ سوم مهارت «تفکر انتقادی» است یعنی توانایی تحلیل و بررسی اطلاعات به‌طور عمیق و بدون تعصب؛ چهارم «خلاقیت» است یعنی توانایی ارائه ایده‌ها و راه‌حل‌های جدید برای مسائل جدید در یک محیط متغیر و نهایتا «مسئولیت‌پذیری» است که به پذیرش مسئولیت اعمال و رفتار خود و تعهد به بهبود آنها مربوط می‌شود.

ارزش‌آفرینی مولفه‌های فوق در توسعه فردی، اجتماعی و اقتصادی فرد و جامعه اهمیت دارد زیرا آگاهی راستین به فرد کمک می‌کند با درک عمیق از خود و محیط پیرامون، تصمیمات آگاهانه‌تر و بهتری در زندگی بگیرد. همچنین فرد با شناخت خود و دیگران، می‌تواند روابط قوی‌تر و عمیق‌تری برقرار کند. با تفکر انتقادی و خلاقیت، می‌تواند راه‌حل‌های جدید و کارآمدی برای مسائل مختلف پیدا کرده و ضمن رشد و توسعه فردی به ایجاد تغییرات مثبت در جامعه کمک کند زیرا توسعه اجتماعی در ابتدا نیازمند درک عمیق از مسائل اجتماعی، سیاسی و اقتصادی است.

آگاهی راستین به‌طور ویژه نیز برای دموکراسی و عدالت اجتماعی ضروری است، چون به افراد اجازه می‌دهد در مورد مسائل اجتماعی و سیاسی به‌طور انتقادی فکر کنند، در تصمیم‌گیری‌های آگاهانه مشارکت کرده و برای تغییر اجتماعی تلاش کنند.

ایجاد و توسعه آگاهی راستین سفری مداوم و بدون پایان است که از راه مطالعه و تفکر، تأمل و مراقبه، اختصاص زمان برای تفکر عمیق و بدون تعصب از دنیای پیرامون، مراقبت از خود، ارتباط و معاشرت با افراد آگاه و نیز خارج شدن از «منطقه امن خود» و کسب تجربه‌های جدید می‌گذرد اما این سفر موانع و مشکلات متعددی بر سر راه خود دارد که امر آگاهی راستین را به آگاهی کاذب و نادرست جهت می‌دهد که در آن افراد درک نادرستی از خود و واقعیت‌های اجتماعی پیدا می‌کنند. به‌طور تاریخی این موانع عبارت‌اند از:

1- قدرت: در نظام‌های اقتدارگرا، صاحبان اقتدار و زور اعم از حاکمان، دیکتاتورها، احزاب سیاسی و نهادهای فرهنگی همواره از ابزارهای مختلفی برای کنترل اطلاعات و شکل‌دهی به افکار عمومی استفاده می‌کردند. این ابزارها شامل سانسور، پروپاگاندا، آموزش ایدئولوژی و سرکوب مخالفان بوده است. قدرت در ترکیب با ثروت می‌تواند از طریق رسانه‌ها، موسسات آموزشی و سایر منابع، روایت‌های غالب را شکل داده و آگاهی عمومی را تحت تاثیر خود قرار دهند. گاهی این قدرت می‌تواند بازیگران بدخیم خارجی باشند دولت‌ها و شرکت‌هایی که به‌دلیل خصومت سیاسی و راهبردی از ابزار جنگ نرم برای آسیب به افکار عمومی جامعه هدف بهره می‌برند.

2- جهل: در جوامعی که سطح سواد و آگاهی عمومی پایین بود، مردم بیشتر در معرض شایعات، خرافات و اطلاعات نادرست بوده‌اند و عموما تابع احساسات و هیجانات آنی و نسنجیده می‌شوند.

3- تعصب: تعصبات قومی، مذهبی، جنسیتی و طبقاتی می‌توانستند در نحوه تفسیر و پردازش اطلاعات توسط افراد نقش داشته و یک مانع جدی در پذیرش حقایقی است که با آن در تقابل است.

4- ویژگی‌های روان‌شناختی و ساختاری ذهن: «سوگیری تأیید» ازجمله ویژگی‌های ذهن بشر است که آن دسته از حقایق زندگی را می‌پذیرد که با باورها و نظام هنجاری و روان‌شناختی او مطابقت دارد. ذهن مایل است اطلاعات جدید دریافتی اطلاعات پیشین او را تایید کند.

5- فناوری: پیشرفت‌های فناورانه به‌ویژه در حوزه اطلاعات و ارتباطات مانند چاپ و رادیو، امکان انتشار اطلاعات را به‌طور گسترده‌تر فراهم کرد، اما درعین‌حال به قدرتمندان و ثروتمندان و سایر ذینفعان بدخیم (قدرت‌های خارجی) ابزارهای جدیدی برای کنترل و دست‌کاری اطلاعات داد. در اینجا سوال این است که هوش مصنوعی به‌عنوان فناوری نوظهور اطلاعاتی، چگونه بر آگاهی راستین اثر می‌گذارد و آیا می‌توان تاثیرات آن را مدیریت کرد؟

تاثیرات منفی AI بر آگاهی راستین

بررسی اجمالی نشان می‌دهد هوش مصنوعی به طرق زیر می‌تواند بر آگاهی راستین اثر بگذارد:

- افزایش وابستگی شناختی به هوش مصنوعی: با توسعه هوش مصنوعی و فراگیر شدن استفاده از الگوریتم‌های هوشمند در آموزش و شبکه‌های اجتماعی و ارتباطی بسیاری از کارکردهای شناختی انسان، از تصمیم‌گیری تا خلاقیت، درحال وابسته شدن به هوش مصنوعی است. این تغییرات شامل نحوه درک و تجربه جهان نیز می‌شود زیرا هوش مصنوعی می‌تواند به انسان در دیدن و شنیدن چیزهایی که در دسترس نیستند و یا با حواس پنج‌گانه قابل تجربه شدن نیستند کمک کند.

AI با انجام امور پیچیده، زمان‌بر و خسته‌کننده می‌تواند به کمک هوش انسانی آمده تا خلاقیت و نوآوری را افزایش دهد؛ اما این امر ذهن افراد را در استفاده از کارکردهای پیشین هوش انسانی چون استفاده از حافظه، حل مسائل پیچیده، استدلال و تعمق و استفاده از دانش پیشین تنبل و کند کرده و به‌تدریج وابستگی غیرقابل‌جبران به هوش مصنوعی همه‌گیر خواهد شد.

- افزایش سرعت تولید و نشر آگاهی نادرست: هوش مصنوعی می‌تواند برای انتشار اطلاعات نادرست، جعلی و نفرت‌افکن به‌صورت تبلیغات و شایعات استفاده شود. این امر می‌تواند به‌ویژه در رسانه‌های اجتماعی، جایی که افراد به‌طور فزاینده‌ای برای دریافت اخبار و اطلاعات خود به آن اتکا می‌کنند، مشکل‌ساز شود برای نمونه در سال 2016 ربات‌های توییتر به‌طور گسترده برای انتشار اطلاعات نادرست و ایجاد شایعه در انتخابات ریاست جمهوری آمریکا استفاده شدند.

- دست‌کاری افکار عمومی با اهداف سیاسی: هوش مصنوعی می‌تواند برای شکل‌دهی به افکار عمومی از طریق ردیابی رفتار آنلاین افراد و پیش‌بینی افکار و احساسات آنها مورد استفاده قرار گیرد. این امر می‌تواند به دست‌کاری انتخابات، ترویج خشونت و نفرت‌پراکنی و تضعیف اعتماد به نهادهای دموکراتیک منجر شود. در سال 2018، کمپانی Cambridge Analytica از داده‌های فیسبوک برای هدف قرار دادن رأی‌دهندگان با تبلیغات سیاسی شخصی‌سازی‌شده استفاده کرد.

- تضعیف عقلانیت و تقویت تعصب افراطی: اساسا حفظ آگاهی راستین از انحراف و دست‌کاری در حوزه دموکراسی اهمیت ویژه دارد. هوش مصنوعی با افزایش سرعت انتشار اطلاعات نادرست و رساندن هدفمند آن به پروفایل‌های خرد به روند انتخابات سنجیده و خردمند صدمه می‌زند زیرا اصل این است که شهروندان با مواجهه با حداکثر ایده‌ها و عقاید سیاسی دست به انتخاب سنجیده و آزاد بزنند، درحالی‌که عاملیت انسانی در بستر شبکه‌های اجتماعی در معرض اطلاعات نفرت‌افکن، کاذب و نادرست قرار می‌گیرد و تحت تاثیر فضای نفرت یا طرفداری افراطی از انتخاب شایسته دور نگه‌داشته می‌شود.

الگوریتم‌های هوش مصنوعی از طریق اتاقک‌های پژواک، ربات‌های اجتماعی و دیپ فیک می‌تواند به‌جای تقویت تفکر و تعقل عمیق، هیجانات و احساسات منفی و افراطی را در میان شهروندان علیه یا له نظام سیاسی، نامزدهای انتخاباتی و فعالان اجتماعی تهییج کند که گاهی خشونت همراه آن به فضای آفلاین هم سرریز می‌شود. گاهی نیز افراد برای دور ماندن از فشارها و ترس‌های ناشی از طوفان هشتک‌ها و منش‌های ربات‌های فعال در شبکه‌های اجتماعی، انزوای سیاسی و اجتماعی را انتخاب می‌کند.

- ایجاد اجماع جعلی: هوش مصنوعی می‌تواند از طریق ربات‌های اجتماعی و تولید هویت‌های جعلی و مصنوعی، ایجاد کمپین‌های دروغین، جعل عمیق و سایر اشکال فریب استفاده شود. این امر می‌تواند به آسیب رساندن به شهرت افراد و ایجاد محبوبیت کاذب برای افراد غیر مستحق و موضوعات نادرست و جعلی در حوزه سلامت عمومی، باورهای ملی و... کمک کند.

- محدود کردن دسترسی به اطلاعات: هوش مصنوعی از طریق الگوریتم‌های طبقه‌بندی مخاطبان که به حباب‌های فیلتر معروف است افراد را در معرض اطلاعات محدود و موافق با دیدگاه‌های خودشان قرار می‌دهد و آنان را در غارهای اطلاعاتی محدود حبس می‌کند بدون آنکه در معرض اطلاعات متفاوت دیگر قرار گیرند.

- کاهش مهارت‌های تفکر انتقادی: اعتیاد به استفاده از تحلیل‌ها و توصیه‌های هوش مصنوعی علاوه بر اینکه قابلیت‌های استدلالی و تحلیلی ذهن را تضعیف می‌کند، می‌تواند مهارت‌های تفکر انتقادی را کاهش دهد و آگاهی افراد در معرض اطلاعات نادرست و تبلیغاتی بیشتر آسیب ببیند. فرد به مرور زمان با دریافت خدمات رایگان از شبکه‌های مجازی به اطلاعات این فضا اعتماد پیدا می‌کند و کمتر مایل است صحت درستی و نادرستی انبوه اطلاعات دریافتی در روز را بررسی کند.

- فقدان شفافیت در تحلیل اطلاعات: بسیاری از الگوریتم‌های هوش مصنوعی مانند جعبه سیاه عمل می‌کنند، به این معنی که درک نحوه عملکرد تحلیل و استنباطی آنها دشوار است. این امر می‌تواند همراه با نتایج و کارکردهای از هوش مصنوعی شود که بخشی از آگاهی جامعه را دست‌کاری و جهت‌دهی کند؛ مانند الگوریتم‌های فیلتر حباب که افراد را در غارهای اطلاعاتی مشابه و همگن حبس کرده بخشی از اطلاعات از منظر افراد دور می‌شود.

- سوگیری الگوریتمی: الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌های موجود در داده‌هایی که آموزش دیده‌اند را منعکس و تقویت کنند. داده‌هایی که برای آموزش الگوریتم‌ها استفاده می‌شوند، غالبا سوگیری‌های ذاتی توسعه‌دهندگان و طراحان را منعکس می‌کنند. سوگیری‌ای که ناشی از نوع جهان‌بینی، آگاهی طبقاتی، جنسیتی و سیاسی و قومی آنهاست.

این سوگیری‌ها می‌توانند از طریق انتخاب منابع داده، نحوه جمع‌آوری داده‌ها و نحوه برچسب‌گذاری داده‌ها وارد شوند. به عنوان مثال اگر الگوریتمی برای تشخیص چهره با استفاده از داده‌هایی آموزش داده شود که عمدتا از افراد سفیدپوست تشکیل‌شده باشد، احتمالا در تشخیص چهره افراد با رنگین‌پوستان کمتر دقیق خواهد بود.

- ایجاد کلیشه‌های کاذب هویتی و جنسیتی: هوش مصنوعی بر آگاهی زنان و جوانان که مصرف‌کنندگان اصلی شبکه‌های اجتماعی هستند تاثیر بیشتری دارد. برای نمونه AI از طریق بات‌های اجتماعی و فناوری دیپ‌فیک برای ایجاد و انتشار ویدئوهای جعلی و تصاویر فتوشاپی استفاده می‌شود تا علیه زنان فعال اجتماعی شایعه و تصویرسازی منفی کند. همچنین هوش مصنوعی می‌تواند کلیشه‌های جنسیتی را در تبلیغات و محتوای آنلاین تقویت کند. فشار برای تناسب‌اندام ایده‌آل‌های زیبایی غیر قابل دسترس را در زنان افزایش دهد.

مهم‌ترین تأثیر هوش مصنوعی بر جوانان شکل‌گیری هویت شناختی نوجوانان و جوانان مبتنی بر انبوه اطلاعات نادرست و مغرضانه‌ای است که آنان را از مزایای راستین در زندگی فردی و اجتماعی دور می‌کند، کاهش مهارت تفکر انتقادی در جوانان از نتایج قرار گرفتن طولانی‌مدت در معرض اطلاعات نادرستی است که از طریق انواع هوش مصنوعی در فضای مجازی تولید و انتشار می‌یابد.

مزایای AI در تقویت آگاهی راستین

تاثیرات مخرب هوش مصنوعی بر آگاهی راستین و تولید آگاهی کاذب همه قصه این فناوری نیست و مشارکت آن باهوش انسانی مزایای پرشماری برای آگاهی راستین در بر دارد. ازجمله:

- افزایش پتانسیل خلاقیت و نوآوری بشر: هوش مصنوعی می‌تواند به انسان‌ها در انجام کارهایی که قبلا غیرممکن بود کمک کند و به آنها امکان می‌دهد به ایده‌ها و نظریاتی جدید در حوزه علم و هنر دست پیدا کنند که در سابق نیازمند صرف زمان و هزینه بسیار بود.

- افزایش دسترسی به اطلاعات: هوش مصنوعی دسترسی به اطلاعات و داده‌های پنهان و غیرقابل مشاهده را افزایش می‌دهد و به افراد امکان می‌دهد در مورد موضوعات مختلف آگاهی متنوعی کسب کنند.

- تحلیل اطلاعات کلان: هوش مصنوعی می‌تواند به تحلیل و تفسیر حجم عظیمی از داده‌ها کمک کند و با دقت بالا و زمان کم، روندهای مورد نظر را پیش‌بینی کند (به‌ویژه در حوزه سلامت، محیط‌زیست و اقتصاد) امری که از توان ذهن انسان خارج است و در حل مسائل پیچیده و شرایط متغیر و بحرانی بسیار کاربردی است.

- افزایش سرعت کسب آگاهی: به نسبت گذشته و رویکردهای سنتی در دریافت اطلاعات همچون کتاب، رادیو و تلویزیون، از طریق هوش مصنوعی می‌توان در یک زمان کوتاه اطلاعات دسته‌بندی و دقیق‌تری را در اختیار گرفت بدون آنکه فرد زمان زیادی را بین اسناد و کسب شواهد و قراین پرشمار صرف کند.

- یادگیری شخصی: هوش مصنوعی می‌تواند تجربیات یادگیری را شخصی‌سازی کند و به افراد در یادگیری موثرتر با توجه به پروفایل روان‌شناختی فرد و شرایط یادگیری او کمک کند.

- افزایش آگاهی از سوگیری: هوش مصنوعی می‌تواند به ما در آگاهی از سوگیری‌های خود و دیگران کمک کند البته چنانچه نسبت به آن آموزش لازم را دیده باشد و الگوریتم‌های شناسایی اطلاعات جعلی توسعه بیشتری یابد.

راهکارها و درس‌های سیاستی

سوال نهایی آن است که با توجه به مزایا و تاثیرات منفی هوش مصنوعی بر آگاهی راستین مهم‌ترین راه‌حل‌ها کدام است؟ صاحب‌نظران به گزینه‌های فنی و آموزشی زیر بیشترین تاکید را دارند.

- آموزش و تقویت مهارت تفکر انتقادی: مراجع آموزشی و تربیتی می‌توانند به افراد کمک کنند تا از طریق تفکر انتقادی، ابعاد مختلف آگاهی راستین خود را حفظ کنند و در زندگی فردی و اجتماعی تصمیمات آگاهانه، ارادی و سنجیده بگیرند.

- آموزش سواد دیجیتال: آموزش افراد برای اینکه بتوانند اطلاعات نادرست و تبلیغات را از منابع معتبر و غیر معتبر شناسایی و رد کنند. این موضوع باید با آموزش قابلیت‌های مثبت و منفی هوش مصنوعی و کاربردهای هنجارمند آن نیز همراه شود.

- تقویت مسئولیت‌پذیری: افراد باید در قبال اطلاعاتی که به اشتراک می‌گذارند مسئولیت‌پذیر باشند و منابع اطلاعات خود را بررسی کنند.

- توسعه هوش مصنوعی قابل‌اعتماد و مسئولیت‌پذیر: دور شدن از معایب هوش مصنوعی در حوزه آگاهی، نیازمند توسعه نوعی از فناوری است که سوگیری شناختی در آن به حداقل رسیده باشد و نیز مستلزم ترویج استفاده مسئولانه از هوش مصنوعی است به‌نحوی‌که کاربران و توسعه دهندگان هوش مصنوعی تضمین بدهند که از آن برای دست‌کاری آگاهی استفاده نکنند.

- افزایش شفافیت و تنوع در تیم‌های توسعه هوش مصنوعی: تنوع در پیشینه‌ها، تجربیات و دیدگاه‌ها می‌تواند به شناسایی و کاهش سوگیری شناختی در الگوریتم‌ها کمک کند. همچنین شفاف‌سازی نحوه عملکرد الگوریتم‌ها و داده‌هایی که برای آموزش آنها استفاده می‌شوند، می‌تواند به شناسایی و رفع سوگیری‌ها کمک کند.

برای مدیریت تاثیرات مخرب هوش مصنوعی باید به این نکته مهم توجه داشت که این فناوری در مقایسه با عوامل اثرگذار تاریخی، همچون دولت‌های پوپولیست، ایدئولوژی و رسانه‌های سنتی؛ قدرت نفوذ و اثر بیشتری بر آگاهی راستین دارد. در این راستا پنهان و نامحسوس بودن تأثیر هوش مصنوعی ویژگی‌ای برجسته است.

الگوریتم‌های هوش مصنوعی می‌توانند بسیار پیچیده و غیرقابل فهم عمل کنند لذا ردیابی و شناسایی نحوه دست‌کاری اطلاعات و آگاهی توسط آنها دشوار است. سرعت و دقت عمل هوش مصنوعی نیز بسیار بیشتر هوش مصنوعی می‌تواند اطلاعات را با سرعت و به‌طور دقیق به افراد مختلف هدف‌گذاری شده ارائه دهد.

نتیجه‌گیری

امروزه هوش مصنوعی ابزاری قدرتمند است که می‌تواند برای دست‌کاری انواع آگاهی فردی و اجتماعی استفاده شود. درعین‌حال باید پذیرفت در عصر حاضر، آگاهی راستین ترکیبی از عاملیت انسانی و عاملیت ماشین شده است که باید از ترکیب اخلاقی و مسئولیت‌پذیر آن صیانت کرد البته این صیانت نه‌تنها مستلزم توسعه هوش مصنوعی مسئولیت‌پذیر و اخلاقی بوده که نیازمند عاملیت انسانی است که به‌صورت مادام‌العمر در معرض یادگیری باشد و همگام با تحولات فناورانه در حوزه ارتباطات و اطلاعات مهارت‌های استدلالی لازم را دریافت کند.

بر اساس نظریه سایبرنتیک با توسعه روزافزون فناوری‌های هوشمند، انسان ناچار است شکل تعامل خود با ماشین‌های هوشمند را بازبینی کرده به نحوی که با جسم، روح و آگاهی او یک جهان یکپارچه و هماهنگ را ایجاد کند.

منابع مورد استفاده:

Manzotti, R. (2007). From artificial intelligence to artificial consciousness. Artificial consciousness, 174-190.

Meissner, G. (2020). Artificial intelligence: consciousness and conscience. AI & SOCIETY, 35, 225-235.

Ali Elfa, M. A., & Dawood, M. E. T. (2023). Using Artificial Intelligence for enhancing Human Creativity. Journal of Art, Design and Music, 2(2), 3.

Mazzone, M., & Elgammal, A. (2019, February). Art, creativity, and the potential of artificial intelligence. In Arts (Vol. 8, No. 1, p. 26). MDPI.

Marien, M. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. Cadmus, 2(2), 174.

Gruner, D. T., & Csikszentmihalyi, M. (2019). Engineering creativity in an age of artificial intelligence. The Palgrave Handbook of Social Creativity Research, 447-462.

Dong, Y., Hou, J., Zhang, N., & Zhang, M. (2020). Research on how human intelligence, consciousness, and cognitive computing affect the development of artificial intelligence. Complexity, 2020, 1-10.

European Parliamentary, (2019) Regulating disinformation with artificial intelligence, European Parliamentary Research Service Scientific (EPRS) Foresight Unit, PE 624.279

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 election. Journal of Economic Perspectives, 31(2), 211-236.

نویسنده: راضیه مهرابی‌کوشکی، عضو هیات‌علمی پژوهشکده مطالعات فناوری

چالش آگاهی در عصر هوش مصنوعی 2