چالش آگاهی در عصر هوش مصنوعی
به گزارش مشرق، آگاهی راستین، مفهومی عمیق و چندوجهی است که از دیرباز مورد بحث فلاسفه، دانشمندان و اندیشمندان بوده است. آگاهی راستین بهعنوان شناخت و درک عمیق و دقیق انسان از خود، جهان و موقعیت او در اجتماع تعریف میشود.
آگاهی راستین زمانی در افراد شکل میگیرد که چند ویژگی در ساحت شناخت و معرفت او برجسته باشد؛ نخست «خودآگاهی» است یعنی شناخت دقیق نقاط قوت، نقاط ضعف، ارزشها، باورها و انگیزههای خود؛ دوم «آگاهی از محیط» است یعنی درک عمیق از دنیای پیرامون، اعم از مسائل اجتماعی، سیاسی، اقتصادی و فرهنگی؛ سوم مهارت «تفکر انتقادی» است یعنی توانایی تحلیل و بررسی اطلاعات بهطور عمیق و بدون تعصب؛ چهارم «خلاقیت» است یعنی توانایی ارائه ایدهها و راهحلهای جدید برای مسائل جدید در یک محیط متغیر و نهایتا «مسئولیتپذیری» است که به پذیرش مسئولیت اعمال و رفتار خود و تعهد به بهبود آنها مربوط میشود.
ارزشآفرینی مولفههای فوق در توسعه فردی، اجتماعی و اقتصادی فرد و جامعه اهمیت دارد زیرا آگاهی راستین به فرد کمک میکند با درک عمیق از خود و محیط پیرامون، تصمیمات آگاهانهتر و بهتری در زندگی بگیرد. همچنین فرد با شناخت خود و دیگران، میتواند روابط قویتر و عمیقتری برقرار کند. با تفکر انتقادی و خلاقیت، میتواند راهحلهای جدید و کارآمدی برای مسائل مختلف پیدا کرده و ضمن رشد و توسعه فردی به ایجاد تغییرات مثبت در جامعه کمک کند زیرا توسعه اجتماعی در ابتدا نیازمند درک عمیق از مسائل اجتماعی، سیاسی و اقتصادی است.
آگاهی راستین بهطور ویژه نیز برای دموکراسی و عدالت اجتماعی ضروری است، چون به افراد اجازه میدهد در مورد مسائل اجتماعی و سیاسی بهطور انتقادی فکر کنند، در تصمیمگیریهای آگاهانه مشارکت کرده و برای تغییر اجتماعی تلاش کنند.
ایجاد و توسعه آگاهی راستین سفری مداوم و بدون پایان است که از راه مطالعه و تفکر، تأمل و مراقبه، اختصاص زمان برای تفکر عمیق و بدون تعصب از دنیای پیرامون، مراقبت از خود، ارتباط و معاشرت با افراد آگاه و نیز خارج شدن از «منطقه امن خود» و کسب تجربههای جدید میگذرد اما این سفر موانع و مشکلات متعددی بر سر راه خود دارد که امر آگاهی راستین را به آگاهی کاذب و نادرست جهت میدهد که در آن افراد درک نادرستی از خود و واقعیتهای اجتماعی پیدا میکنند. بهطور تاریخی این موانع عبارتاند از:
1- قدرت: در نظامهای اقتدارگرا، صاحبان اقتدار و زور اعم از حاکمان، دیکتاتورها، احزاب سیاسی و نهادهای فرهنگی همواره از ابزارهای مختلفی برای کنترل اطلاعات و شکلدهی به افکار عمومی استفاده میکردند. این ابزارها شامل سانسور، پروپاگاندا، آموزش ایدئولوژی و سرکوب مخالفان بوده است. قدرت در ترکیب با ثروت میتواند از طریق رسانهها، موسسات آموزشی و سایر منابع، روایتهای غالب را شکل داده و آگاهی عمومی را تحت تاثیر خود قرار دهند. گاهی این قدرت میتواند بازیگران بدخیم خارجی باشند دولتها و شرکتهایی که بهدلیل خصومت سیاسی و راهبردی از ابزار جنگ نرم برای آسیب به افکار عمومی جامعه هدف بهره میبرند.
2- جهل: در جوامعی که سطح سواد و آگاهی عمومی پایین بود، مردم بیشتر در معرض شایعات، خرافات و اطلاعات نادرست بودهاند و عموما تابع احساسات و هیجانات آنی و نسنجیده میشوند.
3- تعصب: تعصبات قومی، مذهبی، جنسیتی و طبقاتی میتوانستند در نحوه تفسیر و پردازش اطلاعات توسط افراد نقش داشته و یک مانع جدی در پذیرش حقایقی است که با آن در تقابل است.
4- ویژگیهای روانشناختی و ساختاری ذهن: «سوگیری تأیید» ازجمله ویژگیهای ذهن بشر است که آن دسته از حقایق زندگی را میپذیرد که با باورها و نظام هنجاری و روانشناختی او مطابقت دارد. ذهن مایل است اطلاعات جدید دریافتی اطلاعات پیشین او را تایید کند.
5- فناوری: پیشرفتهای فناورانه بهویژه در حوزه اطلاعات و ارتباطات مانند چاپ و رادیو، امکان انتشار اطلاعات را بهطور گستردهتر فراهم کرد، اما درعینحال به قدرتمندان و ثروتمندان و سایر ذینفعان بدخیم (قدرتهای خارجی) ابزارهای جدیدی برای کنترل و دستکاری اطلاعات داد. در اینجا سوال این است که هوش مصنوعی بهعنوان فناوری نوظهور اطلاعاتی، چگونه بر آگاهی راستین اثر میگذارد و آیا میتوان تاثیرات آن را مدیریت کرد؟
تاثیرات منفی AI بر آگاهی راستین
بررسی اجمالی نشان میدهد هوش مصنوعی به طرق زیر میتواند بر آگاهی راستین اثر بگذارد:
- افزایش وابستگی شناختی به هوش مصنوعی: با توسعه هوش مصنوعی و فراگیر شدن استفاده از الگوریتمهای هوشمند در آموزش و شبکههای اجتماعی و ارتباطی بسیاری از کارکردهای شناختی انسان، از تصمیمگیری تا خلاقیت، درحال وابسته شدن به هوش مصنوعی است. این تغییرات شامل نحوه درک و تجربه جهان نیز میشود زیرا هوش مصنوعی میتواند به انسان در دیدن و شنیدن چیزهایی که در دسترس نیستند و یا با حواس پنجگانه قابل تجربه شدن نیستند کمک کند.
AI با انجام امور پیچیده، زمانبر و خستهکننده میتواند به کمک هوش انسانی آمده تا خلاقیت و نوآوری را افزایش دهد؛ اما این امر ذهن افراد را در استفاده از کارکردهای پیشین هوش انسانی چون استفاده از حافظه، حل مسائل پیچیده، استدلال و تعمق و استفاده از دانش پیشین تنبل و کند کرده و بهتدریج وابستگی غیرقابلجبران به هوش مصنوعی همهگیر خواهد شد.
- افزایش سرعت تولید و نشر آگاهی نادرست: هوش مصنوعی میتواند برای انتشار اطلاعات نادرست، جعلی و نفرتافکن بهصورت تبلیغات و شایعات استفاده شود. این امر میتواند بهویژه در رسانههای اجتماعی، جایی که افراد بهطور فزایندهای برای دریافت اخبار و اطلاعات خود به آن اتکا میکنند، مشکلساز شود برای نمونه در سال 2016 رباتهای توییتر بهطور گسترده برای انتشار اطلاعات نادرست و ایجاد شایعه در انتخابات ریاست جمهوری آمریکا استفاده شدند.
- دستکاری افکار عمومی با اهداف سیاسی: هوش مصنوعی میتواند برای شکلدهی به افکار عمومی از طریق ردیابی رفتار آنلاین افراد و پیشبینی افکار و احساسات آنها مورد استفاده قرار گیرد. این امر میتواند به دستکاری انتخابات، ترویج خشونت و نفرتپراکنی و تضعیف اعتماد به نهادهای دموکراتیک منجر شود. در سال 2018، کمپانی Cambridge Analytica از دادههای فیسبوک برای هدف قرار دادن رأیدهندگان با تبلیغات سیاسی شخصیسازیشده استفاده کرد.
- تضعیف عقلانیت و تقویت تعصب افراطی: اساسا حفظ آگاهی راستین از انحراف و دستکاری در حوزه دموکراسی اهمیت ویژه دارد. هوش مصنوعی با افزایش سرعت انتشار اطلاعات نادرست و رساندن هدفمند آن به پروفایلهای خرد به روند انتخابات سنجیده و خردمند صدمه میزند زیرا اصل این است که شهروندان با مواجهه با حداکثر ایدهها و عقاید سیاسی دست به انتخاب سنجیده و آزاد بزنند، درحالیکه عاملیت انسانی در بستر شبکههای اجتماعی در معرض اطلاعات نفرتافکن، کاذب و نادرست قرار میگیرد و تحت تاثیر فضای نفرت یا طرفداری افراطی از انتخاب شایسته دور نگهداشته میشود.
الگوریتمهای هوش مصنوعی از طریق اتاقکهای پژواک، رباتهای اجتماعی و دیپ فیک میتواند بهجای تقویت تفکر و تعقل عمیق، هیجانات و احساسات منفی و افراطی را در میان شهروندان علیه یا له نظام سیاسی، نامزدهای انتخاباتی و فعالان اجتماعی تهییج کند که گاهی خشونت همراه آن به فضای آفلاین هم سرریز میشود. گاهی نیز افراد برای دور ماندن از فشارها و ترسهای ناشی از طوفان هشتکها و منشهای رباتهای فعال در شبکههای اجتماعی، انزوای سیاسی و اجتماعی را انتخاب میکند.
- ایجاد اجماع جعلی: هوش مصنوعی میتواند از طریق رباتهای اجتماعی و تولید هویتهای جعلی و مصنوعی، ایجاد کمپینهای دروغین، جعل عمیق و سایر اشکال فریب استفاده شود. این امر میتواند به آسیب رساندن به شهرت افراد و ایجاد محبوبیت کاذب برای افراد غیر مستحق و موضوعات نادرست و جعلی در حوزه سلامت عمومی، باورهای ملی و... کمک کند.
- محدود کردن دسترسی به اطلاعات: هوش مصنوعی از طریق الگوریتمهای طبقهبندی مخاطبان که به حبابهای فیلتر معروف است افراد را در معرض اطلاعات محدود و موافق با دیدگاههای خودشان قرار میدهد و آنان را در غارهای اطلاعاتی محدود حبس میکند بدون آنکه در معرض اطلاعات متفاوت دیگر قرار گیرند.
- کاهش مهارتهای تفکر انتقادی: اعتیاد به استفاده از تحلیلها و توصیههای هوش مصنوعی علاوه بر اینکه قابلیتهای استدلالی و تحلیلی ذهن را تضعیف میکند، میتواند مهارتهای تفکر انتقادی را کاهش دهد و آگاهی افراد در معرض اطلاعات نادرست و تبلیغاتی بیشتر آسیب ببیند. فرد به مرور زمان با دریافت خدمات رایگان از شبکههای مجازی به اطلاعات این فضا اعتماد پیدا میکند و کمتر مایل است صحت درستی و نادرستی انبوه اطلاعات دریافتی در روز را بررسی کند.
- فقدان شفافیت در تحلیل اطلاعات: بسیاری از الگوریتمهای هوش مصنوعی مانند جعبه سیاه عمل میکنند، به این معنی که درک نحوه عملکرد تحلیل و استنباطی آنها دشوار است. این امر میتواند همراه با نتایج و کارکردهای از هوش مصنوعی شود که بخشی از آگاهی جامعه را دستکاری و جهتدهی کند؛ مانند الگوریتمهای فیلتر حباب که افراد را در غارهای اطلاعاتی مشابه و همگن حبس کرده بخشی از اطلاعات از منظر افراد دور میشود.
- سوگیری الگوریتمی: الگوریتمهای هوش مصنوعی میتوانند سوگیریهای موجود در دادههایی که آموزش دیدهاند را منعکس و تقویت کنند. دادههایی که برای آموزش الگوریتمها استفاده میشوند، غالبا سوگیریهای ذاتی توسعهدهندگان و طراحان را منعکس میکنند. سوگیریای که ناشی از نوع جهانبینی، آگاهی طبقاتی، جنسیتی و سیاسی و قومی آنهاست.
این سوگیریها میتوانند از طریق انتخاب منابع داده، نحوه جمعآوری دادهها و نحوه برچسبگذاری دادهها وارد شوند. به عنوان مثال اگر الگوریتمی برای تشخیص چهره با استفاده از دادههایی آموزش داده شود که عمدتا از افراد سفیدپوست تشکیلشده باشد، احتمالا در تشخیص چهره افراد با رنگینپوستان کمتر دقیق خواهد بود.
- ایجاد کلیشههای کاذب هویتی و جنسیتی: هوش مصنوعی بر آگاهی زنان و جوانان که مصرفکنندگان اصلی شبکههای اجتماعی هستند تاثیر بیشتری دارد. برای نمونه AI از طریق باتهای اجتماعی و فناوری دیپفیک برای ایجاد و انتشار ویدئوهای جعلی و تصاویر فتوشاپی استفاده میشود تا علیه زنان فعال اجتماعی شایعه و تصویرسازی منفی کند. همچنین هوش مصنوعی میتواند کلیشههای جنسیتی را در تبلیغات و محتوای آنلاین تقویت کند. فشار برای تناسباندام ایدهآلهای زیبایی غیر قابل دسترس را در زنان افزایش دهد.
مهمترین تأثیر هوش مصنوعی بر جوانان شکلگیری هویت شناختی نوجوانان و جوانان مبتنی بر انبوه اطلاعات نادرست و مغرضانهای است که آنان را از مزایای راستین در زندگی فردی و اجتماعی دور میکند، کاهش مهارت تفکر انتقادی در جوانان از نتایج قرار گرفتن طولانیمدت در معرض اطلاعات نادرستی است که از طریق انواع هوش مصنوعی در فضای مجازی تولید و انتشار مییابد.
مزایای AI در تقویت آگاهی راستین
تاثیرات مخرب هوش مصنوعی بر آگاهی راستین و تولید آگاهی کاذب همه قصه این فناوری نیست و مشارکت آن باهوش انسانی مزایای پرشماری برای آگاهی راستین در بر دارد. ازجمله:
- افزایش پتانسیل خلاقیت و نوآوری بشر: هوش مصنوعی میتواند به انسانها در انجام کارهایی که قبلا غیرممکن بود کمک کند و به آنها امکان میدهد به ایدهها و نظریاتی جدید در حوزه علم و هنر دست پیدا کنند که در سابق نیازمند صرف زمان و هزینه بسیار بود.
- افزایش دسترسی به اطلاعات: هوش مصنوعی دسترسی به اطلاعات و دادههای پنهان و غیرقابل مشاهده را افزایش میدهد و به افراد امکان میدهد در مورد موضوعات مختلف آگاهی متنوعی کسب کنند.
- تحلیل اطلاعات کلان: هوش مصنوعی میتواند به تحلیل و تفسیر حجم عظیمی از دادهها کمک کند و با دقت بالا و زمان کم، روندهای مورد نظر را پیشبینی کند (بهویژه در حوزه سلامت، محیطزیست و اقتصاد) امری که از توان ذهن انسان خارج است و در حل مسائل پیچیده و شرایط متغیر و بحرانی بسیار کاربردی است.
- افزایش سرعت کسب آگاهی: به نسبت گذشته و رویکردهای سنتی در دریافت اطلاعات همچون کتاب، رادیو و تلویزیون، از طریق هوش مصنوعی میتوان در یک زمان کوتاه اطلاعات دستهبندی و دقیقتری را در اختیار گرفت بدون آنکه فرد زمان زیادی را بین اسناد و کسب شواهد و قراین پرشمار صرف کند.
- یادگیری شخصی: هوش مصنوعی میتواند تجربیات یادگیری را شخصیسازی کند و به افراد در یادگیری موثرتر با توجه به پروفایل روانشناختی فرد و شرایط یادگیری او کمک کند.
- افزایش آگاهی از سوگیری: هوش مصنوعی میتواند به ما در آگاهی از سوگیریهای خود و دیگران کمک کند البته چنانچه نسبت به آن آموزش لازم را دیده باشد و الگوریتمهای شناسایی اطلاعات جعلی توسعه بیشتری یابد.
راهکارها و درسهای سیاستی
سوال نهایی آن است که با توجه به مزایا و تاثیرات منفی هوش مصنوعی بر آگاهی راستین مهمترین راهحلها کدام است؟ صاحبنظران به گزینههای فنی و آموزشی زیر بیشترین تاکید را دارند.
- آموزش و تقویت مهارت تفکر انتقادی: مراجع آموزشی و تربیتی میتوانند به افراد کمک کنند تا از طریق تفکر انتقادی، ابعاد مختلف آگاهی راستین خود را حفظ کنند و در زندگی فردی و اجتماعی تصمیمات آگاهانه، ارادی و سنجیده بگیرند.
- آموزش سواد دیجیتال: آموزش افراد برای اینکه بتوانند اطلاعات نادرست و تبلیغات را از منابع معتبر و غیر معتبر شناسایی و رد کنند. این موضوع باید با آموزش قابلیتهای مثبت و منفی هوش مصنوعی و کاربردهای هنجارمند آن نیز همراه شود.
- تقویت مسئولیتپذیری: افراد باید در قبال اطلاعاتی که به اشتراک میگذارند مسئولیتپذیر باشند و منابع اطلاعات خود را بررسی کنند.
- توسعه هوش مصنوعی قابلاعتماد و مسئولیتپذیر: دور شدن از معایب هوش مصنوعی در حوزه آگاهی، نیازمند توسعه نوعی از فناوری است که سوگیری شناختی در آن به حداقل رسیده باشد و نیز مستلزم ترویج استفاده مسئولانه از هوش مصنوعی است بهنحویکه کاربران و توسعه دهندگان هوش مصنوعی تضمین بدهند که از آن برای دستکاری آگاهی استفاده نکنند.
- افزایش شفافیت و تنوع در تیمهای توسعه هوش مصنوعی: تنوع در پیشینهها، تجربیات و دیدگاهها میتواند به شناسایی و کاهش سوگیری شناختی در الگوریتمها کمک کند. همچنین شفافسازی نحوه عملکرد الگوریتمها و دادههایی که برای آموزش آنها استفاده میشوند، میتواند به شناسایی و رفع سوگیریها کمک کند.
برای مدیریت تاثیرات مخرب هوش مصنوعی باید به این نکته مهم توجه داشت که این فناوری در مقایسه با عوامل اثرگذار تاریخی، همچون دولتهای پوپولیست، ایدئولوژی و رسانههای سنتی؛ قدرت نفوذ و اثر بیشتری بر آگاهی راستین دارد. در این راستا پنهان و نامحسوس بودن تأثیر هوش مصنوعی ویژگیای برجسته است.
الگوریتمهای هوش مصنوعی میتوانند بسیار پیچیده و غیرقابل فهم عمل کنند لذا ردیابی و شناسایی نحوه دستکاری اطلاعات و آگاهی توسط آنها دشوار است. سرعت و دقت عمل هوش مصنوعی نیز بسیار بیشتر هوش مصنوعی میتواند اطلاعات را با سرعت و بهطور دقیق به افراد مختلف هدفگذاری شده ارائه دهد.
نتیجهگیری
امروزه هوش مصنوعی ابزاری قدرتمند است که میتواند برای دستکاری انواع آگاهی فردی و اجتماعی استفاده شود. درعینحال باید پذیرفت در عصر حاضر، آگاهی راستین ترکیبی از عاملیت انسانی و عاملیت ماشین شده است که باید از ترکیب اخلاقی و مسئولیتپذیر آن صیانت کرد البته این صیانت نهتنها مستلزم توسعه هوش مصنوعی مسئولیتپذیر و اخلاقی بوده که نیازمند عاملیت انسانی است که بهصورت مادامالعمر در معرض یادگیری باشد و همگام با تحولات فناورانه در حوزه ارتباطات و اطلاعات مهارتهای استدلالی لازم را دریافت کند.
بر اساس نظریه سایبرنتیک با توسعه روزافزون فناوریهای هوشمند، انسان ناچار است شکل تعامل خود با ماشینهای هوشمند را بازبینی کرده به نحوی که با جسم، روح و آگاهی او یک جهان یکپارچه و هماهنگ را ایجاد کند.
منابع مورد استفاده:
Manzotti, R. (2007). From artificial intelligence to artificial consciousness. Artificial consciousness, 174-190.
Meissner, G. (2020). Artificial intelligence: consciousness and conscience. AI & SOCIETY, 35, 225-235.
Ali Elfa, M. A., & Dawood, M. E. T. (2023). Using Artificial Intelligence for enhancing Human Creativity. Journal of Art, Design and Music, 2(2), 3.
Mazzone, M., & Elgammal, A. (2019, February). Art, creativity, and the potential of artificial intelligence. In Arts (Vol. 8, No. 1, p. 26). MDPI.
Marien, M. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. Cadmus, 2(2), 174.
Gruner, D. T., & Csikszentmihalyi, M. (2019). Engineering creativity in an age of artificial intelligence. The Palgrave Handbook of Social Creativity Research, 447-462.
Dong, Y., Hou, J., Zhang, N., & Zhang, M. (2020). Research on how human intelligence, consciousness, and cognitive computing affect the development of artificial intelligence. Complexity, 2020, 1-10.
European Parliamentary, (2019) Regulating disinformation with artificial intelligence, European Parliamentary Research Service Scientific (EPRS) Foresight Unit, PE 624.279
Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 election. Journal of Economic Perspectives, 31(2), 211-236.
نویسنده: راضیه مهرابیکوشکی، عضو هیاتعلمی پژوهشکده مطالعات فناوری