شگرد جدید کلاهبرداری؛ صدایی که از عزیزانتان میشنوید، واقعی نیست!
کلاهبرداران با استفاده از صدای ساخته شده با هوش مصنوعی برای گرفتن پول از خانواده ها اخاذی می کنند.
به گزارش خبرآنلاین، «چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»؛ این جملات بخشی از روایتی است که کاربری ایرانی به تازگی در شبکه اجتماعی ایکس آن را منتشر کرده و از تجربه برخورد با کلاهبرداری با هوش مصنوعی و درخواست واریز وجه به نام یکی از افراد آشنا نوشته است؛ اتفاقی که در ماه های اخیر موارد متعددی از آن توسط شهروندان ایرانی گزارش شده و طبق آمارهای بین المللی به سرعت در جهان در حال گسترش است.
این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال 2025 است. با وجود اینکه هنوز آمار رسمی ای از میزان کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما وکلای دادگستری، پلیس فتا و فعالان این حوزه درباره افزایش این نوع کلاهبرداری ها در ایران هشدار می دهند.
در سال 2025، بیش از 50 درصد از تقلب های شناسایی شده در پرداخت ها با نوعی از هوش مصنوعی یا دیپ فیک انجام شده اند و حجم بازار جهانی فناوری ضد فریب از حدود 13 میلیارد دلار در 2024 به 15/5 میلیارد دلاررسیده است.
در ادامه روایت کاربری که اخیراً دراین باره در شبکه ایکس نوشته، آمده است: «خاله و شوهرخاله ام در شوک بودند، اصلاً شک نکردند و چندین بار پول واریز کردند. تماس گیرنده ها هم مدام زنگ می زدند و می گفتند: پول کم آمده، زودتر بریزید، وقت نداریم، حالش در حال بدترشدن است. وقتی سقف کارت ها پر شد، برادرم هم برای کمک وارد ماجرا شد و چندین بار پول واریز کرد. او با موتور به سمت بیمارستان امام حسین تهران رفت، چون فکر می کرد به آنجا منتقل شده. تا اینجا چندین نفر برای کمک وارد ماجرا شدند اما تماس گیرنده ها بعد از فهمیدن موضوع عنوان کردند بیمارستان امام حسین کرج هستند. شما در نظر بگیرید تمام آن باگ ها و راه حل هایی که با خواندن این متن به ذهن شما می آید، ممکن است به ذهن خانواده ای که شوکه شده و مغزش کار نمی کند، نرسد. همان موقع برادرم شک کرد و تصمیم گرفت با خودِ پسر خاله تماس بگیرد. تماس تصویری گرفت و دید کاملاً سالم است، جای دیگری است و از هیچ چیز خبر ندارد. آنجا تازه فهمیدیم همه چیز یک کلاهبرداری حرفه ای بوده با صدای تقلیدی ساخته شده توسط هوش مصنوعی. وقتی موضوع را به یکی از آشناها گفتیم با شنیدن اول داستان عنوان کرد کلاهبرداریه، هفته پیش برای آشنای او هم این اتفاق افتاده؛ سناریویی مشابه با صدای دخترشان که وقتی امکان واریز پول نبوده، طلا و دلار گرفتند.»
احسان گل محمدی، روزنامه نگار ایرانی هم تجربه مشابهی از کلاهبرداری با صدای شبیه سازی شده به کمک هوش مصنوعی دارد. او مدتی پیش نوشته بود که کلاهبرداران با استفاده از هوش مصنوعی، درخواست واریز فوری پول را مطرح کرده بودند. گل محمدی حالا به «هم میهن» می گوید، تنها مسیر پیگیری این کلاهبرداری مراجعه حضوری به پلیس فتاست. او می گوید: «یکی از روش های تازه کلاهبرداری که برای چند نفر از نزدیکان رخ داده، از این قرار است که فردی با آنها تماس گرفته و با صدایی بسیار شبیه یکی از دوستان و بستگان شان از آنها تقاضای واریز فوری پول کرده است، اما وقتی آنها پول را واریز کرده اند و برای تأیید واریز پول با آن دوست یا فامیل خود تماس گرفته اند، متوجه شده اند که اصلاً او چنین تماسی با آنها نگرفته و از آنها کلاهبرداری شده است. این تماس ها با افراد ادامه داشت تااینکه دست بر قضا در یکی از این تماس ها، فردی که با صدای شبیه سازی شده آن فرد با دوست اش تماس گرفته بودند، در کافه ای کنار همان دوست اش حضور داشت و بدین ترتیب ماجرای کلاهبرداری لو رفت و مشخص شد، افراد کلاهبردار وقتی گوشی تلفن فردی را هک و به دفترچه تلفن او دسترسی پیدا کرده اند با استفاده از هوش مصنوعی یا دستگاه تغییر صدا، از سیم کارتی که ناشناس بوده با افراد تماس تلفنی گرفته اند تا بیشتر اعتماد فرد را جلب و درخواست پول کنند. اما اینکه چگونه می توان در مقابل این تکنولوژی، از جامعه در مقابل تبهکاران حفاظت کرد، نیازمند آموزش و اطلاع رسانی دستگاه های ذی ربط است. با یکی از مقامات پلیس فتا که این موضوع را در میان گذاشتیم، او تاکید کرد تنها راه این است که تلفن را قطع کنید و خودتان با آن فرد تماس بگیرید.»
نمونه پرونده های کلاهبرداری با هوش مصنوعی در ایران کم کم در میان خبرها دیده می شود و نمونه آن پرونده ای مربوط به جعل نسخه های پزشکی با استفاده از هوش مصنوعی است؛ روز یکشنبه همین هفته، معاون مبارزه با جعل و کلاهبرداری پلیس آگاهی پایتخت اعلام کرد که 26 شهریورماه امسال پرونده ای با موضوع جعل نسخه پزشکی با دو متهم و تعدادی نسخه پزشکی مورد پیگیری قرار گرفت.
در یک سال گذشته روایت های دیگری از این نوع کلاهبرداری در ایران منتشر شده است؛ سال گذشته یکی از کاربران شبکه ایکس نوشت: «ماه قبل پسرعمه ام به عموم زنگ میزنه که براش مشکلی پیش اومده و 10میلیون به حسابش بریزه و تا شب برمی گردونه. عموم هم پول رو میریزه. دو هفته می گذره ولی خبری از پسرعمه ام نمیشه. عموم زنگ میزنه بهش که چی شد مشکلت حل شد؟ پسرعمه ام بی خبر میگه چه مشکلی؟ اینجا تاره میفهمن کلاهبرداری بوده و شکایت میکنن. بعداً از طریق پلیس فتا متوجه میشن طرف با استفاده از هوش مصنوعی، صدای پسرعمه ام رو تقلید کرده و افراد زیادی به همین شکل به مشکل خوردن.»
مدتی پیش پلیس فتا در هشداری رسمی به مردم اعلام کرد: «هموطن عزیز، در صورت دریافت پیام درخواست وجه از مخاطبین خود، حتماً قبل از واریز، با تماس تلفنی از صحت آن مطمئن شوید. هک گوشی و درخواست پول از مخاطبین، یکی از ترفندهای مهم مجرمان سایبری است. لطفاً هوشیار باشید.» این هشدار پلیس فتا در ادامه موج رو به افزایش پرونده های کلاهبرداری اینترنتی از طریق نفوذ به تلفن همراه یا حساب های شخصی کاربران، صادر شده است. بررسی های کارشناسان امنیت سایبری نشان می دهد که در ماه های اخیر، مجرمان با دسترسی به اطلاعات مخاطبان کاربران، اقدام به ارسال پیام هایی با لحن اضطراری و دوستانه کرده و قربانی را به انتقال فوری وجه ترغیب می کنند. براساس داده های پلیس فتا، شیوه جدید مجرمان، آمیزه ای از مهندسی اجتماعی و نفوذ فنی است؛ آنان ابتدا با نصب بدافزار یا لینک جعلی، کنترل بخشی از داده های تلفن قربانی را در دست گرفته، سپس از اعتماد متقابل میان افراد سوءاستفاده می کنند. دراین میان، کاربران اغلب به دلیل «حجم اعتماد دیجیتالی بالا در بین دوستان»، بدون تماس تلفنی یا راستی آزمایی، اقدام به واریز وجه می کنند و متوجه موضوع پس از انجام تراکنش می شوند.»
مراقب «دیپ فیک» صوتی باشید
شهروندان عادی چطور می توانند این موارد را تشخیص دهند یا پیشگیری کنند؟ نوری توصیه می کند هر نوع دریافت پیام متنی یا صوتی، همچنین تماس صوتی که درخواست فوری پول یا دریافت کد ورود به یک سرویس یا هر اطلاعات حساس دیگری دارد، حتی اگر صدا آشنا و متعلق به اعضای خانواده و افراد بسیار نزدیک هم باشد، باید مشکوک تلقی شود و تماس باید سریعاً قطع شود و از طریق تماس مستقیم (ترجیحاً تصویری) با شماره اصلی کسی که او را می شناسیم، صحت موضوع و درخواست را بررسی کنیم.
او از برخی اقدامات پیشگیرانه و مهم می گوید که می تواند امنیت ما در مقابل حملات را یک قدم بیشتر کند: فعال سازی احراز هویت دومرحله ای در همه حساب ها و پیام رسان ها و آموزش گسترده به خصوص به کودکان و افراد مسن درباره مفهوم «هویت جعلی دیجیتال» و خطر به اشتراک گذاری کدها و اطلاعات حساس: «در صورت وقوع هک یا سوءاستفاده به این روش ها، پس از خارج کردن دستگاه های هکر از حساب هک شده، حتماً از طرق مختلف (از طریق پست / استوری در شبکه های اجتماعی یا روش های عمومی دیگر) مخاطبان را آگاه کنید. چراکه هریک از آن ها از طریق نصب بدافزاری که ممکن است از طرف شما برایشان ارسال شده باشد، می توانند حلقه بعدی این زنجیره کلاهبرداری باشند.»
ارژنگ ملک، رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران به «هم میهن» می گوید، کلاهبرداری با هوش مصنوعی قطعاً در کشور در حال گسترش است؛ چون در همه دنیا با سرعتی بسیار زیاد در حال رشد است و در ایران هم سرعتی نگران کننده دارد. علت اصلی آن هم ناآگاهی مردم از این جنس کلاهبرداری ها و هوش مصنوعی است. علاوه بر این بسیاری از ابزارهایی که با کمک هوش مصنوعی کار می کند، ساده و رایگان در اختیار مردم قرار دارد؛ ابزارهایی مثل تقلید صدا تا دیپ فیک های تصویری و مدل های زبانی مختلف. خوراک این هوش مصنوعی ها هم برای یادگیری شامل صدا، تصویر خام و اطلاعات شخصی ماست که به صورت عمومی در بسترهای مختلف وجود دارد که کار را برای کلاهبرداران ساده تر می کند و این جنس کلاهبرداری هم روزبه روز در حال افزایش است.
ملک توضیح می دهد که هنوز آمار رسمی درباره رایج ترین انواع کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما طبق گزارش های مردمی و پلیس، بیشترین کلاهبرداری ها در ایران با استفاده از هوش مصنوعی مربوط به دیپ فیک های صوتی است که از مردم کلاهبرداری مالی می کنند. مرحله بعد، فیشینگ های پیشرفته است. به واسطه ناآگاهی عمومی مردم نسبت به تکنولوژی، هنوز هم موارد زیادی از کلاهبرداری با لینک های جعلی کلاسیک توسط مردم دیده می شود، حالا تصور کنید که هوش مصنوعی هم به این حوزه وارد شود؛ در این شرایط حتماً نرخ آن افزایش پیدا می کند. مرحله بعد هم کلاهبرداری در قالب کمپین های مربوط به پیش بینی بازارهای مالی به کمک چت بات هاست.
رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران می گوید: «مهم ترین کلاهبرداری هایی که با هوش مصنوعی صورت می گیرد، دیپ فیک است که در بستر صوت و تصویر انجام می شود و قربانیان متعددی دارد. در ایران هم مهم ترین و بزرگترین کلاهبرداری هایی که با استفاده از هوش مصنوعی انجام می شود، در حوزه دیپ فیک های صوتی است. به این صورت که با صدای یکی از آشنایان، با فرد تماس گرفته و در سناریویی، یک شرایط بحرانی برای قربانی ترسیم می شود و غالباً درخواست وجه مالی می شود. هر ماشین هوش مصنوعی برای تقلید صدا نیاز به تعدادی نمونه صوتی دارد که به واسطه گسترش شبکه های اجتماعی، نمونه صدای افراد در دسترس است و به این ترتیب برای ماشین هوش مصنوعی میسر است که صدای افراد را تقلید کند. ازطرف دیگر، یک ماشین هوش مصنوعی دیگر که در زمینه تبدیل متن به صوت عمل می کند، وارد بازی می شود و هر متنی را که در اختیار آن قرار دهیم، با صدای تقلیدشده به قربانی کلاهبرداری ارائه می کند. این کار به راحتی می تواند اطمینان او را جلب کند و فرد، قربانی کلاهبرداری شود.»
ملک می گوید، یکی دیگر از انواع این کلاهبرداری ها، دیپ فیک های تصویری است که مشابه همین الگوریتم است و برای یادگیری نیاز به نمونه تصویری دارد که اغلب در بستر وب موجود است. در این کلاهبرداری ها یک ماشین هوش مصنوعی که حرکات صورت و تصویر را شبیه سازی و پیامی را به قربانی منتقل می کند، ایجاد می شود. میزان این کلاهبرداری کمتر از دیپ فیک های صوتی و معمولاً در لایه های بالاتر رخ می دهد و برای اخاذی ها و سوءاستفاده ها انجام می شود. به گفته او یکی دیگر از این کلاهبرداری ها، فیشینگ است: «نمونه آشنای این نوع از کلاهبرداری لینک هایی است که برای افراد از طریق پیام کوتاه یا شبکه های اجتماعی ارسال می شود و با کلیک روی آن یک سوءاستفاده و کلاهبرداری مالی صورت می گیرد. در این روش هوش مصنوعی می تواند متن پیام، ایمیل یا پیام کوتاه حاوی لینک فیشینگ را شخصی سازی کند و درنهایت قربانی با یک پیام از یک فرد آشنا روبه رو می شود که همان ادبیات و کلمات آشنا را دارد و اطمینان قربانی جلب و روی لینک کلیک می کند. یادگیری هوش مصنوعی هم به واسطه پیام های ما در شبکه های اجتماعی در بسترهای مختلف است و با لحن و ادبیات کلمات ما آشنا می شود و می تواند پیام های ما را شبیه سازی کند.»
رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران تاکید می کند که در بسیاری از موارد در لایه ای دولتی و سطوح بالاتر جامعه، این فیشینگ ها برای سوءاستفاده اطلاعاتی صورت می گیرد و هکرها برای جلب اطمینان افراد، یک ایمیل شخصی سازی شده برای افراد ارسال و او را وادار به کلیک روی یک لینک می کنند و درنهایت کلاهبرداری صورت می گیرد: «یکی دیگر از انواع کلاهبرداری با هوش مصنوعی مربوط به چت بات ها و ربات های پیش بینی کننده در بازارهای مالی است. هوش مصنوعی توان پیش بینی مدل های تکرارشونده و متغیرهایی که در بازار اثرگذارند را دارد، اما اغلب آنهایی که درحال حاضر در اختیار مردم است و روی آن تبلیغات انجام می شود، با هدف جمع آوری اطلاعات از کاربران و سوءاستفاده های مالی است و درعمل پیش بینی اتفاق نمی افتد؛ چون کاربر را درگیر روندی می کند که اطلاعات شخصی را در اختیار ربات قرار دهد و در قبال آن، اطلاعاتی از وضعیت بازار دریافت کند، اما درعمل از اطلاعات مالی و شخصی افراد سوءاستفاده می شود. یکی دیگر از انواع این کلاهبرداری ها در شبکه های اجتماعی انجام می شود که طبق آن حساب های کاربری ساخته می شود که یک هوش مصنوعی آن اکانت را مدیریت می کند و طبق هدفی که برای آن ترسیم شده، می تواند جریان سازی، سوءاستفاده فکری، دریافت اطلاعات و انواع کلاهبرداری را انجام دهد. این حساب های کاربری غیرواقعی در دنیا و ایران درحال رشد است و نوعی دیگر از کلاهبرداری به کمک هوش مصنوعی است.»
ملک اضافه می کند که نوعی دیگر از این کلاهبرداری ها استفاده از ناآگاهی مردم درقبال استفاده از هوش مصنوعی است: «وقتی پدیده نوظهوری در جامعه رخ می دهد، افرادی به وجود می آیند که می خواهند از ناآگاهی مردم سوء استفاده کنند؛ مثل دوره های هوش مصنوعی، آموزش هوش مصنوعی، پولدارشدن با هوش مصنوعی، پکیج هوش مصنوعی و موارد مشابه. یعنی هوش مصنوعی را به یک راهگشا که صرفاً با پرداخت پول و دریافت یک محتوا یا نرم افزار، اغلب مشکلات برطرف می شوند، تبدیل می کند اما بیشتر آنها سوءاستفاده و کلاهبرداری از قربانیان است.»
او به مردم توصیه می کند که چند نکته کلیدی را برای جلوگیری از قربانی شدن توسط هوش مصنوعی در نظر داشته باشند، به خصوص وقتی با کلاهبرداری با استفاده از دیپ ف یک و تماس صوتی نامعتبر روبه رو می شوند: «اگر با تماس های مربوط به درخواست کمک مالی از سوی افراد آشنا روبه رو شدید، صرفاً به یک صدا بسنده نکنید و اگر ممکن است تماس تصویری برقرار کنید یا آن تماس را قطع کنید و خودتان مستقیم با فردی که تماس گرفته، تماس برقرار کنیم تا بتوانیم تایید چندمرحله ای انجام دهیم. نکته دوم این است که اساساً کلاهبرداران از ترس و عجله قربانیان سوءاستفاده می کنند و آنها را در معرض تصمیم عجولانه قرار می دهند. در این شرایط باید خونسردی خود را حفظ کنیم تا تصمیمی عاقلانه بگیریم و درگیر هیجان و فشار آن تماس صوتی نشویم. تا جایی که ممکن است در یک بستر ناشناس، اطلاعات عمومی؛ از نشانی تا اطلاعات حساب بانکی خود را منتشر نکنیم. چون کلاهبرداران با در اختیار داشتن این اطلاعات، اعتماد قربانیان را جلب می کنند و می تواند حتی بدون اطلاع ما، کلاهبرداری کنند. حتی صدای خام ما می تواند یک خوراک برای یک ماشین هوش مصنوعی باشد که صدای ما را تقلید کند.» او تاکید می کند تا جای ممکن باید بدانیم در کدام لینک در حال پرداخت پول یا وارد کردن اطلاعات هستیم. هرزمان دچار این کلاهبرداری ها شدیم بلافاصله به پلیس اطلاع دهیم و این تجربه را به اطرافیان انتقال دهیم: «به واسطه فیلترینگ گسترده در ایران، مردم مجبور به استفاده از فیلترشکن های مختلفی اند که همین ضریب امنیت را کاهش می دهد. وقتی آی پی ما، پایدار و مطمئن نیست و دائم در حال تغییر نباشد، راحت تر مورد سوءاستفاده قرار می گیریم.»
47236
کد خبر 2139100