جمعه ۱۶ آبان ۱۴۰۴

مقالات

رواج کلاهبرداری با هوش مصنوعی

رواج کلاهبرداری با هوش مصنوعی
پیام آذری - هم میهن /متن پیش رو در هم میهن منتشر شده و بازنشرش در آخرین خبر به معنای تاییدش نیست سارا سبزی| «چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف ...
  بزرگنمايي:

پیام آذری - هم میهن /متن پیش رو در هم میهن منتشر شده و بازنشرش در آخرین خبر به معنای تاییدش نیست
سارا سبزی| «چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»؛ این جملات بخشی از روایتی است که کاربری ایرانی به تازگی در شبکه اجتماعی ایکس آن را منتشر کرده و از تجربه برخورد با کلاهبرداری با هوش مصنوعی و درخواست واریز وجه به نام یکی از افراد آشنا نوشته است؛ اتفاقی که در ماه های اخیر موارد متعددی از آن توسط شهروندان ایرانی گزارش شده و طبق آمارهای بین المللی به سرعت در جهان در حال گسترش است. 
این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال 2025 است. با وجود اینکه هنوز آمار رسمی ای از میزان کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما وکلای دادگستری، پلیس فتا و فعالان این حوزه درباره افزایش این نوع کلاهبرداری ها در ایران هشدار می دهند. 
در سال 2025، بیش از 50 درصد از تقلب های شناسایی شده در پرداخت ها با نوعی از هوش مصنوعی یا دیپ فیک انجام شده اند و حجم بازار جهانی فناوری ضد فریب از حدود 13 میلیارد دلار در 2024 به 15/5 میلیارد دلار رسیده است. 
در ادامه روایت کاربری که اخیراً دراین باره در شبکه ایکس نوشته، آمده است: «خاله و شوهرخاله ام در شوک بودند، اصلاً شک نکردند و چندین بار پول واریز کردند. تماس گیرنده ها هم مدام زنگ می زدند و می گفتند: پول کم آمده، زودتر بریزید، وقت نداریم، حالش در حال بدترشدن است. وقتی سقف کارت ها پر شد، برادرم هم برای کمک وارد ماجرا شد و چندین بار پول واریز کرد. او با موتور به سمت بیمارستان امام حسین تهران رفت، چون فکر می کرد به آنجا منتقل شده. تا اینجا چندین نفر برای کمک وارد ماجرا شدند اما تماس گیرنده ها بعد از فهمیدن موضوع عنوان کردند بیمارستان امام حسین کرج هستند. شما در نظر بگیرید تمام آن باگ ها و راه حل هایی که با خواندن این متن به ذهن شما می آید، ممکن است به ذهن خانواده ای که شوکه شده و مغزش کار نمی کند، نرسد. همان موقع برادرم شک کرد و تصمیم گرفت با خودِ پسر خاله تماس بگیرد. تماس تصویری گرفت و دید کاملاً سالم است، جای دیگری است و از هیچ چیز خبر ندارد. آنجا تازه فهمیدیم همه چیز یک کلاهبرداری حرفه ای بوده با صدای تقلیدی ساخته شده توسط هوش مصنوعی. وقتی موضوع را به یکی از آشناها گفتیم با شنیدن اول داستان عنوان کرد کلاهبرداریه، هفته پیش برای آشنای او هم این اتفاق افتاده؛ سناریویی مشابه با صدای دخترشان که وقتی امکان واریز پول نبوده، طلا و دلار گرفتند.»
احسان گل محمدی، روزنامه نگار ایرانی هم تجربه مشابهی از کلاهبرداری با صدای شبیه سازی شده به کمک هوش مصنوعی دارد. او مدتی پیش نوشته بود که کلاهبرداران با استفاده از هوش مصنوعی، درخواست واریز فوری پول را مطرح کرده بودند. گل محمدی حالا به «هم میهن» می گوید، تنها مسیر پیگیری این کلاهبرداری مراجعه حضوری به پلیس فتاست. او می گوید: «یکی از روش های تازه کلاهبرداری که برای چند نفر از نزدیکان رخ داده، از این قرار است که فردی با آنها تماس گرفته و با صدایی بسیار شبیه یکی از دوستان و بستگان شان از آنها تقاضای واریز فوری پول کرده است، اما وقتی آنها پول را واریز کرده اند و برای تأیید واریز پول با آن دوست یا فامیل خود تماس گرفته اند، متوجه شده اند که اصلاً او چنین تماسی با آنها نگرفته و از آنها کلاهبرداری شده است. این تماس ها با افراد ادامه داشت تااینکه دست بر قضا در یکی از این تماس ها، فردی که با صدای شبیه سازی شده آن فرد با دوست اش تماس گرفته بودند، در کافه ای کنار همان دوست اش حضور داشت و بدین ترتیب ماجرای کلاهبرداری لو رفت و مشخص شد، افراد کلاهبردار وقتی گوشی تلفن فردی را هک و به دفترچه تلفن او دسترسی پیدا کرده اند با استفاده از هوش مصنوعی یا دستگاه تغییر صدا، از سیم کارتی که ناشناس بوده با افراد تماس تلفنی گرفته اند تا بیشتر اعتماد فرد را جلب و درخواست پول کنند. اما اینکه چگونه می توان در مقابل این تکنولوژی، از جامعه در مقابل تبهکاران حفاظت کرد، نیازمند آموزش و اطلاع رسانی دستگاه های ذی ربط است. با یکی از مقامات پلیس فتا که این موضوع را در میان گذاشتیم، او تاکید کرد تنها راه این است که تلفن را قطع کنید و خودتان با آن فرد تماس بگیرید.»
نمونه پرونده های کلاهبرداری با هوش مصنوعی در ایران کم کم در میان خبرها دیده می شود و نمونه آن پرونده ای مربوط به جعل نسخه های پزشکی با استفاده از هوش مصنوعی است؛ روز یکشنبه همین هفته، معاون مبارزه با جعل و کلاهبرداری پلیس آگاهی پایتخت اعلام کرد که 26 شهریورماه امسال پرونده ای با موضوع جعل نسخه پزشکی با دو متهم و تعدادی نسخه پزشکی مورد پیگیری قرار گرفت. 
در یک سال گذشته روایت های دیگری از این نوع کلاهبرداری در ایران منتشر شده است؛ سال گذشته یکی از کاربران شبکه ایکس نوشت: «ماه قبل پسرعمه ام به عموم زنگ میزنه که براش مشکلی پیش اومده و 10میلیون به حسابش بریزه و تا شب برمی گردونه. عموم هم پول رو میریزه. دو هفته می گذره ولی خبری از پسرعمه ام نمیشه. عموم زنگ میزنه بهش که چی شد مشکلت حل شد؟ پسرعمه ام بی خبر میگه چه مشکلی؟ اینجا تاره میفهمن کلاهبرداری بوده و شکایت میکنن. بعداً از طریق پلیس فتا متوجه میشن طرف با استفاده از هوش مصنوعی، صدای پسرعمه ام رو تقلید کرده و افراد زیادی به همین شکل به مشکل خوردن.»
مدتی پیش پلیس فتا در هشداری رسمی به مردم اعلام کرد: «هموطن عزیز، در صورت دریافت پیام درخواست وجه از مخاطبین خود، حتماً قبل از واریز، با تماس تلفنی از صحت آن مطمئن شوید. هک گوشی و درخواست پول از مخاطبین، یکی از ترفندهای مهم مجرمان سایبری است. لطفاً هوشیار باشید.» این هشدار پلیس فتا در ادامه موج رو به افزایش پرونده های کلاهبرداری اینترنتی از طریق نفوذ به تلفن همراه یا حساب های شخصی کاربران، صادر شده است. بررسی های کارشناسان امنیت سایبری نشان می دهد که در ماه های اخیر، مجرمان با دسترسی به اطلاعات مخاطبان کاربران، اقدام به ارسال پیام هایی با لحن اضطراری و دوستانه کرده و قربانی را به انتقال فوری وجه ترغیب می کنند. براساس داده های پلیس فتا، شیوه جدید مجرمان، آمیزه ای از مهندسی اجتماعی و نفوذ فنی است؛ آنان ابتدا با نصب بدافزار یا لینک جعلی، کنترل بخشی از داده های تلفن قربانی را در دست گرفته، سپس از اعتماد متقابل میان افراد سوءاستفاده می کنند. دراین میان، کاربران اغلب به دلیل «حجم اعتماد دیجیتالی بالا در بین دوستان»، بدون تماس تلفنی یا راستی آزمایی، اقدام به واریز وجه می کنند و متوجه موضوع پس از انجام تراکنش می شوند.»
هشدار درباره افزایش کلاهبرداری با هوش مصنوعی در ایران
بزرگ ترین جهش تهدید طی دو سال اخیر، کلاهبرداری مبتنی بر هوش مصنوعی مولد است؛ یعنی استفاده از مدل های تولید تصویر، ویدئو و صدا برای جعل هویت. نشریه راه پرداخت مدتی پیش نوشت که گزارش های تخصصی در سال 2025 می گویند که بیش از نیمی از موارد تقلب، شناسایی شده در پرداخت و خدمات مالی، حالا به نوعی شامل سوءاستفاده از هوش مصنوعی یا محتوای «دیپ فِیک» بوده اند؛ این یعنی دیگر با «تصویر دزدیده شده از کارت ملی» طرف نیستیم؛ با ویدئویی طرفیم که فرد هرگز آن را ضبط نکرده، اما لب می زند، پلک می زند و درخواست انتقال پول می دهد. کارشناسان حوزه فتا توصیه می کنند کاربران علاوه بر تماس تلفنی پیش از هرگونه انتقال وجه، از فعال سازی احراز هویت دومرحله ای در پیام رسان ها و شبکه های اجتماعی غافل نشوند و از نصب برنامه های ناشناخته یا کلیک بر روی لینک های تبلیغاتی و جایزه نما خودداری کنند.
علیرضا طباطبایی، وکیل دادگستری در حوزه جرائم سایبری است و به «هم میهن» می گوید، هنوز با پرونده ای که با استفاده از هوش مصنوعی در آن کلاهبرداری رخ داده باشد، روبه رو نشده، بااین حال باتوجه به اینکه این نوع از کلاهبرداری ها در جهان رخ می دهد، به زودی شاهد تشکیل پرونده دراین باره در ایران هم خواهیم بود: «در این نوع از کلاهبرداری ها از تکه هایی از صدا و ویدئوهای افراد استفاده می کنند و فیلم هایی را با هوش مصنوعی می سازند و برای خانواده ها می فرستند تا آنها را به پرداخت پول ترغیب کنند. برای مثال با هوش مصنوعی صدا را تغییر می دهند و می گویند، من را گروگان گرفته اند یا در بیمارستان هستم و در قالب یک تماس تلفنی به اشخاص نزدیک، درخواست پول می کنند. در کشورهای دیگر این موارد بسیار اتفاق افتاده و حتی به عنوان مدیرعامل شرکت، تماس صوتی با صدای تغییرداده شده به حسابدار شرکت گفته شده که پولی را به حسابی دیگر واریز کند. او از راه های پیشگیری از مواجهه با این کلاهبرداری ها گفت و توصیه کرد که شهروندان در درجه اول به هیچ عنوان به تلفن های ناشناس پاسخ ندهند؛ چون ممکن است صدای آنها ضبط و شبیه سازی و به واسطه آن مشکلاتی ایجاد شود. او می گوید، دومین اقدام پیشگیرانه این است که مردم فیلمی از خودشان در شبکه های اجتماعی منتشر نکنند؛ چون ممکن است برخی کلاهبرداران به واسطه همین فیلم ها و به کمک فناوری دیپ فیک از آنها کلاهبرداری کنند. از نگاه این وکیل دادگستری، سومین نکته ای که شهروندان باید دراین زمینه به یاد داشته باشند این است که اگر پیام متنی، صوتی یا ویدئویی از آشنایان خود دریافت کردند که در آن درخواست کمک مالی یا واریز پول مطرح شده بود، حتماً پیش از واریز، یک بار صحت این پیام را با خود فرد، بررسی کنند. 
 قانون جرائم رایانه ای در سال 1388 برای تعیین مصادیق استفاده مجرمانه از سامانه های رایانه ای و مخابراتی به تصویب مجلس شورای اسلامی رسید. انواع جرائم رایانه ای به سه دسته ی کلی تقسیم می شوند که شامل خرابکاری رایانه ای، کلاه برداری رایانه ای و جاسوسی رایانه ای هستند. امروزه اصلی ترین حوزه مربوط به جرائم رایانه ای که پیگیری آن توسط وکیل جرائم سایبری انجام می شود، جرم هک و جرائم اقتصادی رایانه ای است که صرف نظر از ضررها و خسارت های اتفاقی که حاصل بی مبالاتی وارده به سامانه های رایانه ای است، به هفت دسته تقسیم می شوند: دسترسی غیرمجاز به دستگاه های پردازش داده، جرائم اقتصادی سنتی به کمک پردازش داده ها (DP)، جرائم مربوط به رایانه علیه حقوق فردی، خصوصاً علیه حق حریم خصوصی شهروندان، کلاهبرداری از طریق دستکاری رایانه ای سیستم پردازش داده، جاسوسی رایانه ای و سرقت نرم افزار، خرابکاری رایانه ای و سرقت خدمات.
 طباطبایی می گوید، موارد کلاهبرداری با استفاده از هوش مصنوعی نیز با استفاده از قانون جرائم رایانه بررسی می شود: «قانون مرتبط با این جرائم بسته به نوع نتیجه ای است که حاصل می شود؛ اگر نتیجه آن برداشت وجه از حساب کسی باشد، علاوه بر جعل رایانه ای، قانون مربوط به کلاهبرداری رایانه ای هم استفاده می شود. اگر برداشت وجه انجام نشود و صرفاً شخص به جعل اقدام کند، این اقدام جعل رایانه ای محسوب می شود. اگر فرد تصویر کسی را به صورت تقلبی بسازد و آن را منتشر کند، علاوه بر جعل رایانه ای، می تواند مشمول قانون مربوط به تصاویر مستهجن و مبتذل هم باشد. درنهایت نیازی به قانون جدیدی نیست و قانون جرائم رایانه ای آن را پوشش می دهد.»
مراقب «دیپ فیک» صوتی باشید
در سال های اخیر نمونه های متنوعی از کلاهبرداری به روش مهندسی اجتماعی وجود داشت که طبق آن، کلاهبردار حساب تلگرام یا سایر پیام رسان های فرد قربانی را هک می کرد، سپس از طریق آن حساب، برای مخاطبان قربانی پیامی در راستای واریز وجه (مثل واریز پول بیمارستان به دلیل گرفتار شدن در شرایطی بحرانی) یا دریافت کد ورود به یک سیستم به بهانه های مختلف (مثل ارسال پیام برای گرفتن کد ورود دانش آموزان به یک پیام رسان از طرف حساب هک شده مدیر مدرسه به بهانه حضور و غیاب که اخیراً به صورت گسترده اتفاق افتاده بود) ارسال می کردند که باتوجه به ارسال پیام از طرف شخصی آشنا، اعتماد کاربر جلب می شد و روند کلاهبرداری از قربانی ها ادامه پیدا می کرد. این روش های مهندسی اجتماعی، حالا با ظهور ابزارهای هوش مصنوعی پیشرفته تر شده اند و توانایی جعل صدا، تولید متن های بسیار قابل باور و ساخت محتوای تصویری یا ویدئویی باورپذیر، سطح فریبکاری را به طور چشمگیری افزایش داده است. 
میلاد نوری، برنامه نویس است و درباره انواع کلاهبرداری با هوش مصنوعی و مواردی که در ایران رخ داده به هم میهن توضیح می دهد. او می گوید، مهم ترین و فریبنده ترین انواع کلاهبرداری مبتنی بر هوش مصنوعی که امروز در ایران هم شاهد آن هستیم ،عبارت است از دیپ فیک صوتی (Voice Deepfake) که در آن جعل صدای افراد آشنا برای جلب اعتماد و درخواست انتقال وجه، نصب اپلیکیشن مخرب و بدافزار به بهانه دریافت وام و مواردی دیگر یا گرفتن اطلاعات حساس مثل کد ورود به یک سیستم صورت می گیرد. او از موارد متعدد کلاهبرداری با جعل صدا در ماه های اخیر خبر می دهد و می گوید: «در ایران در ماه های اخیر موارد متعددی اتفاق افتاده که با صدای جعلی یکی از دوستان و آشنایان، با فرد قربانی تماس گرفته می شود و درخواست فوری انتقال پول یا ارسال کد تأییدشده است. در این روش، فرد تماس گیرنده خود را در موقعیتی اضطراری (مثلاً گرفتارشدن در بیمارستان به دلیل تصادف، نیاز سریع به پول و...) نشان می دهد تا قربانی فرصت بررسی با دقت بیشتر را نداشته باشد.» نوری در پاسخ به این پرسش که آیا می توان گفت کلاهبرداری با هوش مصنوعی در ایران رو به افزایش است؟ توضیح می دهد که ابزارهای تولید صدا، تصویر و متن به واسطه هوش مصنوعی، اکنون به راحتی در دسترس هستند و درمقابل، سطح آگاهی عمومی کاربران نسبت به این خطرها و تهدیدات بسیار کندتر رشد کرده است. به ویژه ترکیب این فناوری ها با روش های شناخته شده مهندسی اجتماعی، باعث شده تعداد و پیچیدگی حملات افزایش یابد.
شهروندان عادی چطور می توانند این موارد را تشخیص دهند یا پیشگیری کنند؟ نوری توصیه می کند هر نوع دریافت پیام متنی یا صوتی، همچنین تماس صوتی که درخواست فوری پول یا دریافت کد ورود به یک سرویس یا هر اطلاعات حساس دیگری دارد، حتی اگر صدا آشنا و متعلق به اعضای خانواده و افراد بسیار نزدیک هم باشد، باید مشکوک تلقی شود و تماس باید سریعاً قطع شود و از طریق تماس مستقیم (ترجیحاً تصویری) با شماره اصلی کسی که او را می شناسیم، صحت موضوع و درخواست را بررسی کنیم.
او از برخی اقدامات پیشگیرانه و مهم می گوید که می تواند امنیت ما در مقابل حملات را یک قدم بیشتر کند: فعال سازی احراز هویت دومرحله ای در همه حساب ها و پیام رسان ها و آموزش گسترده به خصوص به کودکان و افراد مسن درباره مفهوم «هویت جعلی دیجیتال» و خطر به اشتراک گذاری کدها و اطلاعات حساس: «در صورت وقوع هک یا سوءاستفاده به این روش ها، پس از خارج کردن دستگاه های هکر از حساب هک شده، حتماً از طرق مختلف (از طریق پست/ استوری در شبکه های اجتماعی یا روش های عمومی دیگر) مخاطبان را آگاه کنید. چراکه هریک از آن ها از طریق نصب بدافزاری که ممکن است از طرف شما برایشان ارسال شده باشد، می توانند حلقه بعدی این زنجیره کلاهبرداری باشند.»
ارژنگ ملک، رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران به «هم میهن» می گوید، کلاهبرداری با هوش مصنوعی قطعاً در کشور در حال گسترش است؛ چون در همه دنیا با سرعتی بسیار زیاد در حال رشد است و در ایران هم سرعتی نگران کننده دارد. علت اصلی آن هم ناآگاهی مردم از این جنس کلاهبرداری ها و هوش مصنوعی است. علاوه بر این بسیاری از ابزارهایی که با کمک هوش مصنوعی کار می کند، ساده و رایگان در اختیار مردم قرار دارد؛ ابزارهایی مثل تقلید صدا تا دیپ فیک های تصویری و مدل های زبانی مختلف. خوراک این هوش مصنوعی ها هم برای یادگیری شامل صدا، تصویر خام و اطلاعات شخصی ماست که به صورت عمومی در بسترهای مختلف وجود دارد که کار را برای کلاهبرداران ساده تر می کند و این جنس کلاهبرداری هم روزبه روز در حال افزایش است. 
ملک توضیح می دهد که هنوز آمار رسمی درباره رایج ترین انواع کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما طبق گزارش های مردمی و پلیس، بیشترین کلاهبرداری ها در ایران با استفاده از هوش مصنوعی مربوط به دیپ فیک های صوتی است که از مردم کلاهبرداری مالی می کنند. مرحله بعد، فیشینگ های پیشرفته است. به واسطه ناآگاهی عمومی مردم نسبت به تکنولوژی، هنوز هم موارد زیادی از کلاهبرداری با لینک های جعلی کلاسیک توسط مردم دیده می شود، حالا تصور کنید که هوش مصنوعی هم به این حوزه وارد شود؛ در این شرایط حتماً نرخ آن افزایش پیدا می کند. مرحله بعد هم کلاهبرداری در قالب کمپین های مربوط به پیش بینی بازارهای مالی به کمک چت بات هاست. 
رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران می گوید: «مهم ترین کلاهبرداری هایی که با هوش مصنوعی صورت می گیرد، دیپ فیک است که در بستر صوت و تصویر انجام می شود و قربانیان متعددی دارد. در ایران هم مهم ترین و بزرگترین کلاهبرداری هایی که با استفاده از هوش مصنوعی انجام می شود، در حوزه دیپ فیک های صوتی است. به این صورت که با صدای یکی از آشنایان، با فرد تماس گرفته و در سناریویی، یک شرایط بحرانی برای قربانی ترسیم می شود و غالباً درخواست وجه مالی می شود. هر ماشین هوش مصنوعی برای تقلید صدا نیاز به تعدادی نمونه صوتی دارد که به واسطه گسترش شبکه های اجتماعی، نمونه صدای افراد در دسترس است و به این ترتیب برای ماشین هوش مصنوعی میسر است که صدای افراد را تقلید کند. ازطرف دیگر، یک ماشین هوش مصنوعی دیگر که در زمینه تبدیل متن به صوت عمل می کند، وارد بازی می شود و هر متنی را که در اختیار آن قرار دهیم، با صدای تقلیدشده به قربانی کلاهبرداری ارائه می کند. این کار به راحتی می تواند اطمینان او را جلب کند و فرد، قربانی کلاهبرداری شود.»
ملک می گوید، یکی دیگر از انواع این کلاهبرداری ها، دیپ فیک های تصویری است که مشابه همین الگوریتم است و برای یادگیری نیاز به نمونه تصویری دارد که اغلب در بستر وب موجود است. در این کلاهبرداری ها یک ماشین هوش مصنوعی که حرکات صورت و تصویر را شبیه سازی و پیامی را به قربانی منتقل می کند، ایجاد می شود. میزان این کلاهبرداری کمتر از دیپ فیک های صوتی و معمولاً در لایه های بالاتر رخ می دهد و برای اخاذی ها و سوءاستفاده ها انجام می شود. به گفته او یکی دیگر از این کلاهبرداری ها، فیشینگ است: «نمونه آشنای این نوع از کلاهبرداری لینک هایی است که برای افراد از طریق پیام کوتاه یا شبکه های اجتماعی ارسال می شود و با کلیک روی آن یک سوءاستفاده و کلاهبرداری مالی صورت می گیرد. در این روش هوش مصنوعی می تواند متن پیام، ایمیل یا پیام کوتاه حاوی لینک فیشینگ را شخصی سازی کند و درنهایت قربانی با یک پیام از یک فرد آشنا روبه رو می شود که همان ادبیات و کلمات آشنا را دارد و اطمینان قربانی جلب و روی لینک کلیک می کند. یادگیری هوش مصنوعی هم به واسطه پیام های ما در شبکه های اجتماعی در بسترهای مختلف است و با لحن و ادبیات کلمات ما آشنا می شود و می تواند پیام های ما را شبیه سازی کند.» 
رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه ای استان تهران تاکید می کند که در بسیاری از موارد در لایه ای دولتی و سطوح بالاتر جامعه، این فیشینگ ها برای سوءاستفاده اطلاعاتی صورت می گیرد و هکرها برای جلب اطمینان افراد، یک ایمیل شخصی سازی شده برای افراد ارسال و او را وادار به کلیک روی یک لینک می کنند و درنهایت کلاهبرداری صورت می گیرد: «یکی دیگر از انواع کلاهبرداری با هوش مصنوعی مربوط به چت بات ها و ربات های پیش بینی کننده در بازارهای مالی است. هوش مصنوعی توان پیش بینی مدل های تکرارشونده و متغیرهایی که در بازار اثرگذارند را دارد، اما اغلب آنهایی که درحال حاضر در اختیار مردم است و روی آن تبلیغات انجام می شود، با هدف جمع آوری اطلاعات از کاربران و سوءاستفاده های مالی است و درعمل پیش بینی اتفاق نمی افتد؛ چون کاربر را درگیر روندی می کند که اطلاعات شخصی را در اختیار ربات قرار دهد و در قبال آن، اطلاعاتی از وضعیت بازار دریافت کند، اما درعمل از اطلاعات مالی و شخصی افراد سوءاستفاده می شود. یکی دیگر از انواع این کلاهبرداری ها در شبکه های اجتماعی انجام می شود که طبق آن حساب های کاربری ساخته می شود که یک هوش مصنوعی آن اکانت را مدیریت می کند و طبق هدفی که برای آن ترسیم شده، می تواند جریان سازی، سوءاستفاده فکری، دریافت اطلاعات و انواع کلاهبرداری را انجام دهد. این حساب های کاربری غیرواقعی در دنیا و ایران درحال رشد است و نوعی دیگر از کلاهبرداری به کمک هوش مصنوعی است.»
ملک اضافه می کند که نوعی دیگر از این کلاهبرداری ها استفاده از ناآگاهی مردم درقبال استفاده از هوش مصنوعی است: «وقتی پدیده نوظهوری در جامعه رخ می دهد، افرادی به وجود می آیند که می خواهند از ناآگاهی مردم سوء استفاده کنند؛ مثل دوره های هوش مصنوعی، آموزش هوش مصنوعی، پولدارشدن با هوش مصنوعی، پکیج هوش مصنوعی و موارد مشابه. یعنی هوش مصنوعی را به یک راهگشا که صرفاً با پرداخت پول و دریافت یک محتوا یا نرم افزار، اغلب مشکلات برطرف می شوند، تبدیل می کند اما بیشتر آنها سوءاستفاده و کلاهبرداری از قربانیان است.»
او به مردم توصیه می کند که چند نکته کلیدی را برای جلوگیری از قربانی شدن توسط هوش مصنوعی در نظر داشته باشند، به خصوص وقتی با کلاهبرداری با استفاده از دیپ ف یک و تماس صوتی نامعتبر روبه رو می شوند: «اگر با تماس های مربوط به درخواست کمک مالی از سوی افراد آشنا روبه رو شدید، صرفاً به یک صدا بسنده نکنید و اگر ممکن است تماس تصویری برقرار کنید یا آن تماس را قطع کنید و خودتان مستقیم با فردی که تماس گرفته، تماس برقرار کنیم تا بتوانیم تایید چندمرحله ای انجام دهیم. نکته دوم این است که اساساً کلاهبرداران از ترس و عجله قربانیان سوءاستفاده می کنند و آنها را در معرض تصمیم عجولانه قرار می دهند. در این شرایط باید خونسردی خود را حفظ کنیم تا تصمیمی عاقلانه بگیریم و درگیر هیجان و فشار آن تماس صوتی نشویم. تا جایی که ممکن است در یک بستر ناشناس، اطلاعات عمومی؛ از نشانی تا اطلاعات حساب بانکی خود را منتشر نکنیم. چون کلاهبرداران با در اختیار داشتن این اطلاعات، اعتماد قربانیان را جلب می کنند و می تواند حتی بدون اطلاع ما، کلاهبرداری کنند. حتی صدای خام ما می تواند یک خوراک برای یک ماشین هوش مصنوعی باشد که صدای ما را تقلید کند.» او تاکید می کند تا جای ممکن باید بدانیم در کدام لینک در حال پرداخت پول یا وارد کردن اطلاعات هستیم. هرزمان دچار این کلاهبرداری ها شدیم بلافاصله به پلیس اطلاع دهیم و این تجربه را به اطرافیان انتقال دهیم: «به واسطه فیلترینگ گسترده در ایران، مردم مجبور به استفاده از فیلترشکن های مختلفی اند که همین ضریب امنیت را کاهش می دهد. وقتی آی پی ما، پایدار و مطمئن نیست و دائم در حال تغییر نباشد، راحت تر مورد سوءاستفاده قرار می گیریم.»
بازار


نظرات شما