FBI: آمریکایی‌ها در سال گذشته ۹.۳ میلیارد دلار در کلاهبرداری‌های کریپتو از دست داده‌اند

FBI: آمریکایی‌ها در سال گذشته ۹.۳ میلیارد دلار در کلاهبرداری‌های کریپتو از دست داده‌اند
0

FBI: آمریکایی‌ها در سال گذشته ۹.۳ میلیارد دلار در کلاهبرداری‌های کریپتو از دست داده‌اند

به گزارش مالی3، اداره تحقیقات فدرال آمریکا (FBI)، کلاهبرداری‌های رمزارزی همچنان بزرگ‌ترین بخش از فعالیت‌های غیرقانونی در حوزه ارزهای دیجیتال را تشکیل می‌دهند. داده‌های منتشرشده نشان می‌دهد که شهروندان آمریکایی در سال گذشته بیش از ۹.۳ میلیارد دلار از طریق انواع کلاهبرداری‌های مرتبط با رمزارز از دست داده‌اند — رقمی که نسبت به سال‌های گذشته رشد چشمگیری داشته است.

اما ظهور و گسترش هوش مصنوعی (AI) این وضعیت را وخیم‌تر کرده است. بر اساس گزارش شرکت TRM Labs، در سال ۲۰۲۴ کلاهبرداری‌های تسهیل‌شده با هوش مصنوعی ۴۵۶ درصد افزایش یافته‌اند. پیشرفت فناوری‌های مولد مانند چت‌بات‌های هوشمند، ویدیوهای دیپ‌فیک و صداهای شبیه‌سازی‌شده باعث شده تا مجرمان بتوانند در مقیاسی بی‌سابقه، کمپین‌های کلاهبرداری را اجرا کنند.

هوش مصنوعی؛ سرعت، مقیاس و فریب بی‌سابقه

«آری ردبورد»، رئیس سیاست‌گذاری جهانی در TRM Labs، در گفت‌وگو با Cryptonews اعلام کرد که مجرمان اکنون با استفاده از مدل‌های مولد می‌توانند هزاران کلاهبرداری را به‌صورت همزمان اجرا کنند. او گفت:

«اکوسیستم جنایی امروز، هوشمندتر، سریع‌تر و بی‌نهایت مقیاس‌پذیر است.»

به گفته او، مدل‌های هوش مصنوعی می‌توانند با زبان، موقعیت جغرافیایی و داده‌های دیجیتال قربانی هماهنگ شوند. برای مثال، در حملات باج‌افزاری از هوش مصنوعی برای انتخاب قربانیانی که احتمال پرداخت بیشتری دارند و حتی برای نوشتن پیام‌های تهدیدآمیز و مذاکره خودکار با قربانیان استفاده می‌شود.

در حوزه مهندسی اجتماعی (Social Engineering) نیز، از ویدیوها و صداهای دیپ‌فیک برای جعل هویت مدیران یا فریب اعضای خانواده استفاده می‌شود. ردبورد می‌گوید این نوع حملات اکنون قادرند وجوه را در چند ثانیه بین صدها کیف پول منتقل کرده و پولشویی را با سرعتی انجام دهند که هیچ انسان یا نهاد نظارتی توان مقابله با آن را ندارد.

استفاده از هوش مصنوعی برای دفاع؛ رقابت فناوری با خودش

در واکنش به این تهدیدها، شرکت‌های امنیتی و صرافی‌های بزرگ به سمت دفاع‌های مبتنی بر هوش مصنوعی حرکت کرده‌اند. ابزارهای جدید از یادگیری ماشینی (Machine Learning) برای شناسایی، ردیابی و توقف کلاهبرداری‌ها قبل از وقوع استفاده می‌کنند.

ردبورد توضیح می‌دهد که TRM Labs از سیستم‌های هوش مصنوعی چندلایه برای تحلیل تریلیون‌ها داده در بیش از ۴۰ شبکه بلاکچینی بهره می‌برد. این فناوری می‌تواند الگوهای غیرعادی تراکنش‌ها، شبکه‌های پولشویی و رفتارهای مشکوک را شناسایی کند.

«مدل‌های ما با تغییر داده‌ها تغییر می‌کنند. آن‌ها یاد می‌گیرند، سازگار می‌شوند و با واقعیت پویا در بازار رمزارز هماهنگ می‌مانند.»

در نتیجه، این سیستم‌ها قادرند هزاران تراکنش کوچک اما مرتبط را که نشانه یک کلاهبرداری بزرگ هستند، پیش از شناسایی انسانی شناسایی کنند.

شرکت Sardine و شناسایی لحظه‌ای کلاهبرداری‌ها

شرکت امنیتی Sardine که در سال ۲۰۲۰ تأسیس شد، از سه لایه داده‌ای برای تشخیص فوری کلاهبرداری استفاده می‌کند.
«الکس کوشنیر»، مدیر توسعه تجاری ساردین، گفت:

«ما داده‌های عمیق از هر نشست کاربر، ویژگی‌های دستگاه و رفتار او را ثبت می‌کنیم. سپس از منابع داده‌ی مطمئن و پایگاه کنسرسیومی خود برای شناسایی کاربران خطرناک بهره می‌گیریم.»

به گفته او، موتور تصمیم‌گیری بلادرنگ ساردین، به محض مشاهده فعالیت مشکوک، اقدام می‌کند و از وقوع کلاهبرداری در لحظه جلوگیری می‌نماید.
کوشنیر افزود که با پیشرفت مدل‌های هوش مصنوعی، اکنون می‌توان قوانین ضدکلاهبرداری را به‌صورت خودکار توسط عامل‌های هوش مصنوعی (AI Agents) نوشت، آزمایش کرد و اجرا نمود.

نمونه‌های واقعی از مقابله هوش مصنوعی با کلاهبرداری

«مت وگا»، رئیس کارکنان ساردین، گفت این شرکت در همکاری با صرافی‌های بزرگ، از تجزیه و تحلیل لحظه‌ای برای شناسایی رفتارهای غیرعادی کاربران استفاده می‌کند.
او توضیح داد:

«کاری که پیش‌تر برای انسان‌ها ساعت‌ها یا روزها طول می‌کشید، اکنون با هوش مصنوعی در چند ثانیه انجام می‌شود.»

TRM Labs نیز اخیراً در یکی از بررسی‌های خود، در تماس ویدیویی با یک کلاهبردار، دیپ‌فیک زنده را شناسایی کرده است. به گفته ردبورد، خط موی غیرطبیعی فرد منجر به شک آن‌ها شد و ابزارهای تشخیص AI این فرضیه را تأیید کردند. با وجود شناسایی به‌موقع، این نوع کلاهبرداری‌ها تاکنون حدود ۶۰ میلیون دلار خسارت به قربانیان وارد کرده‌اند.

همچنین، شرکت امنیت سایبری Kidas با استفاده از مدل‌های اختصاصی هوش مصنوعی، رفتار، صدا و تصویر را به صورت بلادرنگ تحلیل می‌کند تا دیپ‌فیک‌ها و فیشینگ‌های مبتنی بر LLM را در لحظه شناسایی کند. این ابزار اخیراً توانسته دو حمله مستقل کریپتویی را در Discord متوقف کند.

آینده؛ افزایش تهدید و نیاز به هوش مصنوعی پیشگیرانه

کارشناسان هشدار می‌دهند که جرایم هوش مصنوعی به سرعت در حال تکامل هستند و کلاهبرداری‌ها شخصی‌تر، پیچیده‌تر و مقیاس‌پذیرتر خواهند شد.
«ران کربس»، مدیرعامل Kidas، می‌گوید:

«هوش مصنوعی آستانه ورود به جرایم پیچیده را پایین آورده است. در آینده، عامل‌های خودکار AI قادر خواهند بود کمپین‌های کامل کلاهبرداری را بدون نظارت انسانی اجرا کنند.»

در همین حال، کارشناسان امنیتی تأکید دارند کاربران باید مراقب وب‌سایت‌های جعلی، لینک‌های اسپانسرشده و نشانه‌های زبانی غیرعادی باشند. نمونه‌ای از این حملات اخیراً در مورد شرکت اپل مشاهده شد که یک وب‌سایت جعلی با حروف یونانی در نام دامنه ساخته شده بود.

شرکت‌های امنیتی از جمله TRM Labs و Sardine در حال همکاری با نهادهای نظارتی هستند تا چارچوب‌های دفاعی هوش مصنوعی محور طراحی کنند. هدف این است که نیروهای قانونی نیز همان سرعت و مقیاسی را در مقابله با مجرمان دیجیتال داشته باشند که خود مجرمان در اجرای حملات دارند.

ردبورد در پایان گفت:

«ما در حال تبدیل مدیریت ریسک از یک رویکرد واکنشی به رویکردی پیش‌بینی‌کننده هستیم. آینده امنیت رمزارز به هوش مصنوعی گره خورده است.»

اشتراک گذاری

Default Profile Picture
نوشته شده توسط:

فاطمه شفیعی

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *