به گزارش آسیانیوز ایران ؛ در دنیای فناوری که هر روز شاهد پیشرفتهای جدید هستیم، کلاهبرداران نیز از این تحولات برای انجام فعالیتهای مجرمانه بهره میگیرند. اخیراً یک مرد ایرانی با تجربهای تلخ از کلاهبرداری جدیدی روبرو شد که نشاندهنده خطرات رو به افزایش استفاده از هوش مصنوعی در سوء استفادههای مالی است. این فرد پس از دریافت تماس تلفنی از سوی کسی که صدایش شبیه به برادرش بود، درخواست پول دریافت کرد و به دلیل اینکه سقف انتقال روزانه کارت بانکیاش پر شده بود، تصمیم گرفت از برادرش شماره حساب دیگری بگیرد تا بتواند پول را انتقال دهد.
با این حال، پس از تماس با برادر واقعی خود، او شگفتزده شد که برادرش هرگز با او تماس نگرفته است. این ماجرا به سرعت مشخص کرد که تماس اولیه توسط شخص دیگری انجام شده و صدای برادرش با استفاده از فناوری شبیهسازی صدا تولید شده است. این تکنیک که با استفاده از هوش مصنوعی قابل انجام است، این روزها به یکی از جدیدترین ابزارهای کلاهبرداری تبدیل شده و نگرانیهای جدی در مورد امنیت ارتباطات و حریم خصوصی افراد به وجود آورده است.
به گفته کارشناسان، فناوری هوش مصنوعی به سرعت در حال پیشرفت است و یکی از کاربردهای نگرانکننده آن، قابلیت شبیهسازی صداهای واقعی افراد است. این فناوری به کلاهبرداران این امکان را میدهد که صدای اعضای خانواده یا دوستان نزدیک را با دقت بالا تقلید کنند و با استفاده از این ترفند، افراد را به دام بیاندازند. چنین اتفاقی نه تنها در ایران بلکه در بسیاری از کشورهای دیگر نیز رخ داده است. در سالهای اخیر، گزارشهای متعددی از سراسر جهان منتشر شده که نشان میدهد این فناوری چگونه مورد سوء استفاده قرار گرفته است.
این نوع کلاهبرداریها بهویژه در مواردی که افراد به روشهای ارتباطی دیجیتال اعتماد زیادی دارند، به شدت خطرناک است. در این مورد خاص، هوشیاری فرد مورد کلاهبرداری قرار گرفته و تماس با برادر واقعیاش مانع از موفقیت کلاهبرداران شد. اما در بسیاری از موارد، افراد ممکن است بدون بررسی دقیق و اعتماد به صدای فردی که با آنها صحبت میکند، قربانی این نوع کلاهبرداریها شوند.
بر اساس گزارشات اخیر، پلیس فتا و سایر نهادهای امنیتی به شهروندان هشدار دادهاند که در صورت دریافت تماسهای مشکوک، به هیچ وجه عجولانه اقدام به انتقال پول نکنند و پیش از هرگونه واکنش مالی، اطمینان حاصل کنند که با فرد واقعی صحبت میکنند. یکی از نکات کلیدی برای جلوگیری از این نوع کلاهبرداری، تماس مستقیم با فرد مورد نظر از طریق شمارههایی است که قبلاً با آنها ارتباط برقرار کردهاند.
تحلیل تکنیکی این نوع کلاهبرداری:
استفاده از فناوری هوش مصنوعی برای شبیهسازی صدا به این شکل صورت میگیرد که با جمعآوری نمونههای صوتی از شخصی که قصد تقلید صدایش را دارند، نرمافزارهای پیشرفته میتوانند صدا، لحن و حتی لهجه خاص آن فرد را بازتولید کنند. این فناوری که به عنوان "دیپ فیک صوتی" شناخته میشود، از شبکههای عصبی و الگوریتمهای یادگیری عمیق برای تقلید دقیق صداها استفاده میکند. این تکنیک میتواند به کلاهبرداران کمک کند تا با استفاده از صدای اعضای خانواده یا دوستان نزدیک، اعتماد قربانیان را جلب کرده و آنها را به انجام اقدامات مالی یا سایر فعالیتها ترغیب کنند.
متخصصان امنیت سایبری بر این باورند که برای مقابله با این نوع تهدیدها، علاوه بر آگاهی عمومی، نیاز به توسعه فناوریهای پیشرفته برای شناسایی و مقابله با صداهای جعلی نیز وجود دارد. در همین راستا، برخی از کمپانیهای بزرگ فناوری شروع به توسعه ابزارهایی کردهاند که قادر به شناسایی صداهای مصنوعی و تشخیص آنها از صداهای واقعی هستند.
اقدامات پیشگیرانه برای جلوگیری از کلاهبرداریهای صوتی:
- اطمینان از هویت تماس گیرنده: همیشه قبل از انجام هرگونه اقدام مالی یا ارائه اطلاعات حساس، از هویت واقعی فرد تماس گیرنده مطمئن شوید. از روشهای تایید دو مرحلهای استفاده کنید و در صورت شک، تماس مجدد بگیرید.
- عدم اعتماد به تماسهای غیرمنتظره: تماسهای غیرمنتظره با درخواستهای مالی یا اطلاعات حساس باید همیشه با احتیاط بیشتری بررسی شوند.
- بهروز رسانی آگاهیهای امنیتی: آگاهی از جدیدترین تکنیکهای کلاهبرداری و مشاوره با متخصصان امنیتی میتواند مانع از قربانی شدن در این نوع حملات شود.
- استفاده از نرمافزارهای امنیتی: در صورت امکان از نرمافزارهای شناسایی دیپ فیک صوتی برای بررسی صحت صدای تماس گیرندگان استفاده کنید.