جمعه / ۳۰ شهریور ۱۴۰۳ / ۱۷:۱۴
کد خبر: 24594
گزارشگر: 432
۱۴۵
۱
۰
۱۲
کلاهبرداری با هوش مصنوعی

هوشیاری یک قربانی کلاهبرداری تلفنی

هوشیاری یک قربانی کلاهبرداری تلفنی
شخصی پس از دریافت تماس ناشناس و درخواست پول از سوی کسی که صدایش کاملاً مشابه برادرش بود، متوجه شد که مورد سوء استفاده توسط فناوری هوش مصنوعی قرار گرفته است. این کلاهبرداری به وسیله شبیه‌سازی صدا اتفاق افتاد و هشداری برای افزایش هوشیاری عمومی به شمار می‌رود.
به گزارش آسیانیوز ایران ؛ در دنیای فناوری که هر روز شاهد پیشرفت‌های جدید هستیم، کلاهبرداران نیز از این تحولات برای انجام فعالیت‌های مجرمانه بهره می‌گیرند. اخیراً یک مرد ایرانی با تجربه‌ای تلخ از کلاهبرداری جدیدی روبرو شد که نشان‌دهنده خطرات رو به افزایش استفاده از هوش مصنوعی در سوء استفاده‌های مالی است. این فرد پس از دریافت تماس تلفنی از سوی کسی که صدایش شبیه به برادرش بود، درخواست پول دریافت کرد و به دلیل اینکه سقف انتقال روزانه کارت بانکی‌اش پر شده بود، تصمیم گرفت از برادرش شماره حساب دیگری بگیرد تا بتواند پول را انتقال دهد.
با این حال، پس از تماس با برادر واقعی خود، او شگفت‌زده شد که برادرش هرگز با او تماس نگرفته است. این ماجرا به سرعت مشخص کرد که تماس اولیه توسط شخص دیگری انجام شده و صدای برادرش با استفاده از فناوری شبیه‌سازی صدا تولید شده است. این تکنیک که با استفاده از هوش مصنوعی قابل انجام است، این روزها به یکی از جدیدترین ابزارهای کلاهبرداری تبدیل شده و نگرانی‌های جدی در مورد امنیت ارتباطات و حریم خصوصی افراد به وجود آورده است.
به گفته کارشناسان، فناوری هوش مصنوعی به سرعت در حال پیشرفت است و یکی از کاربردهای نگران‌کننده آن، قابلیت شبیه‌سازی صداهای واقعی افراد است. این فناوری به کلاهبرداران این امکان را می‌دهد که صدای اعضای خانواده یا دوستان نزدیک را با دقت بالا تقلید کنند و با استفاده از این ترفند، افراد را به دام بیاندازند. چنین اتفاقی نه تنها در ایران بلکه در بسیاری از کشورهای دیگر نیز رخ داده است. در سال‌های اخیر، گزارش‌های متعددی از سراسر جهان منتشر شده که نشان می‌دهد این فناوری چگونه مورد سوء استفاده قرار گرفته است.
این نوع کلاهبرداری‌ها به‌ویژه در مواردی که افراد به روش‌های ارتباطی دیجیتال اعتماد زیادی دارند، به شدت خطرناک است. در این مورد خاص، هوشیاری فرد مورد کلاهبرداری قرار گرفته و تماس با برادر واقعی‌اش مانع از موفقیت کلاهبرداران شد. اما در بسیاری از موارد، افراد ممکن است بدون بررسی دقیق و اعتماد به صدای فردی که با آن‌ها صحبت می‌کند، قربانی این نوع کلاهبرداری‌ها شوند.
بر اساس گزارشات اخیر، پلیس فتا و سایر نهادهای امنیتی به شهروندان هشدار داده‌اند که در صورت دریافت تماس‌های مشکوک، به هیچ وجه عجولانه اقدام به انتقال پول نکنند و پیش از هرگونه واکنش مالی، اطمینان حاصل کنند که با فرد واقعی صحبت می‌کنند. یکی از نکات کلیدی برای جلوگیری از این نوع کلاهبرداری، تماس مستقیم با فرد مورد نظر از طریق شماره‌هایی است که قبلاً با آن‌ها ارتباط برقرار کرده‌اند.

تحلیل تکنیکی این نوع کلاهبرداری:

استفاده از فناوری هوش مصنوعی برای شبیه‌سازی صدا به این شکل صورت می‌گیرد که با جمع‌آوری نمونه‌های صوتی از شخصی که قصد تقلید صدایش را دارند، نرم‌افزارهای پیشرفته می‌توانند صدا، لحن و حتی لهجه خاص آن فرد را بازتولید کنند. این فناوری که به عنوان "دیپ فیک صوتی" شناخته می‌شود، از شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق برای تقلید دقیق صداها استفاده می‌کند. این تکنیک می‌تواند به کلاهبرداران کمک کند تا با استفاده از صدای اعضای خانواده یا دوستان نزدیک، اعتماد قربانیان را جلب کرده و آن‌ها را به انجام اقدامات مالی یا سایر فعالیت‌ها ترغیب کنند.
متخصصان امنیت سایبری بر این باورند که برای مقابله با این نوع تهدیدها، علاوه بر آگاهی عمومی، نیاز به توسعه فناوری‌های پیشرفته برای شناسایی و مقابله با صداهای جعلی نیز وجود دارد. در همین راستا، برخی از کمپانی‌های بزرگ فناوری شروع به توسعه ابزارهایی کرده‌اند که قادر به شناسایی صداهای مصنوعی و تشخیص آنها از صداهای واقعی هستند.

اقدامات پیشگیرانه برای جلوگیری از کلاهبرداری‌های صوتی:

  • اطمینان از هویت تماس گیرنده: همیشه قبل از انجام هرگونه اقدام مالی یا ارائه اطلاعات حساس، از هویت واقعی فرد تماس گیرنده مطمئن شوید. از روش‌های تایید دو مرحله‌ای استفاده کنید و در صورت شک، تماس مجدد بگیرید.
  • عدم اعتماد به تماس‌های غیرمنتظره: تماس‌های غیرمنتظره با درخواست‌های مالی یا اطلاعات حساس باید همیشه با احتیاط بیشتری بررسی شوند.
  • به‌روز رسانی آگاهی‌های امنیتی: آگاهی از جدیدترین تکنیک‌های کلاهبرداری و مشاوره با متخصصان امنیتی می‌تواند مانع از قربانی شدن در این نوع حملات شود.
  • استفاده از نرم‌افزارهای امنیتی: در صورت امکان از نرم‌افزارهای شناسایی دیپ فیک صوتی برای بررسی صحت صدای تماس گیرندگان استفاده کنید.
آسیانیوز ایران
https://www.asianewsiran.com/u/fhM
اخبار مرتبط
معاون فرهنگی اجتماعی پلیس فتا فراجا، با هشدار نسبت به افزایش کلاهبرداری‌های سایبری در حوزه خرید و فروش برخط (آنلاین) در ایام تعطیلات، از شهروندان خواست تا هوشیاری لازم را داشته باشند.
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
رحمت
۱۴۰۳/۰۶/۳۱
0
1
0

به خودمم دیگه باس شک کنم ایجوری


تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید