یکشنبه / ۲ اَمرداد ۱۴۰۱ / ۱۶:۲۷
کد خبر: 11003
گزارشگر: 213
۱۱۰۴
۰
۰
۳
مطالعه‌ جدید درباره دیپ فیک

مغز انسان «جعل عمیق» را به طور ناخودآگاه تشخیص می دهد!

مغز انسان «جعل عمیق» را به طور ناخودآگاه تشخیص می دهد!
مطالعه‌ای جدید نشان می‌دهد مغز انسان قادر است به‌طور ناخودآگاه جعل عمیق(دیپ فیک) را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند.

به گزارش آسیانیوز، دانشمندان می‌گویند که درک نحوه تشخیص جعل عمیق به‌وسیله مغز، به ایجاد الگوریتم‌هایی برای شناسایی آنلاین آن‌ها کمک می‌کند.


دانشمندان با مقایسه این دو نتیجه، دریافتند که مغز افراد در تشخیص جعل عمیق بهتر از چشم عمل می‌کند.

مطالعه‌ای جدید نشان می‌دهد مغز انسان قادر است به‌طور ناخودآگاه جعل عمیق [دیپ فیک] را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند.

دیپ فیک‌ها، ویدیوها، تصاویر، صدا یا متنی‌اند که معتبر به نظر می‌رسند، اما شبیه‌سازی کامپیوتری‌اند که برای گمراه کردن و تحت‌ تاثیر قرار دادن افکار عمومی طراحی می‌شوند.

در این مطالعه که اخیرا در نشریه ویژن ریسرچ منتشر شده، آمده است افرادی سعی کردند جعل عمیق را تشخیص بدهند و با استفاده از اسکن مغزی الکتروآنسفالوگرافی (ئی‌ئی‌جی) ارزیابی شدند.

به گفته دانشمندان، ازجمله دانشمندان دانشگاه سیدنی در استرالیا، مغز این افراد حدود ۵۴ درصد مواقع به درستی جعل عمیق را تشخیص داد.

 با این حال، زمانی که از این گروه خواستند به صورت شفاهی همان جعل عمیق را شناسایی کنند، میزان موفقیتشان تنها ۳۷ درصد بود.

توماس کارلسون، یکی از نویسندگان این مطالعه از دانشگاه سیدنی گفت: «هرچند میزان دقت مغز در این مطالعه پایین است – ۵۴ درصد- اما ازنظر آماری قابل ‌اعتماد است. این به ما می‌گوید مغز فرق بین تصاویر حقیقی و جعلی را تشخیص می‌دهد.»

می‌توانید واقعیت را از جعل عمیق متمایز کنید؟ پژوهشگران سیدنی ساینس دریافتند که مغز قادر است چهره‌های جعلی که هوش مصنوعی تولید کرده است، تشخیص بدهد، حتی وقتی که چشم قادر به این کار نیست.
 

اکنون ویدیوهای جعل عمیق فزاینده‌ای به صورت آنلاین وجود دارد – از محتوای صریح و بدون توافق گرفته تا رسانه‌های ساختگی که رقبای خارجی در پویش‌های اطلاعات نادرست از آن استفاده می‌کنند.

مثلا در آغاز حمله روسیه به اوکراین، یک ویدیوی جعل عمیق از ولودیمیر زلنسکی، رئیس‌جمهوری اوکراین در شبکه‌های اجتماعی پخش شد که از سربازانش می‌خواست تسلیم نیروهای روسیه شوند.

همزمان با تلاش دانشمندان سراسر جهان برای یافتن راه‌های نوین شناسایی جعل عمیق، پژوهشگران این مطالعه جدید گفتند که یافته‌های آنان می‌تواند سرآغاز مبارزه با چنین محتوای ساختگی آنلاینی باشد.

دکتر کارلسون گفت: «اگر بتوانیم دریابیم که مغز چگونه جعل عمیق را تشخیص می‌دهد، از این اطلاعات برای ایجاد الگوریتم‌های شناسایی جعل عمیق‌های احتمالی که در پلتفرم‌های دیجیتالی مثل فیس‌بوک و توییتر منتشر می‌شود استفاده می‌کنیم.»

در این مطالعه جدید، به شرکت‌کنندگان ۵۰ تصویر از چهره‌های واقعی و جعلی ساخت رایانه نشان دادند و از آن‌ها خواستند که بگویند هریک از کدام نوع است.

آن‌ها به گروه دیگری از شرکت‌کنندگان تصاویر مشابهی نشان دادند و فعالیت مغز آن‌ها را با استفاده از الکتروآنسفالوگرافی ثبت کردند، بی‌آنکه به آن‌ها بگویند نیمی از آن تصاویر جعلی‌اند.

دانشمندان با مقایسه این دو نتیجه، دریافتند که مغز افراد در تشخیص جعل عمیق بهتر از چشم عمل می‌کند.

اما دانشمندان هشدار دادند که این یافته‌ها «صرفا نقطه شروع» است و گفتند که لازم است اعتبار‌سنجی بیشتری روی نتایج انجام شود.

دکتر کارلسون گفت: «باید پژوهش‌های بیشتری انجام شود. چیزی که باعث امیدواری‌مان می‌شود این است که جعل عمیق، تولید برنامه‌های رایانه‌ای است و این برنامه‌ها «اثر انگشت‌هایی» به جا می‌گذارند که می‌توان آن‌ها را شناسایی کرد.»/

https://www.asianewsiran.com/u/7iz
اخبار مرتبط
بحران تهاجم روسیه به اوکراین، بسیاری از کشورهای اروپایی را متقاعد کرد که در نگرش خود نسبت به نیروهای مسلح، تجدید نظر کنند.
احمدی‌ نژاد به زلنسکی نوشت مرگ حقیقتی زیبا است؛ پس چه بهتر که مرگمان در مقابله با تجاوز و ظلم، دفاع از آزادی و عدالت، و صیانت از خاک وطن و حفاظت از ناموسمان باشد.
درخواست از روسیه برای پرداخت غرامت برای جنگ بی دلیل خود در اوکراین از نظر اخلاقی قانع کننده است، اما روسیه احتمال کمتری دارد که خود را با استقلال و تمامیت ارضی اوکراین آشتی دهد.
امروز جزیره مار بمباران شد.
اتحادیه اروپا درباره شدیدترین بسته جدید تحریم‌‌ها علیه روسیه تصمیم‌گیری کرده است.
«تونی‌ بلر»، نخست وزیر اسبق انگلیس گفت‌: ولادیمیر پوتین گسترش ناتو در اروپا را اشتباه درک کرده است.
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید