Home Technology Las estafas de vídeos deepfake en tiempo real ya están aquí. Esta...

Las estafas de vídeos deepfake en tiempo real ya están aquí. Esta herramienta intenta atacarlos

3
0
Las estafas de vídeos deepfake en tiempo real ya están aquí. Esta herramienta intenta atacarlos
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab

Este anuncio no es la primera vez que una empresa de tecnología comparte planes para ayudar a detectar deepfakes en tiempo real. En 2022, Intel estrenó su herramienta Fake Catcher para la detección de deepfakes. FakeCatcher está diseñado para analizar cambios en el flujo sanguíneo de una cara para determinar si un participante del video es real. La herramienta de Intel tampoco está disponible públicamente.

Los investigadores académicos también están estudiando diferentes enfoques para abordar este tipo específico de amenaza deepfake. “Estos sistemas se están volviendo tan sofisticados como para crear deepfakes. Necesitamos aún menos datos ahora”, afirma Govind Mittal, candidato a doctorado en informática en la Universidad de Nueva York. “Si tengo 10 fotos mías en Instagram, alguien puede tomarlas. Pueden apuntar a personas normales”.

Los deepfakes en tiempo real ya no se limitan a multimillonarios, figuras públicas o aquellos que tienen una amplia presencia en línea. La investigación de Mittal en la Universidad de Nueva York, con los profesores Chinmay Hegde y Nasir Memon, propone un potencial enfoque basado en desafíos hasta bloquear los robots de inteligencia artificial de las videollamadas, donde los participantes tendrían que pasar una especie de prueba CAPTCHA en video antes de unirse.

Mientras Reality Defender trabaja para mejorar la precisión de detección de sus modelos, Coleman dice que el acceso a más datos es un desafío crítico que hay que superar: un estribillo común del lote actual de nuevas empresas centradas en la IA. Tiene la esperanza de que más asociaciones llenen estos vacíos y, sin detalles, insinúa que es probable que se produzcan múltiples acuerdos nuevos el próximo año. Después de que ElevenLabs se vinculara a un Llamada de voz deepfake del presidente estadounidense Joe Bidenla startup de audio AI llegó a un acuerdo con Reality Defender para mitigar posibles usos indebidos.

¿Qué puedes hacer ahora para protegerte de las estafas por videollamadas? Al igual que el consejo principal de WIRED sobre evitando el fraude de las llamadas de voz con IAno ser arrogante acerca de si puedes detectar videos deepfakes es fundamental para evitar ser estafado. La tecnología en este espacio continúa evolucionando rápidamente, y cualquier señal reveladora en la que confíe ahora para detectar deepfakes de IA puede no ser tan confiable con las próximas actualizaciones de los modelos subyacentes.

“No le pedimos a mi madre de 80 años que marque el ransomware en un correo electrónico”, dice Coleman. “Porque ella no es una experta en informática”. En el futuro, es posible la autenticación por video en tiempo real, si la detección de IA continúa mejorando y demuestra ser confiablemente precisa, se dará por sentado como ese escáner de malware que zumba silenciosamente en el fondo de su bandeja de entrada de correo electrónico.

Source link