Sontrip

Las preocupaciones que traen las deepfakes

Las preocupaciones que traen las deepfakes
Comparti esta nota

Hace poco en Sontrip planteamos un aspecto dentro de la irrupción de la Inteligencia Artificial que estaba relacionado con el doblaje sintético “La misma voz, pero en otro idioma”.

Pero esta vez no vamos a ver como las plataformas clonan las voces de los principales podcaster para traducir, valga la redundancia, los podcasts en otros idiomas.

Sino que traeremos a la mesa la preocupación que despiertan la clonación de voces y los denominados deepfakes.

Antes de avanzar tenemos que decir que un deepfake es un video, una imagen o un audio (que puede ser un podcast) que imita la apariencia y el sonido de una persona.

En pocas palabras, un audio puede imitar la voz de cualquier persona, como cuando compartimos el video de Lionel Messi hablando un perfecto y fluido inglés con su tono de voz.

Esa clonación de voz ya genera algunas preocupaciones, sobre todo cuando es utilizada con fines maliciosos.

Según un informe realizado por voicebot.ai, Synthedia y Pindrop, hay más personas conscientes de la clonación de voz que de los deepfakes de audio.

Dentro de las principales preocupaciones de los dos mil adultos estadounidenses encuestados, aparecen temas relacionados con política/gobierno (acá en Argentina también hubo videos y audios que resultaron ser fake), con los medios (sobre alguna noticia en particular) y sobre la atención sanitaria.

Claro que no todo es negativo, sino que en esa encuesta los consumidores se mostraron más que interesados en todas aquellas formas positivas en las que se puede utilizar este tipo de Inteligencia Artificial.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *