top of page

Al Robot: DEEPFAKES

Por Edgar Tercero

DEEPFAKES


Es común encontrarnos fotos en redes sociales de amigos o familiares que han sido alteradas, ya sea por la aplicación de filtros, retoques a las fotos o han sido fotoshopeadas, como hacen muchas revistas y medios para retocar las imágenes de famosos, o simplemente alterar la apariencia de alguien para lucir mejor. Presumir un cuerpo atlético cuando no es así, quitar alguna cicatriz, color de ojos, cabello, eliminar personas que aparecen en ellas, o inclusive intercambiar rostros para simular que la persona estuvo allí cuando no es así.


¿Qué tal si eso lo pudiéramos hacer con vídeos?


Hollywood lo ha hecho por años, ha puesto actores fallecidos en películas recientes, aparentar menos edad de actores veteranos, intercambiar rostros, logrando así un montaje espectacular, casi imperceptible pero que se amalgama bien en las películas.


Sin embargo, con el avance de la inteligencia artificial esto ha permitido que su utilización llegue al usuario final, también a lo popular que es tomar fotos y compartirlas por redes sociales, de donde se pueden sacar los rostros, así como los gestos de las personas, utilizando aplicaciones de fácil acceso podemos colocarnos dentro de un vídeo personificando a alguien famoso, ahora solo debemos trabajar en imitar su voz o… tal vez eso también lo podamos simular con IA.


Así es, basta con tener vídeos de otras personas, fotos o inclusive contar con algunas frases habladas por alguien para que apoyados por un software de Inteligencia Artificial podamos personificar a alguien. También se requiere de tiempo de edición, un buen equipo de cómputo, o tal vez una Tablet decente, pero un par de tutoriales en internet y mucho tiempo libre podremos lograr nuestro plagio.


Con el aumento de popularidad de aplicaciones con las que puedes agregar en tiempo real modificaciones a tu rostro para obtener orejas de perro, parecer un payaso, verte más joven o viejo, inclusive rostros de personas famosas y no me refiero solo a actores. Esto ha permitido mejorar la tecnología, recordemos que el corazón de la inteligencia artificial son tecnologías como Machine Learning o Deep Learnig, las cuales a su vez se alimentan de datos, miles o millones de datos que permiten hacer análisis, comparativos, pronósticos y por supuesto emulaciones.



De alguna forma todo lo anterior puede ser algo divertido, intercambiar rostros con alguien famoso y aparecer en una película como el protagonista, o para hacer memes graciosos usando el rostro de algún político, sin embargo, con cada nueva tecnología viene una gran responsabilidad.


Con el auge de las redes sociales hemos podido vivir varios escenarios en nuestra vida cotidiana donde se difunden una serie de noticias poco fiables, sin embargo, creíbles para muchas personas, ahora si colocamos un vídeo donde un político haga un comentario negativo durante un período de elecciones, puede provocar la caída de su propia campaña, sus votantes podrían pensársela dos veces antes de ir a votar por él o ella.


Sería posible hacer parecer que alguien más cometió un delito cuando en realidad no lo hizo, simplemente fue víctima de un deepfake donde utilizaron su voz, su rostro para ocultar al verdadero criminal.


El problema principal con ello radica en el uso de aplicaciones o softwares que no conocemos, pero que resultan divertidos, porque nos lo recomendó algún amigo o familiar. Lo utilizamos sin pensárnoslo 2 veces, sin saber que tipo de información hemos dejado allí. ¿Realmente esas empresas cuidarán nuestros datos? ¿Son invulnerables?


Subimos fotos a todas las redes sociales, sin tener un orden, sin bajarlas, se pueden quedar allí por años. Guardamos toda nuestra información en nube, sin depurarla cada cierto tiempo, se nos olvida hasta que pusimos allí. Pero esto no es un fenómeno exclusivo de las personas en lo individual, también lo padecemos dentro de las empresas donde se empiezan a llenar de fuentes de datos que nunca utilizan, olvidándolas hasta que sufren un ataque y les piden millones para recuperar información confidencial.


¿Cuántas veces han utilizado comandos de voz para encender su Smart TV?


Cuando lees el contrato de privacidad te das cuenta de que tus datos, tu voz será utilizado por la empresa para realizar algunos análisis de mercado, “mejorar el producto” para conocer tu comportamiento. Y ahora ya tienen tu voz para identificar los temas de los que platicas mientras disfrutas de tu programa favorito, un dato biométrico que te podría reconocer a donde vayas.


Tal vez si todo permaneciera local, dentro de nuestros hogares, de forma estructurada, tendríamos la certeza de que si existiera una fuga se debería porque algún miembro de la familia lo saco de su lugar. Sin embargo, hoy todo lo tenemos conectado a internet, e internet no es precisamente el lugar más seguro del mundo.


¿Puedo evitar el ser víctima de un deepfake?


En realidad, no es algo viable. Todos podemos ser víctima de deepfake. Por todo lo comentado anteriormente, el uso sin pensar de las aplicaciones, abuso de la nube, el poco cuidado que le damos a nuestros datos, los cuales hoy en día incluyen:


* Tú voz

* Tú Rostro

* Tus movimientos

* Tus ojos

* Tus gestos


Así que lo mejor es hacer un uso responsable de nuestros dispositivos, aceptar el riesgo cuando utilizas una aplicación o guardas información en la nube, y esto último incluye los correos electrónicos, donde guardamos todo tipo de información, desde CVs, comprobantes de domicilio, tarjetas de identificación, documentos bancarios, etc. ¿Cuándo fue la última vez que borraste tus correos entrantes y salientes?


Algo que, si podemos hacer para evitar la propagación de información falsa como deepfake, es mantener una mente crítica, analizar varias veces antes de hacer un retweet, reenviar un vídeo o foto a los amigos y familiares.


A veces la tecnología puede ser divertida, únicamente abramos bien los ojos, analicemos antes de tomar acciones.



“Es hora de hacerse responsable de nuestros datos”


Aviso Oportuno

1/13
diseño banner 1.1.jpg
organon_Mesa de trabajo 1.jpg
la lealtad (1).jpg
LA LEALTAD NOTICIAS 243 X 400 (4).jpg
bottom of page