La circulación de videos falsos que usan voces e imágenes de figuras públicas son cada vez más frecuentes en Uruguay. Recomiendan supuestas plataformas de inversión, pero no son ellos. Hay aspectos a tener en cuenta para sospechar de un video creado artificialmente. El equipo de comunicación de la Universidad Tecnológica (UTEC), elaboró una serie de recomendaciones para evitar ataques fraudulentos.

 

En noviembre de 2024 circuló por las redes sociales un video del presidente del BCU recomendando invertir en una plataforma de inversión. Días atrás, otro video que simulaba ser una noticia emitida por un canal de televisión abierta nacional, utilizando rostros y voces de periodistas y legisladores, sugería invertir en un método secreto que generaba grandes ganancias.

Estos son solo algunos ejemplos de ataques cibernéticos con inteligencia artificial que han tomado estado público recientemente.

El coordinador de la licenciatura en Ingeniería de Datos e Inteligencia Artificial de UTEC, Vitalio Alfonso, explicó que estas manipulaciones digitales se denominan deepfakes, y son ejecutadas con una tecnología de inteligencia artificial (IA) que permite crear videos y audios falsos con un aspecto extremadamente realista.

“Los deepfakes son manipulaciones digitales tan avanzadas que, a menudo, resultan casi indistinguibles de contenidos genuinos a simple vista”, indicó Alfonso. Su creación implica el uso de redes neuronales profundas, una técnica de aprendizaje automático que permite a los atacantes entrenar modelos capaces de imitar con gran precisión el rostro, la voz y los gestos de una persona.

Para ello, suelen recopilar grandes cantidades de datos como imágenes y grabaciones de la persona que desean replicar. Una vez entrenado el modelo, los atacantes pueden usarlo para modificar videos existentes. Reemplazan los rostros, las voces y las expresiones faciales y logran que parezca que la persona real está diciendo o haciendo algo que nunca ocurrió, explicó el docente.

Los riesgos asociados a esta tecnología

Los deepfakes son una herramienta poderosa para difundir desinformación de manera masiva y manipular la opinión pública. También pueden ser utilizados con fines más dañinos a nivel personal, como el fraude financiero, la extorsión o la difamación. “En el caso de los videos que recientemente circularon, los atacantes buscaban generar confianza en una falsa plataforma de inversión, evidenciando el potencial peligro de estos contenidos falsificados en la economía digital”, señaló Alfonso.

Para el docente, es fundamental educar a los usuarios de estas plataformas digitales sobre los riesgos asociados y las formas de enfrentar estas falsificaciones y ataques. ¿Cuáles son las señales a las que debemos estar alertas?

Si bien existen algunos indicadores que pueden ayudar a identificar si un video es un deepfake, no hay un método infalible para detectarlos con certeza. Además, el constante avance de las herramientas de inteligencia artificial permite que estas manipulaciones sean cada vez más sofisticadas. Por ello, la mejor estrategia es combinar diversas técnicas de verificación con un análisis crítico de los contenidos.

Específicamente en el caso de los videos, hay ciertos indicios que pueden ayudar a identificar si se trata de un deepfake:

- Parpadeos anormales, ya sea excesivos o casi nulos.

- Desincronización entre los labios y el audio, que hace que el habla no coincida con el movimiento de la boca.

- Inconsistencias en la iluminación y las sombras, como reflejos poco realistas o sombras en lugares incorrectos.

- Artefactos visuales y anomalías físicas, como personas con un número inusual de dedos o dientes, orejas asimétricas, rasgos que cambian entre fotogramas o posturas corporales que parecen antinaturales.

- Incitación a invertir dinero en negocios que prometen ganancias extraordinarias.

Sin embargo, es importante enfatizar que, aunque estos factores pueden servir como señales de alerta, no garantizan por sí solos la detección de un deepfake, por lo que siempre es recomendable combinarlos con otras estrategias de verificación.

Otras herramientas para identificar este tipo de contenidos

Una alternativa tecnológica consiste en el uso de herramientas como Deepware Scanner, un software avanzado diseñado para analizar videos e identificar posibles señales de manipulación. Según el docente, este tipo de herramientas puede ser de ayuda pero tienen una efectividad limitada.

Alfonso enfatiza que estas soluciones deben complementarse con estrategias de concientización pública. “La educación de los usuarios juega un papel esencial para fomentar una actitud crítica hacia los contenidos que consumen en línea. Es igualmente importante promover el hábito de verificar las fuentes originales de información y contrastar los datos con reportes de medios de prensa confiables, lo que ayuda a reducir significativamente el impacto de la desinformación”, señala.

El docente cree que la problemática requiere una respuesta integral y de diferentes ámbitos en búsqueda de soluciones. Por un lado, ve la necesidad de crear “marcos legales más estrictos para sancionar el uso malicioso de estas tecnologías”. A su vez, considera esencial invertir en sistemas automatizados capaces de detectar manipulaciones a gran escala en tiempo real.

“Estos avances técnicos deben complementarse con una educación que forme a expertos no solo técnicamente capacitados, sino también éticamente responsables, preparados para prever y mitigar los riesgos asociados al mal uso de estas herramientas”, agregó Alfonso.

El rol de la academia

En este contexto, las universidades deberían desempeñar un papel fundamental en la formación, tanto técnica como en valores éticos sólidos que estimule a que los conocimientos adquiridos se apliquen de manera responsable y en beneficio de la sociedad.

En particular, desde la Universidad Tecnológica (UTEC) existen programas de formación de grado como la licenciatura en Ingeniería de Datos e Inteligencia Artificial. Esta carrera se imparte desde la sede en Rivera. Forma profesionales con conocimientos profundos del funcionamiento de estas tecnologías avanzadas, pero además, los capacita para desarrollar herramientas innovadoras que ayuden a combatir los riesgos asociados a los deepfakes.

Para Alfonso, es necesario que haya una intervención coordinada entre la academia, las empresas tecnológicas, los gobiernos y las plataformas digitales.

“Ante la velocidad con la que estas tecnologías evolucionan, no basta con reaccionar; es necesario anticiparse. Solo a través de un esfuerzo conjunto y continuo será posible desarrollar marcos éticos, legales y tecnológicos que preserven la confianza, protejan la integridad de la sociedad y fortalezcan la economía en un entorno digital cada vez más complejo”, aseveró.

(Foto: UTEC)

e-max.it: your social media marketing partner

banner adriana franco