UTN FRH presenta: Tres leyes para sobrevivir en el planeta de la IA generativa

¿Y si te dijera que muchas de las personas que ves en redes sociales no existen? Que sus rostros y publicaciones fueron creados por una máquina, y que podrías estar conversando con una Inteligencia Artificial (IA) sin saberlo. Este es el mundo de la IA generativa, que ya está entre nosotros.

Por Diego López Yse

La IA generativa (una rama específica dentro del vasto universo de la IA que se enfoca en la generación de contenido) está cambiando la forma en que vivimos, trabajamos y nos relacionamos. Desde imágenes hiperrealistas de personas que nunca existieron hasta asistentes virtuales que conversan con nosotros como si fueran humanos, esta tecnología está revolucionando no solo lo que hacemos, sino cómo percibimos la realidad. 

En este artículo propongo un recorrido por las tres leyes fundamentales de este nuevo mundo, tres ideas que ayudan a entender los fenómenos que estamos presenciando. 

Primera Ley: “La desconfianza es la mayor amenaza en la era de la IA” 

Todos los años realizo una actividad simple pero reveladora: mostrarle a la gente retratos generados por IA y preguntarles si creen que esas personas existen. Lo que antes era un juego se volvió un desafío serio. Hoy, distinguir lo real de lo ficticio es prácticamente imposible. 

Las herramientas como Midjourney, DALL·E o Sora avanzaron a un ritmo vertiginoso en muy poco tiempo. En menos de dos años pasamos de imágenes torpes y poco creíbles a fotografías indistinguibles de la realidad. Y el próximo paso serán los audios y videos. 

Este avance trae enormes oportunidades por ejemplo en el campo de la educación, pero también riesgos que no conocemos. Uno de los casos más impactantes fue el de la empresa británica Arup, famosa por construcciones como la Ópera de Sídney. El año pasado (y con tecnologías menos avanzadas que las actuales), un empleado fue engañado mediante una videollamada falsa con deepfake: creyó estar hablando con un alto directivo y transfirió 25 millones de dólares a los estafadores[1]

No se trata de un caso aislado. Según la Base de Datos de Incidentes de IA[2], los eventos problemáticos relacionados con IA aumentaron un 56% solo en el último año en comparación con el año anterior. El fenómeno es claro: el riesgo de desconfianza es una de las mayores amenazas de nuestra era. Porque este riesgo no es tecnológico, sino que es social. Si dejamos de confiar en lo que vemos, en lo que escuchamos o en quién nos habla, se resquebraja el tejido mismo de nuestra sociedad de la información. 

Segunda Ley: “La multimodalidad llegó para quedarse (y evolucionar)” 

Durante años, la manera de interactuar con IAs era a través de texto: escribías una pregunta, y la máquina respondía con otra oración. Pero eso cambió. Hoy vivimos una explosión de IA multimodal, capaz de procesar y generar texto, imágenes, audio e incluso video de manera combinada. 

Esto abrió nuevas posibilidades, muchas de ellas insospechadas hace apenas un año. Una de las más recientes es la de “podcastificar” contenido: convertir documentos o textos largos en diálogos de audio entre conductores virtuales, listos para escuchar como si fueran un programa de radio. 

También se popularizó el fenómeno del vibe coding: escribir software sin necesidad de programar. Basta con describir en lenguaje natural lo que uno necesita, y la IA genera el código automáticamente. 

Y no se trata solo de formatos multimediales, sino que también es posible extraer y embeber emociones desde y hacia imágenes, audio o videos. 

Ya no hace falta ser desarrollador para construir una app, del mismo modo que ya no hace falta saber dibujar para crear imágenes o tocar un instrumento para componer música. 

¿Significa esto que dejarán de ser importantes esas habilidades? Para nada. Pero sí implica que más personas pueden acceder a ellas sin conocimientos previos, y esto tendrá amplias consecuencias. 

Tercera Ley: “La IA se relacionará profundamente con los humanos, y modificará las dinámicas sociales” 

La evolución de la IA generativa no solo afecta lo que hacemos: está empezando a cambiar cómo nos sentimos

Emergen nuevas figuras como los humanos digitales: avatares realistas diseñados para interactuar con nosotros de forma empática, con voz, gestos y expresiones faciales. Estos sistemas no sienten emociones, pero sí pueden reconocer las humanas y responder de manera adecuada gracias al desarrollo de la IA emocional

Este avance tiene implicancias muy profundas. En un mundo cada vez más acelerado, con vínculos fragmentados y demandas crecientes, muchas personas empiezan a encontrar en la IA algo más que una herramienta: encuentran compañía, escucha, y contención. 

Un estudio de Harvard Business Review[3] mostró un cambio inesperado: por primera vez, el uso principal que la gente le da a la IA generativa no es la productividad, sino lo personal. Terapia, organización de la vida diaria… y un dato que impacta: el tercer uso más mencionado fue “encontrarle propósito a la vida”. 

Es un dato que interpela. ¿Qué dice de nosotros que una máquina esté empezando a cumplir funciones que solían ser humanas? 

Hacia un futuro incierto, pero inevitable 

Nadie sabe hacia dónde nos lleva esta revolución. Pero algo está claro: el cambio es constante, impredecible e hiperacelerado. Lo que ayer era imposible, hoy es cotidiano. Y lo que hoy nos sorprende, mañana será parte del paisaje. 

Frente a este panorama, lo más urgente no es aprender a usar cada nueva aplicación. Lo importante es entender los principios que rigen esta transformación, las lógicas que están moldeando nuestra manera de pensar, de trabajar, de confiar y de vincularnos. 

Las tres leyes de la IA generativa no son reglas técnicas. Son señales para navegar un mundo que ya cambió. Y que seguirá cambiando. 

*El Mg. Diego López Yse es docente e investigador del Laboratorio de IA en la Facultad Regional Haedo de la UTN Haedo de Argentina, estableció el primer departamento de IA para Moody’s en Latinoamérica y desarrolló tecnologías de IA para el Centro Alemán de Investigación de Inteligencia Artificial (DFKI).  Su formación incluye una sólida base en Aprendizaje Automático (MSc), un compromiso con la IA Responsable (MILA Fellow), y una perspectiva orientada al futuro como exalumno de Singularity University. 

[1] Una empresa perdió 25 millones de dólares porque un empleado creyó en un video hecho IA (https://www.infobae.com/tecno/2025/04/10/una-empresa-perdio-25-millones-de-dolares-porque-un-empleado-creyo-en-un-video-hecho-ia/

[2] IAAD (https://incidentdatabase.ai/

[3] How People Are Really Using Gen AI in 2025 (https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025

Más noticias

Encontrá todas las novedades por categorías

Susucribite a nuestro newsletter para recibir más novedades