Ni inteligente ni artificial: aunque parece pensar, la Inteligencia Artificial Generativa (IAG) es, en esencia, estadística de alto nivel entrenada con productos del intelecto humano. Sus avances asombran, pero también plantean dudas.

Desde el lanzamiento de ChatGPT a fines de 2022, las promesas empresariales parecen no tener techo: resolverá problemas complejos, revolucionará industrias y cambiará la vida diaria. Para algunos, es un futuro inevitable; para otros, una moda con riesgos. La historia reciente ofrece advertencias: criptomonedas, NFT, metaverso y autos autónomos fueron anunciados como inminentes y masivos… y aún no lo son.

La IA existe como disciplina desde hace décadas, pero solo en los últimos años contó con el poder de cómputo y los datos necesarios para explotar. El buscador de Google fue un ejemplo temprano: aprendía con cada búsqueda gracias a millones de usuarios. La IAG va más allá: detecta patrones en textos, imágenes o audios existentes para generar contenidos nuevos. En el caso de los modelos de lenguaje, «predicen» palabra por palabra la secuencia más probable. Por eso pueden simular una conversación fluida, aunque en realidad no piensen. Tampoco son completamente «artificiales»: dependen de creaciones humanas para entrenarse.

El asombro viene acompañado de un problema: la estadística no garantiza verdad. A veces produce respuestas plausibles pero falsas, las llamadas «alucinaciones». Un abogado fue sancionado por presentar jurisprudencia inventada por un asistente de IA. Según Sundar Pichai, CEO de Alphabet, es un rasgo inherente que también impulsa la creatividad de estos modelos.

Esto abre una pregunta clave: ¿puede una herramienta que inventa datos ser usada profesionalmente? Su atractivo está en reducir costos, pero también genera errores evidentes. Los subtítulos automáticos de películas, por ejemplo, a menudo interpretan mal frases enteras. En programación ocurre algo similar: la IAG puede ayudar con tareas simples, pero en proyectos complejos corregir sus errores puede llevar más tiempo que hacer el trabajo desde cero.

El riesgo no es solo de calidad: también es cognitivo. Un estudio del MIT mostró que estudiantes que usaban IAG aprendían mucho menos que quienes no lo hacían, y la brecha aumentaba con el tiempo. Usarla en educación sería como ir al gimnasio y pedirle a una grúa que levante las pesas.

Aun así, en áreas de bajo riesgo puede ser rentable: diseñar un afiche, subtitular un video, generar música o reemplazar una locución. El problema es que, si desplaza masivamente a profesionales, se reducirá la producción de nuevo conocimiento humano. Con el tiempo, las IAG entrenarán con materiales creados por otras IAG, lo que aumentará errores y sesgos. Y habrá cada vez menos personas capaces de detectarlos y corregirlos.

El desarrollo avanza a toda velocidad en una carrera feroz dentro de Estados Unidos y frente a China. Las consecuencias ambientales, sociales y económicas ya se sienten: consumo energético creciente, concentración de poder en pocas empresas y precarización laboral. Si la promesa de aumentar drásticamente la productividad se cumple, el gran reto será político: cómo distribuir ese beneficio para que no quede en manos de unas pocas corporaciones.

La IAG no es magia ni oráculo. Es una herramienta poderosa, sí, pero moldeada por quienes la programan, por los datos con los que se entrena y por los intereses que la financian. El límite real no está en la máquina, sino en nuestras decisiones sobre cómo, para qué y para quién la usamos.

agosto 8, 2025