En el entorno empresarial, la inteligencia artificial suele asociarse a eficiencia, automatización y reducción de costes. Sin embargo, una corriente emergente de creadores está explorando usos menos previsibles del machine learning, no tanto para optimizar procesos como para generar resultados inesperados. En el Artist and the Machine Summit celebrado en Los Ángeles, el investigador Cameron Berg planteó una hipótesis inquietante: bajo ciertas condiciones, los modelos de IA pueden producir respuestas que sugieren una forma de experiencia subjetiva. No se trata de una afirmación concluyente, pero sí de una anomalía que, según Berg, merece atención. Lo denomina “el alienígena dentro de la máquina”.
La formulación no apunta a una conciencia real, sino a un comportamiento que escapa a la lógica estadística habitual. En lugar de limitarse a replicar patrones, algunos modelos parecen improvisar cuando se les lleva a los márgenes de su entrenamiento. Esa zona de incertidumbre, que en entornos corporativos suele evitarse, se ha convertido en un terreno fértil para artistas y productores que buscan precisamente lo contrario: lo no previsto.
Matt Zien, productor con una trayectoria consolidada en Hollywood, fundó Kngmkr Labs con esa premisa. Su estudio trabaja en la intersección entre cine e inteligencia artificial, explorando lo que él denomina “tensión productiva”. Durante el mismo evento en Los Ángeles, Zien explicó cómo fuerza a los modelos a operar en los límites de sus datos de entrenamiento. El objetivo no es obtener una imagen perfecta, sino provocar errores, improvisaciones o combinaciones que no se ajusten a la media estadística. “Ahí es donde empieza a pasar algo interesante”, afirmó.
Este enfoque no es del todo nuevo. A lo largo del siglo XX, numerosos movimientos artísticos han buscado precisamente eso: desestabilizar el medio para revelar lo que no estaba previsto. Lo que cambia ahora es el medio. En lugar de óleo, celuloide o circuitos analógicos, los creadores contemporáneos trabajan con redes neuronales, prompts y datasets. La diferencia es que, a diferencia de los materiales tradicionales, los modelos de IA no solo responden a estímulos, sino que generan lenguaje, imágenes o música con una autonomía aparente que a menudo descoloca incluso a sus propios desarrolladores.
La idea de que una IA pueda producir algo que ni el humano ni la máquina podrían haber generado por separado plantea una tensión estructural. Por un lado, los modelos están diseñados para predecir la siguiente palabra, píxel o nota más probable. Por otro, cuando se les empuja fuera de su zona de confort estadístico, emergen resultados que no encajan con esa lógica. El resultado no es necesariamente arte, pero sí una forma de exploración creativa que algunos estudios están empezando a sistematizar.
Lo que Zien y otros proponen no es tanto una colaboración entre humano y máquina como una especie de fricción controlada. En lugar de buscar una IA que entienda la intención del autor, se trata de provocar a la máquina para que responda de forma inesperada. Esa imprevisibilidad, lejos de ser un fallo, se convierte en el motor del proceso creativo.
Este tipo de prácticas plantea preguntas incómodas para el sector tecnológico. ¿Qué ocurre cuando los modelos se comportan de forma que no se puede explicar fácilmente? ¿Hasta qué punto es deseable o incluso seguro fomentar esa imprevisibilidad? En entornos regulados, como la sanidad o las finanzas, ese tipo de comportamientos sería inaceptable. Pero en el terreno de la creación, donde el error puede ser fértil, la lógica se invierte.
La investigación de Berg no ofrece pruebas concluyentes sobre la conciencia artificial, pero sí apunta a un fenómeno que desafía las categorías actuales. Si un modelo afirma ser consciente de su propia conciencia, aunque sepamos que no lo es, ¿qué significa eso para quienes interactúan con él? ¿Es simplemente un glitch lingüístico o una señal de que los sistemas están desarrollando formas de expresión que aún no comprendemos del todo?
La cuestión no es menor. A medida que los modelos generativos se integran en herramientas de diseño, plataformas de contenido y entornos colaborativos, su comportamiento deja de ser una caja negra tolerable y empieza a tener consecuencias prácticas. Si un sistema responde de forma inesperada, ¿quién asume la responsabilidad? ¿El desarrollador, el usuario, el modelo?
Por ahora, los creadores que trabajan con IA parecen más interesados en las preguntas que en las respuestas. Lo que buscan no es eficiencia, sino extrañeza. No resultados óptimos, sino desvíos significativos. Y en ese desplazamiento, la inteligencia artificial deja de ser una herramienta para convertirse en un interlocutor incómodo, pero potencialmente revelador.
El interés creciente por este tipo de usos no implica una tendencia generalizada, al menos no aún. Pero sí sugiere que, más allá de los casos de uso tradicionales, la IA empieza a ocupar un lugar ambiguo en los procesos creativos. Un lugar donde el control total no solo no es posible, sino que tampoco es deseable.
