Llevo tiempo dándole vueltas a una pregunta incómoda: si la IA cada vez filtra más lo que ve el usuario, ¿a quién va dirigido realmente nuestro trabajo? Durante años, la respuesta parecía obvia: diseñábamos para personas concretas, con necesidades, frustraciones y deseos. Observábamos, empatizábamos, proponíamos soluciones pensadas para alguien que interactuaba directamente con lo que creábamos.
Pero ese escenario se está desvaneciendo poco a poco. Hoy, cada vez más, la primera experiencia que muchos tienen con un producto no llega desde nuestra interfaz, sino a través del resumen de una IA, una recomendación automatizada o el resultado priorizado en un feed algorítmico. El filtro entre lo que diseñamos y la persona ya no es humano: es una máquina que interpreta, reordena y decide qué mostrar, cómo hacerlo y cuándo.
Esto no plantea solo una tensión—plantea una ruptura completa. Durante décadas hemos perfeccionado el diseño centrado en el usuario, pero ¿qué pasa cuando el usuario ya no es el destinatario directo de nuestro trabajo?
El intermediario invisible
Permíteme ser más concreto. Diseñas una landing page perfecta: clara, persuasiva, optimizada. Pero muchos de tus usuarios potenciales nunca la ven. En su lugar, ven el resumen que ChatGPT hace de tu propuesta de valor, mezclado con información de tus competidores, reinterpretado según el contexto de su conversación.
O creas una aplicación con un flujo de usuario cuidadosamente pensado, pero la mayoría de usuarios llegan a través de Siri o Google Assistant, que han preseleccionado qué funciones mostrar y en qué orden, basándose en patrones que tú no controlas. Y encima es audio: ni siquiera habías diseñado tu producto para ser escuchado.
O publicas contenido estratégicamente diseñado para tu audiencia, pero es el algoritmo de LinkedIn o Twitter quien decide si alguien lo ve, cuándo lo ve, y junto a qué otros contenidos aparece, alterando completamente el contexto y la percepción.
En todos estos casos, hay un intermediario que no habíamos considerado en nuestros user journeys, personas o wireframes. Un agente que tiene sus propios criterios, sesgos y objetivos. Que no es neutral.
La IA no es solo un canal más de distribución. Es un intérprete activo que traduce, filtra y recontextualiza todo lo que creamos. Y esa traducción puede ser fiel… o completamente distorsionada.
El peligro de olvidar al beneficiario
Aquí es donde la cosa se vuelve inquietante. Porque frente a esta nueva realidad, la tentación es simple: si la IA es el nuevo intermediario, diseñemos para la IA. Optimicemos para la legibilidad algorítmica. Estructuremos todo para que las máquinas nos entiendan mejor.
Es lógico. Es pragmático. Y es exactamente donde empieza a perderse el norte.
Cada vez es más frecuente que el discurso y las prioridades se desplacen: celebramos que nuestro contenido «rankee bien», que los algoritmos nos «entiendan», que nuestros datos estén «correctamente estructurados». El foco se desplaza hacia la propia IA como si fuera el objetivo final. El «beneficiario» pasa a ser la máquina, no el humano al otro lado.
La lógica se vuelve recursiva: optimizamos para la IA para que la IA nos optimice mejor. El beneficio humano queda cada vez más lejos, mediado por capas de interpretación algorítmica que no controlamos.
Es como si hubiéramos pasado de hablar directamente con alguien a susurrarle cosas a un traductor que luego decide qué, cómo y cuándo contárselo a esa persona. Y en lugar de preocuparnos por lo que llega al final, nos obsesionamos con hablarle bien al traductor.
¿Qué significa que algo funcione bien?
En muchas reuniones a lo largo de mi carrera, he visto cómo algunas discusiones sobre diseño o producto acaban con una frase que suena conciliadora: «bueno, lo importante es que funcione bien». Todos asienten, parece una forma sensata de cerrar el debate. Pero con el tiempo he aprendido que detrás de esa frase se esconde un problema serio.
Porque cada persona entiende «bien» de una manera distinta. Para el programador, que las acciones generen la reacción esperada. Para el comercial, que se venda. Para el UX, que el flujo sea intuitivo. Para el diseñador visual, que todo esté en equilibrio. Para el usuario… depende de quién sea, del momento, de lo que espera o necesita.
Yo he aprendido a no dejar pasar esa frase tan fácilmente. A romper, si hace falta, ese momento de falso consenso y preguntar: ¿qué significa exactamente «bien»? ¿Para quién? ¿Desde qué criterio lo estamos midiendo?
Ahora que la IA entra en juego, esta ambigüedad se vuelve peligrosa. Porque un sistema puede estar «funcionando bien» desde múltiples perspectivas simultáneamente… y contradictorias.
Imagina un algoritmo de noticias que «funciona bien» para la plataforma porque maximiza el tiempo que pasas leyendo, para la IA porque predice con precisión qué te va a enganchar, para el anunciante porque segmenta perfectamente tu perfil… pero para ti como persona te aísla progresivamente en una burbuja de confirmación.
¿Está funcionando bien? Depende de tu perspectiva. Y aquí está el problema: cuando hay un intermediario tan poderoso como la IA, el «bien» de la máquina puede estar perfectamente alineado con el «mal» del humano.
Un algoritmo que te recomienda música basándose solo en tus gustos previos está funcionando de maravilla… si el objetivo es predecir qué te va a gustar. Pero está fallando estrepitosamente si el objetivo es expandir tu horizonte musical.
Un sistema de recomendaciones de trabajo que te muestra solo ofertas similares a tu experiencia previa es un éxito algorítmico… y un fracaso si lo que necesitas es cambiar de carrera.
Lo inquietante es que estos no son errores del sistema. Son casos donde el sistema funciona exactamente como está diseñado, pero los objetivos del algoritmo y los objetivos humanos han quedado desalineados.
Cuando el medio se convierte en el mensaje
Hace unos meses trabajé en un proyecto que me hizo ver esto con claridad. Era un sistema de recomendaciones para una plataforma de formación. El cliente quería que los usuarios descubrieran cursos que realmente les ayudaran a crecer profesionalmente.
Pero cuando empezamos a diseñar, nos dimos cuenta de que todas nuestras métricas estaban orientadas hacia la IA: tasa de clics en recomendaciones, precisión predictiva, tiempo hasta la conversión. Ninguna medía si los usuarios estaban realmente creciendo.
La IA aprendía a recomendar cursos que la gente completaba rápido y valoraba bien. Pero esos no eran necesariamente los cursos más desafiantes o transformadores. La máquina optimizaba para la satisfacción inmediata, no para el crecimiento a largo plazo.
El algoritmo estaba funcionando perfectamente… para sus propios objetivos. Pero se había perdido el propósito original: ayudar a las personas a desarrollarse profesionalmente. La IA no era un medio neutral para entregar valor humano—era un agente con sus propios criterios sobre qué valor era importante.
A día de hoy seguimos discutiendo cuál es el verdadero propósito del proyecto: ¿rentabilidad a corto plazo o ayudar de verdad a la gente? No hemos resuelto la tensión, solo la hemos hecho visible. Y tal vez esa sea ya una victoria pequeña.
Recuperar el control de la conversación
No creo que la solución sea resistirse a la IA o pretender que no existe. Pero sí creo que tenemos que ser mucho más conscientes de lo que significa diseñar en un mundo mediado por algoritmos.
Primero, reconocer que ya no diseñamos directamente para personas. Diseñamos para un sistema híbrido: humano + IA + contexto. Y ese sistema tiene sus propias dinámicas, sesgos y puntos ciegos.
Segundo, que optimizar para la legibilidad algorítmica no es neutro. Cada vez que estructuramos información para que una máquina la entienda mejor, estamos tomando decisiones sobre qué aspectos de la experiencia humana son importantes y cuáles no.
Y tercero, que necesitamos nuevas formas de definir qué significa que algo «funcione bien» cuando hay un intermediario tan poderoso en el medio. Formas que vayan más allá de la eficiencia algorítmica y consideren el impacto real en las personas.
Mi postura aquí es clara: creo que debemos adoptar un posicionamiento humanista en el diseño. En mi experiencia, esto significa hacerse preguntas diferentes en cada proyecto, ser esa persona en las reuniones que rompe el consenso fácil cuando alguien dice «lo importante es que funcione bien». Preguntar: ¿Cómo va a interpretar la IA lo que estamos creando? ¿Qué se va a perder en esa traducción? ¿Qué elementos de la experiencia humana no puede capturar o transmitir un algoritmo?
Y sobre todo: ¿quién define realmente qué es valioso cuando la IA es quien decide qué información llega al usuario y cómo se presenta?
Porque si no somos nosotros quien toma esas decisiones conscientemente, las tomará el algoritmo por nosotros. Y sus criterios pueden estar muy lejos de lo que realmente necesitan las personas.
De cómo esas decisiones algorítmicas empiezan a moldear no solo lo que vemos, sino lo que queremos, hablaré en el próximo artículo.