En un artículo anterior, reflexionaba sobre cómo ha evolucionado el diseño de experiencias. Hemos pasado de centrarnos solo en acciones concretas a comprender la importancia de los hábitos y esos «caminos del deseo» que la gente elige seguir naturalmente. Una perspectiva que nos ayudó mucho a crear productos más significativos.
Pero justo cuando empezábamos a dominar esa dinámica, irrumpió la Inteligencia Artificial. Y no llegó como una herramienta más que usamos de vez en cuando. Se está colando silenciosamente en medio de todo, convirtiéndose en el intermediario principal entre nosotros y el mundo digital.
Es una revolución silenciosa. Y como todas las revoluciones silenciosas, esconde muchas más implicaciones de las que percibimos a primera vista.
Un cambio de paradigma en el diseño
Durante años, como diseñadores, hemos perfeccionado un conjunto de habilidades casi de artesano: detectar fricciones, eliminar obstáculos, generar confianza, crear flujos que guían sutilmente a las personas hacia sus objetivos. Era trabajo manual, caso por caso, iteración tras iteración. Podíamos dedicar varias semanas a optimizar un formulario para reducir la tasa de abandono.
Trabajábamos con muestras limitadas. Entrevistas con usuarios, tests A/B, métricas de nuestro producto específico. Nuestro conocimiento era profundo pero necesariamente estrecho.
La IA ha roto completamente esas limitaciones. No solo trabaja a mayor escala: trabaja de manera fundamentalmente diferente. Nosotros diseñábamos basándonos en muestras y suposiciones sobre lo que la gente querría. La IA observa lo que la gente realmente hace, en tiempo real, con millones de personas simultáneamente, y ajusta su comportamiento al instante.
Es como si tuviéramos un diseñador que ve todos los clicks, todas las dudas, todos los abandonos del mundo entero, todo el tiempo.
El portero invisible de la realidad digital
Aquí está lo que me resulta más fascinante y, a la vez, más preocupante: antes de que tú y yo accedamos a cualquier información, producto o servicio, cada vez es más probable que una IA ya haya interactuado con ello, lo haya evaluado y haya decidido si nos lo muestra, cómo y cuándo.
Se ha convertido en el portero de la realidad digital. Y es un portero invisible.
La invisibilidad de la IA no es un efecto secundario no deseado. Es producto de tres factores convergentes: la complejidad técnica inherente de los sistemas de machine learning (que ni siquiera sus creadores comprenden completamente), las decisiones de negocio que priorizan la fluidez de la experiencia sobre la transparencia, y la naturaleza emergente de sistemas que evolucionan a través de millones de interacciones. Como señala Cathy O’Neil en «Weapons of Math Destruction», esta opacidad algorítmica no es un efecto secundario, sino una característica que beneficia a quienes controlan estos sistemas.
La diferencia con tecnologías anteriores no está tanto en la adopción, sino en la naturaleza de la mediación y el momento de la decisión. Otras tecnologías mediadoras fueron explícitas en su función: cuando usabas un buscador, sabías que estabas buscando; cuando navegabas por tu timeline, entendías que estabas viendo posts filtrados. Incluso cuando los algoritmos seleccionaban contenido, la interfaz te recordaba constantemente que estabas en una plataforma específica con reglas específicas.
Más importante: decidías cuándo usar esa mediación. Cuándo abrir Google, cuándo entrar a Facebook, cuándo consultar Wikipedia.
La IA como intermediario elimina ese momento de decisión consciente. Actúa antes de que sepas que necesitas tomar una decisión, se inserta en flujos que creías directos. No ves cuándo actúa, no sabes qué te está mostrando, qué te está ocultando, ni por qué te muestra exactamente lo que te muestra. Y, probablemente lo más relevante, no sabes si lo que estás viendo lo ha creado ella, ha sido filtrado por ella, o procede directamente de la fuente original.
Estamos empezando a vivir en un mundo donde la procedencia de la información se vuelve indescifrable.
Para hacernos una idea de la escala: actualmente hay 8.4 mil millones de asistentes de voz activos globalmente, dispositivos que, a diferencia de una pantalla donde puedes verificar información, te responden por voz. Y ahí está el problema: ¿cómo verificas lo que te dice una voz? No puedes hacer clic, no puedes contrastar fuentes, no puedes evaluar visualmente la credibilidad. Simplemente escuchas y, por comodidad, confías.
Piénsalo por un momento. Cuando lees el resumen de una noticia, ¿es un extracto real del artículo original o una síntesis generada por IA? Cuando ves recomendaciones de productos, ¿reflejan tus preferencias reales o lo que el algoritmo quiere que compres? Cuando obtienes una respuesta a una pregunta compleja, ¿es información contrastada o una alucinación elegante?
El problema de las alucinaciones elegantes
Las «alucinaciones» de la IA no son simples errores técnicos: son información incorrecta presentada con la misma confianza y coherencia que la información verdadera. Son indistinguibles del conocimiento real para el usuario promedio.
Esto agrava el problema del intermediario invisible: no solo no sabemos cuándo está actuando, sino que cuando actúa, puede estar mintiéndonos sin saberlo.
Esto plantea un problema epistemológico profundo. En el pasado, cuando encontrabas información dudosa, había señales de alarma: fuentes poco fiables, información mal presentada, inconsistencias obvias. La IA puede generar contenido falso que es internamente consistente, bien estructurado y persuasivo. La verificación de hechos se vuelve no solo más importante, sino también más difícil.
El riesgo real no es que la IA cometa errores. El riesgo es que normalicemos la «verdad sintética» como algo indistinguible de la verdad verificable, erosionando nuestra capacidad colectiva de distinguir entre conocimiento fundamentado y especulación sofisticada.
El caso Google: cuando gigantes se adaptan
Un ejemplo concreto de esto lo vemos en Google. La empresa se está transformando conscientemente su propio producto estrella: el buscador que ha dominado el mundo digital durante dos décadas. Ahora pone directamente resúmenes generados por inteligencia artificial en la parte superior de muchos resultados de búsqueda, las llamadas «AI Overviews».
¿Por qué Google haría esto? ¿Por qué arriesgaría el modelo que le ha funcionado tan bien? Porque ya sabe que la gente está dejando de usar el buscador tradicional y pregunta directamente a su IA favorita.
Yo mismo llevo usando Perplexity como principal buscador desde hace varias semanas. ¿Para qué voy a jugar a adivinar qué palabras clave usar, navegar entre múltiples enlaces y filtrar el ruido hasta dar con lo que busco? Perplexity lo hace por mi, y por ahora no me muestra enlaces patrocinados ni contenido fraudulento.
Pero aquí está lo revelador: los CEOs de estas plataformas ya han anunciado que en el futuro incluirán contenido patrocinado en sus respuestas. Por ahora no lo hacen porque están en fase de generar hábito, dependencia y, sobre todo, confianza. Yo soy un ejemplo perfecto de esta trampa: aunque soy consciente del mecanismo, aunque analizo críticamente el proceso, aunque escribo sobre estos riesgos… sigo prefiriendo Perplexity a Google porque me resulta más cómodo.
La comodidad es un argumento poderoso. Y funciona incluso cuando sabemos exactamente cómo funciona.
La efectividad de los algoritmos actuales
Los algoritmos de recomendación actuales ya muestran esta efectividad, pero con matices importantes. El 70% del tiempo de visualización en YouTube proviene de videos que recomienda su algoritmo, mientras que más del 80% del contenido que vemos en Netflix llega a través de sus recomendaciones personalizadas. Estos sistemas funcionan bien porque operan en contextos específicos: contenido de entretenimiento con patrones de consumo predecibles.
Te habrás dado cuenta de que con Amazon no parece funcionar tan bien las recomendaciones. A mí me sigue insistiendo en venderme otra lavadora días después de haberme comprado una, como si en casa me dedicara a coleccionarlas. La diferencia revela lo complejo que es recomendar bienes duraderos frente al entretenimiento que puedes consumir infinitamente.
Pero estos algoritmos están aprendiendo. Amazon ya sabe que no compras lavadoras cada semana, pero por ahora prefiere la recomendación indiscriminada porque le funciona en suficientes casos. Algún día, la IA entenderá qué productos repites y cuáles no. Esto es solo el preludio de algo mucho más sofisticado.
Hemos desarrollado lo que podríamos llamar una «confianza pragmática»: sabemos que lo que leemos puede estar mal, pero como funciona suficientemente bien y nos ahorra trabajo, preferimos no cuestionarlo. Poco a poco, delegamos la evaluación crítica. Y hasta ahora, la comodidad está ganando.
La pregunta fundamental
Esta transformación no va a ralentizarse. La IA como intermediario invisible está aquí para quedarse, y cada día será más omnipresente. No hace ruido en nuestro día a día, pero está reconfigurando cómo accedemos a la información, cómo tomamos decisiones, incluso cómo entendemos la realidad.
Nos obliga a plantearnos preguntas importantes sobre nuestro rol como diseñadores y sobre el futuro de la experiencia humana. La más importante es esta:
Si la IA decide cada vez más por nosotros… ¿para quién estamos diseñando realmente?
De eso hablaré en el próximo artículo.