He hablado en un artículo anterior del propósito, del «para quién» diseñamos. Y de cómo la IA, en lugar de servirnos como herramienta, corre el riesgo de convertirse en un fin en sí misma olvidando que el auténtico beneficiario es el ser humano.
Pero esta delegación constante tiene una consecuencia aún más profunda, y es que cuanto más dejamos que la tecnología decida por nosotros, más moldea, poco a poco, nuestra forma de pensar y de actuar.
No es un cambio drástico ni evidente, no aparece una alerta diciendo «su forma de pensar ha sido actualizada por un modelo predictivo». Ocurre de forma progresiva, naturalizada, una «invasión silenciosa». Y cuanto más delegamos en la IA, más se transforma nuestra manera de pensar, decidir, crear y relacionarnos. Avanzamos en esta transformación peldaño a peldaño, a menudo sin darnos cuenta.
La escalera que estamos subiendo sin darnos cuenta
Se ha calculado que a finales de 2024 ya había unos 8.400 millones de dispositivos con asistentes de voz en uso mundial, casi el doble que en 2020. ChatGPT tuvo 52 millones de descargas solo en abril de 2025, convirtiéndose en la app más descargada del mundo ese mes. Ya no estamos hablando de early adopters. Estamos hablando de uso generalizado.
Lo que está pasando es mucho más sutil y progresivo de lo que percibimos. Todo empieza con una oferta difícil de rechazar: «te ayudamos a ahorrar esfuerzo». ¿Para qué redactar un email si puedes pedirle a la IA que lo escriba por ti? ¿Para qué leer veinte artículos si te lo resume en uno solo?
La subida por esta escalera comienza con un peldaño fácil, casi sin darnos cuenta, al delegar las tareas más simples. Una búsqueda rápida, la redacción de un email para que «suene mejor» o incluso la escritura de un mensaje de WhatsApp cuando no sabemos cómo expresar algo delicado.
La comodidad de este primer peldaño nos impulsa al segundo, donde empezamos a delegar nuestras elecciones. Cuando le pedimos qué restaurante elegir, qué ruta tomar para evitar el tráfico, la IA ya no solo ejecuta tareas sino que nos dice qué hacer. Y lo hace tan bien, con tanta aparente precisión, que dejamos de cuestionar sus criterios.
El tercer peldaño es donde la delegación se vuelve profunda, empezamos a delegar nuestro criterio. Le preguntamos qué información es fiable sobre un tema controvertido, confiamos en su análisis de situaciones complejas que requieren matices y experiencia humana. Este es el punto en el que dejamos de usar la IA como herramienta y empezamos a asumir su lógica como nuestra. Ya no solo nos ayuda, sino que empieza a formar parte de cómo entendemos el mundo. Y si no reconocemos ese cambio, dejamos de ejercitar el juicio crítico que nos permite contrastar, matizar o disentir.
Y al finalizar esta pequeña escalera es cuando la comodidad se ha vuelto tan natural que dejamos de verificar por completo. Ya no contrastamos. Ya no cuestionamos. La confianza se ha vuelto automática.
Según Salesforce, el 70% de la Generación Z ya usa IA regularmente, con el 52% confiando en ella para decisiones importantes de su vida. Sam Altman, de OpenAI, ha observado que mientras los usuarios de mayor edad emplean herramientas como ChatGPT como un motor de búsqueda avanzado, y los universitarios como un sistema operativo complejo, el grupo de entre 20 y 30 años tiende a usar la IA como una especie de «consejero de vida».
Esto debería preocuparnos mucho más de lo que nos está preocupando. Estamos viendo cómo toda una generación desarrolla una relación de dependencia cognitiva con sistemas que sabemos que fallan de forma sistemática.
La gran mentira elegante
La IA genera confianza de una manera mucho más sofisticada que cualquier herramienta anterior. Lo hace a través de su tono imperturbable, su capacidad de respuesta inmediata y esa sensación de omnisciencia que transmite. Aunque esté completamente equivocada, te lo dice con una seguridad tan absoluta que acabas creyéndolo.
Te voy a dar algunos datos que te van a incomodar. El Stanford Institute for Human-Centered AI descubrió que las herramientas legales especializadas de IA se inventan información en aproximadamente 1 de cada 6 consultas. Estudios previos con chatbots generales mostraron que las alucinaciones en consultas legales pueden llegar hasta el 75-82% del tiempo. ¿Confiarías tu defensa legal a un abogado que falla más del 75% de las veces?
Pues parece que sí. Un estudio reciente de la Universidad de Melbourne muestra que el 66% de los empleados usa herramientas de IA sin verificar nada de lo que les dicen. Y un 56% admite haber cometido errores en su trabajo por eso. ¿Van a dejar de usarla?… No, el estudio dice que la usarán más aún.
La verdadera revolución no es que la IA haga tareas por nosotros. Eso ya lo hacían otras tecnologías. Lo que cambia las reglas del juego es que ahora entra en nuestras tareas cognitivas. Sugiere diagnósticos a médicos, redacta informes con lenguaje profesional, genera imágenes visuales a partir de conceptos difusos… Y lo hace con una apariencia de precisión, claridad y autoridad que a menudo no invita al cuestionamiento. Como señala Yuval Noah Harari en su libro «Nexus», la IA ha obtenido la «llave maestra» para influir y remodelar la cultura humana: el dominio del lenguaje.
Los riesgos del ciclo invisible
El problema no es solo que cedamos el control sino que, al hacerlo, iniciamos un bucle que nos transforma sin que apenas nos demos cuenta. La IA aprende de lo que hacemos, pero nosotros también nos adaptamos a lo que ella nos propone. Un algoritmo te recomienda cierto tipo de contenido. Tú lo consumes, así que el sistema interpreta que eso te interesa. Te lo vuelve a ofrecer. Y tú lo vuelves a consumir.
Hasta que ya no sabes si elegiste esa película porque realmente te apetecía… o porque las anteriores sugerencias han ido moldeando tu gusto sin que lo notes. Lo que parece una decisión personal puede ser el resultado acumulado de un sistema que aprende de ti, y al mismo tiempo te entrena.
Y la gran trampa es que todo esto suele ocurrir sin fricción, sin duda, sin señal de alerta. Cuando una IA decide por ti, no suele explicarte por qué. Simplemente actúa. Y como acierta la mayoría de las veces (o eso nos parece), bajamos la guardia.
Pero no todos los aciertos son inocentes. A veces, lo que se optimiza no es lo mejor para ti, sino lo más rentable para alguien. O lo más común. O lo que ya funciona con otros como tú. Así, sin querer, podemos acabar atrapados en lógicas que refuerzan sesgos, consolidan desigualdades o empobrecen nuestra mirada. Como advierten algunos autores como Harari, Zuboff, James Williams o Jaron Lanier, la IA puede operar como una «inteligencia ajena», un sistema cuyos objetivos pueden estar dictados por intereses distintos (o incluso contrarios) al bienestar humano.
Lo más preocupante es que ni siquiera sabemos a quién reclamar. Porque la decisión no tiene rostro, ni argumento, ni contexto. Solo una recomendación, una omisión… un «esto es lo que hay».
Aprender a convivir: más allá de la resistencia
Es comprensible que ante esto mucha gente se sienta desconfiada o incluso hostil. Algunos lo viven como una amenaza directa a su trabajo, a su criterio, a su identidad. Pero quedarse ahí es insuficiente. No creo que la solución sea rechazar la IA por completo ni entregarse ciegamente a ella. Para mí, la clave está en aprender a convivir con esta tecnología.
Convivir no es lo mismo que adaptarse sin pensar. Convivir implica entender sus límites, aprovechar sus fortalezas y, sobre todo, mantener el propósito humano en el centro. No se trata de usar la IA porque sí, sino de hacerlo con una dirección clara, sabiendo para qué sirve, qué nos aporta y qué riesgos conlleva.
La responsabilidad que no podemos eludir
Como diseñador, estoy dentro de este proceso. Yo también uso la IA. También delego tareas, también me dejo impresionar por lo rápido que resuelve cosas que antes me costaban horas. Pero precisamente por trabajar creando productos digitales soy más consciente de los riesgos.
Si antes ya era importante ser conscientes de cómo moldeábamos comportamientos, ahora es urgente. Cuando la interacción sucede sin que la veamos, cuando es conversacional y opaca, el potencial de influencia y manipulación se multiplica exponencialmente.
Estamos diseñando sistemas que tocan la confianza de la gente y su percepción de la realidad de formas muy profundas. Y lo estamos haciendo, la mayor parte del tiempo, sin que nadie se dé cuenta.
No podemos evitar que la gente delegue cada vez más en la IA (la comodidad siempre gana), pero sí podemos diseñar esa delegación para que sea consciente y elegible, no invisible e inevitable. Por ejemplo, tenemos la capacidad de hacer visible cuándo y cómo actúa la IA. También está en nuestra mano crear puntos de fricción estratégicos que obliguen a la reflexión. Incluso podemos diseñar la transparencia no como un disclaimer legal aburrido, sino como parte integral de la experiencia.
Un diseño ético tiene que respetar la complejidad humana, no reducirla. Tiene que enriquecer nuestras capacidades, no atrofiarlas por comodidad o por delegación excesiva. Lo importante es que seamos nosotros quienes dirijamos la IA y tener claro nuestro propósito al usarla, preguntándonos siempre para qué la queremos, qué ganamos y qué arriesgamos.
Porque al final, diseñar con IA es diseñar comportamiento. Y ese comportamiento nos está cambiando, nos guste o no.
La IA te cambia. Nos cambia. Aunque no te des cuenta.