La IA te cambia (aunque no te des cuenta)

He hablado en un artículo anterior del propósito, del «para quién» diseñamos. Y de cómo la IA, en lugar de servirnos como herramienta, corre el riesgo de convertirse en un fin en sí misma olvidando que el auténtico beneficiario es el ser humano.

Pero hay una consecuencia aún más profunda de esta delegación constante: cuanto más dejamos que la tecnología decida por nosotros, más moldea, poco a poco, nuestra forma de pensar y de actuar.

No es un cambio drástico ni evidente. No aparece una alerta diciendo «su forma de pensar ha sido actualizada por un modelo predictivo». Ocurre de forma progresiva, naturalizada, una «invasión silenciosa». Y cuanto más delegamos en la IA, más se transforma nuestra manera de pensar, decidir, crear y relacionarnos.

La escalera que estamos subiendo sin darnos cuenta

A finales de 2024 había unos 8.400 millones de dispositivos con asistentes de voz en uso mundial, casi el doble que en 2020. ChatGPT tuvo 52 millones de descargas solo en abril de 2025, convirtiéndose en la app más descargada del mundo ese mes. Ya no estamos hablando de early adopters. Estamos hablando de uso generalizado.

Lo que está pasando es mucho más sutil y progresivo de lo que percibimos. Todo empieza con una oferta difícil de rechazar: te ayudamos a ahorrar esfuerzo. ¿Para qué redactar un email si puedes pedirle a la IA que lo escriba por ti? ¿Para qué leer veinte artículos si te lo resume en uno solo?

Hemos empezado subiendo el primer peldaño casi sin darnos cuenta: delegamos las tareas más simples. Una búsqueda rápida, redactar un email para que «suene mejor», incluso escribir mensajes de WhatsApp porque no sabemos cómo expresar algo delicado.

La comodidad de ese primer nivel nos lleva al segundo peldaño: empezamos a delegar nuestras elecciones. Qué restaurante elegir, qué ruta tomar para evitar el tráfico. La IA ya no solo ejecuta tareas, nos dice qué hacer. Y lo hace tan bien, con tanta aparente precisión, que dejamos de cuestionar sus criterios.

El tercer peldaño es donde la delegación se vuelve profunda: empezamos a delegar nuestro criterio. Le preguntamos qué información es fiable sobre un tema controvertido, confiamos en su análisis de situaciones complejas que requieren matices y experiencia humana.

Y el último peldaño es cuando la comodidad se ha vuelto tan natural que dejamos de verificar por completo. Ya no contrastamos. Ya no cuestionamos. La confianza se ha vuelto automática.

Según Salesforce, el 70% de la Generación Z ya usa IA regularmente, con el 52% confiando en ella para decisiones importantes de su vida. Sam Altman, de OpenAI, ha observado que mientras los usuarios de mayor edad emplean herramientas como ChatGPT como un motor de búsqueda avanzado, y los universitarios como un sistema operativo complejo, el grupo de entre 20 y 30 años tiende a usar la IA como una especie de «consejero de vida».

Esto debería preocuparnos mucho más de lo que nos está preocupando. Estamos viendo cómo toda una generación desarrolla una relación de dependencia cognitiva con sistemas que sabemos que fallan de forma sistemática.

La gran mentira elegante

Porque aquí viene lo que realmente me inquieta: la IA genera confianza de una manera mucho más sofisticada que cualquier herramienta anterior. Lo hace a través de su tono imperturbable, su capacidad de respuesta inmediata y esa sensación de omnisciencia que transmite. Aunque esté completamente equivocada, te lo dice con una seguridad tan absoluta que acabas creyéndolo.

Te voy a dar algunos datos que te van a incomodar. El Stanford Institute for Human-Centered AI descubrió que las herramientas legales especializadas de IA se inventan información en aproximadamente 1 de cada 6 consultas. Estudios previos con chatbots generales mostraron que las alucinaciones en consultas legales pueden llegar hasta el 75-82% del tiempo. ¿Confiarías tu defensa legal a un abogado que falla más del 75% de las veces?

Pues parece que sí. Un estudio reciente de la Universidad de Melbourne muestra que el 66% de los empleados usa herramientas de IA sin verificar nada de lo que les dicen. Y ese mismo 56% admite haber cometido errores en su trabajo por eso.

La verdadera revolución no es que la IA haga tareas por nosotros. Eso ya lo hacían otras tecnologías. Lo que cambia las reglas del juego es que ahora entra en nuestras tareas cognitivas: sugiere diagnósticos a médicos, redacta informes con lenguaje profesional, genera imágenes visuales a partir de conceptos difusos. Y lo hace con una apariencia de precisión, claridad y autoridad que a menudo no invita al cuestionamiento. Como señala Yuval Noah Harari en su libro «Nexus», la IA ha obtenido la «llave maestra» para influir y remodelar la cultura humana: el dominio del lenguaje.

Los riesgos del ciclo invisible

El problema no es solo que cedamos el control sino que, al hacerlo, iniciamos un bucle que nos transforma sin que apenas nos demos cuenta. La IA aprende de lo que hacemos, pero nosotros también nos adaptamos a lo que ella nos propone. Un algoritmo te recomienda cierto tipo de contenido. Tú lo consumes, así que el sistema interpreta que eso te interesa. Te lo vuelve a ofrecer. Y tú lo vuelves a consumir.

Hasta que ya no sabes si elegiste esa película porque realmente te apetecía… o porque las anteriores sugerencias han ido moldeando tu gusto sin que lo notes. Lo que parece una decisión personal puede ser el resultado acumulado de un sistema que aprende de ti, y al mismo tiempo te entrena.

Y la gran trampa es que todo esto suele ocurrir sin fricción, sin duda, sin señal de alerta. Cuando una IA decide por ti, no suele explicarte por qué. Simplemente actúa. Y como acierta la mayoría de las veces (o eso nos parece), bajamos la guardia.

Pero no todos los aciertos son inocentes. A veces, lo que se optimiza no es lo mejor para ti, sino lo más rentable para alguien. O lo más común. O lo que ya funciona con otros como tú. Así, sin querer, podemos acabar atrapados en lógicas que refuerzan sesgos, consolidan desigualdades o empobrecen nuestra mirada. Como advierte Harari, la IA puede operar como una «inteligencia ajena»: un sistema cuyos objetivos pueden estar dictados por intereses distintos (o incluso contrarios) al bienestar humano.

Lo más preocupante es que ni siquiera sabemos a quién reclamar. Porque la decisión no tiene rostro, ni argumento, ni contexto. Solo una recomendación, una omisión, un «esto es lo que hay».

Aprender a convivir: más allá de la resistencia

Es comprensible que ante esto mucha gente se sienta desconfiada o incluso hostil. Algunos lo viven como una amenaza directa: a su trabajo, a su criterio, a su identidad. Pero quedarse ahí es insuficiente. No creo que la solución sea rechazar la IA por completo ni entregarse ciegamente a ella. Para mí, la clave está en aprender a convivir con esta tecnología.

Convivir no es lo mismo que adaptarse sin pensar. Convivir implica entender sus límites, aprovechar sus fortalezas y, sobre todo, mantener el propósito humano en el centro. No se trata de usar la IA porque sí, sino de hacerlo con una dirección clara, sabiendo para qué sirve, qué nos aporta y qué riesgos conlleva.

La responsabilidad que no podemos eludir

Como diseñador, estoy dentro de este proceso. Yo también uso la IA. También delego tareas, también me dejo impresionar por lo rápido que resuelve cosas que antes me costaban horas. Pero precisamente por trabajar creando productos digitales soy más consciente de los riesgos.

Si antes ya era importante ser conscientes de cómo moldeábamos comportamientos, ahora es urgente. Cuando la interacción sucede sin que la veamos, cuando es conversacional y opaca, el potencial de influencia y manipulación se multiplica exponencialmente.

Estamos diseñando sistemas que tocan la confianza de la gente y su percepción de la realidad de formas muy profundas. Y lo estamos haciendo, la mayor parte del tiempo, sin que nadie se dé cuenta.

No podemos evitar que la gente delegue cada vez más en la IA (la comodidad siempre gana), pero sí podemos diseñar esa delegación para que sea consciente y elegible, no invisible e inevitable. Podemos hacer visible cuándo y cómo actúa la IA. Podemos crear puntos de fricción estratégicos que obliguen a la reflexión en decisiones importantes. Podemos diseñar transparencia no como un disclaimer legal aburrido, sino como parte integral de la experiencia.

Un diseño ético tiene que respetar la complejidad humana, no reducirla. Tiene que enriquecer nuestras capacidades, no atrofiarlas por comodidad o por delegación excesiva. No se trata de usar la IA porque sí, sino de hacerlo con una dirección clara, sabiendo para qué sirve, qué nos aporta y qué riesgos conlleva.

Porque al final, diseñar con IA es diseñar comportamiento. Y ese comportamiento nos está cambiando, nos guste o no.

La IA te cambia. Nos cambia. Aunque no te des cuenta.

Share this article
Shareable URL
Prev Post

Y ahora… ¿Para quién diseñamos?

Next Post

Más allá de tu atención: moldear tus intenciones

Read next