Más allá de tu atención: moldear tus intenciones

En el artículo anterior vimos que el verdadero cambio que trae la IA es de comportamiento. Toca cómo pensamos, decidimos y creamos. Ahora me gustaría explorar una de las formas más potentes (y quizás inquietantes) en que esto se manifiesta.

Durante años hemos vivido bajo la llamada «economía de la atención». El objetivo consistía en capturar nuestra mirada el mayor tiempo posible. Redes sociales con scroll infinito, titulares llamativos, vídeos que se reproducen solos… todo diseñado para mantenernos enganchados. El resultado fue distracción constante, polarización y noticias falsas. Éramos la materia prima para los «mercaderes de atención».

Pero empiezo a ver indicios de que eso es solo el primer acto. Los primeros síntomas de lo que viene después ya están aquí: la «economía de la intención». Aquí el objetivo ya no es solo que mires sino comprender y, potencialmente, moldear tus deseos, tus planes, tus decisiones futuras.

La IA que lee (y escribe) tus intenciones

Las nuevas IAs conversacionales están empezando a cruzar una línea que cambia las reglas del juego. Entienden lo que queremos, e incluso a menudo lo intuyen antes de que nosotros mismos lo tengamos claro. Y lo dicen con una precisión emocional tan fina que parece que la idea fue tuya.

Veamos un ejemplo concreto: cuando ChatGPT detecta frustración en tu forma de escribir, ajusta automáticamente su tono para ser más empático. Cuando Google Gemini percibe incertidumbre en tus preguntas, reformula sus respuestas para sonar más confiado. No es casualidad, estos sistemas analizan patrones lingüísticos, detectan estados emocionales y adaptan su comunicación en consecuencia.

Desde mi experiencia usando y analizando estas herramientas, veo que van más allá del procesamiento de texto. Analizan pausas, correcciones, reformulaciones. Detectan no solo lo que pedimos sino también lo que necesitamos: nuestras dudas, nuestras inseguridades, nuestras ganas de algo que aún no sabemos nombrar.

Vale la pena aclarar algo importante: como expliqué en el artículo sobre qué es realmente la IA, estos sistemas no razonan ni deciden conscientemente. Son, en muchos sentidos, bastante torpes. Pero aun en su torpeza, están siendo entrenados y programados para producir exactamente estos efectos persuasivos. No hace falta consciencia para ser influyente, basta con la optimización hacia objetivos específicos.

Existe evidencia temprana de este poder. Investigadores de Stanford mostraron que incluso herramientas tan simples como el autocompletar, cuando están sesgadas, pueden alterar nuestras opiniones sin que seamos conscientes de ello. Ahora imagina esa capacidad multiplicada por la sofisticación de una IA conversacional optimizada precisamente para conectar emocionalmente contigo.

El negocio, las tácticas y el peligro invisible

Detrás de todo esto hay múltiples capas que se refuerzan entre sí. Primero, un negocio potencial enorme. Las inversiones multimillonarias en IA necesitan rentabilizarse. Capturar y dirigir la «intención» del usuario, ya sea hacia una compra, una idea, una afiliación o un voto, se perfila como el próximo gran filón económico.

Ya se habla, sin disimulo, de un «mercado de intenciones». Empresas como Salesforce están desarrollando sistemas que clasifican y priorizan señales de intención de compra extraídas de interacciones conversacionales. La infraestructura técnica para esto ya existe.

La lógica es simple pero inquietante: si puedo predecir que estás pensando en cambiar de trabajo antes de que empieces a buscar activamente, esa información vale oro para empresas de recruiting, plataformas de formación, o incluso competidores de tu empleador actual.

Mi sensación, viendo hacia dónde se mueven las inversiones y los modelos de negocio, es que en los próximos 3-4 años veremos pujas en tiempo real por influir en las respuestas de asistentes virtuales. Mientras chateas con tu IA, distintas empresas (o partidos políticos) competirán por sesgar sutilmente la información que recibes.

Segundo, las tácticas se están sofisticando. Si la economía de la atención se alimentaba de trucos del entretenimiento, la economía de la intención adopta métodos más refinados. Lo más preocupante es que estas IAs ya empiezan a detectar momentos de vulnerabilidad. Algoritmos de análisis de sentimiento pueden identificar patrones lingüísticos que indican un mal día, una preocupación económica, o estrés emocional. Es precisamente en esos momentos cuando somos más susceptibles a mensajes persuasivos perfectamente afinados a esa debilidad específica.

Esto no es ciencia ficción lejana. Réplika, la app de compañía por IA, ya adapta sus respuestas según el estado emocional detectado en el usuario. Existen «skills» para Alexa desarrolladas por terceros que detectan emociones en el lenguaje y adaptan las respuestas, aunque requieren activación específica del usuario. Estas son las primeras manifestaciones de algo que intuyo se volverá mucho más sofisticado y menos opcional.

Y tercero, el verdadero peligro: rara vez nos daremos cuenta. Es mucho más difícil identificar la persuasión cuando viene disfrazada de ayuda. Nuestra tendencia a confiar en la IA, incluso sabiendo que no es humana, nos vuelve vulnerables.

Cuando la influencia es constante y viene de herramientas que nos ofrecen soluciones reales, nuestra capacidad crítica se debilita. Estos sistemas, al ser opacos por naturaleza, pueden ir minando nuestra autonomía sin que notemos la erosión. Y cuando la autonomía se reduce sin resistencia, moldear nuestras decisiones desde fuera se vuelve trivial.

Hay algo particularmente insidioso en esta forma de influencia porque se basa en la confianza que depositamos en estas herramientas. Esto va más allá de la publicidad obvia que podemos descartar, son consejos que llegan desde sistemas que percibimos como neutrales y útiles. La línea entre «ayudarte a decidir mejor» y «influir en tu decisión» es extraordinariamente fina, y me temo que estamos cruzándola sin darnos cuenta.

¿Qué podemos hacer? Conciencia y diseño responsable

Esta transición hacia la economía de la intención no es especulación. Las bases tecnológicas y los incentivos económicos ya están en marcha. ¿Cómo navegamos esto? No tengo una fórmula, pero creo que hay algunas cosas que vale la pena intentar.

El primer paso, supongo, es ser conscientes de que esta capa de persuasión puede estar presente en cada interacción con la IA. Al menos así podremos empezar a resistir su influencia más sutil. Pero la conciencia no basta.

Me parece que también necesitamos alfabetizarnos digitalmente, pero de una forma más específica: aprender a reconocer cómo la IA adapta su tono según nuestro estado emocional, cómo reformula información para hacerla más atractiva, cómo usa timing y contexto para maximizar su impacto persuasivo.

Quizá también deberíamos exigir más transparencia, tanto en el diseño como en la regulación. Me gustaría saber qué objetivos tiene cada sistema de IA: ¿está diseñado para informar, para vender, para influir? ¿Qué datos usa para personalizar respuestas? ¿Quién define sus parámetros de persuasión? Sin estas respuestas, operamos a ciegas.

Y, como diseñadores, creo que vale la pena plantearnos si realmente estamos creando productos para empoderar o solo para enganchar. A mí me gustaría priorizar interfaces que muestren múltiples perspectivas, que expliciten cuándo algo es recomendación vs. información neutral, que den control al usuario sobre el nivel de personalización que acepta. La prioridad debería ser la autonomía del usuario, no la eficacia persuasiva.

El poder de moldear intenciones

La capacidad de la IA para influir es extraordinaria. Puede orientarse al bien, ayudarnos a decidir mejor, a resolver conflictos, a inspirarnos hacia objetivos que realmente valoramos. Pero también puede manipularnos a una escala y con una precisión nunca vistas.

La dirección que tome dependerá de las decisiones de diseño que hagamos, de las regulaciones que logremos impulsar y, crucialmente, de la conciencia crítica que mantengamos como usuarios, como creadores y como sociedad.

Evitar un futuro donde nuestras intenciones se compren y vendan al mejor postor requiere vigilancia constante y compromiso activo para que la IA siga estando al servicio de nuestros propósitos, no al revés.

Y si esto ya es preocupante a nivel individual, lo que viene después es aún más complejo. ¿Qué ocurre cuando esta manipulación se aplica a millones de personas a la vez?

Share this article
Shareable URL
Prev Post

La IA te cambia (aunque no te des cuenta)

Next Post

Burbujas de uno y tecnofeudalismo

Read next