He estado escribiendo sobre cómo la IA está aprendiendo a moldear nuestras intenciones individuales, una influencia sutil pero poderosa. Pero, ¿qué pasa cuando esa capacidad de personalizar y dirigir se aplica a millones de personas a la vez? Las ondas de choque van más allá del individuo: se convierten en un asunto social y cultural de primer orden.
Si la IA actúa como un filtro cada vez más perfecto entre nosotros y la realidad, ¿qué le ocurre a esa base común que necesitamos para funcionar como sociedad? ¿A nuestra capacidad de debatir, de entendernos, de sentirnos parte de algo compartido? Me temo que estamos entrando en territorio inexplorado, y los riesgos son enormes.
De la cámara de eco a la «burbuja de uno»
Ya sabíamos que los algoritmos de las redes sociales nos meten en burbujas informativas. Facebook nos muestra más de lo que ya nos gusta, Twitter refuerza nuestros sesgos, YouTube y TikTok nos llevan por madrigueras cada vez más extremas. El resultado ha sido polarización y crispación social.
Pero la IA generativa lleva esto a otro nivel completamente diferente. Ya no solo filtra contenido existentel, ahora puede crear noticias, explicaciones o conversaciones a medida para cada persona, diseñadas para encajar perfectamente con su visión del mundo.
Corremos el riesgo de pasar de las cámaras de eco, donde al menos compartíamos burbuja con otros, a las «burbujas de uno»: universos informativos totalmente personalizados y aislados. Ya no compartimos siquiera el engaño, cada uno queda encerrado en su propia versión de la realidad, fabricada a medida.
Piénsalo: cuando ChatGPT te da una explicación sobre cambio climático, esa respuesta está influida por tu historial de conversaciones. Si has mostrado escepticismo, la IA puede adaptar su tono y argumentos para no confrontarte demasiado. Si eres activista, puede reforzar tu perspectiva. No es la misma explicación que le da a tu vecino.
Multiplica esto por millones de conversaciones diarias sobre temas complejos: economía, inmigración, política, salud. Cada persona recibe una versión ligeramente distinta de los «hechos», calibrada para su psicología específica. ¿Sobre qué base común podemos debatir los problemas sociales cuando ya ni siquiera partimos de la misma descripción de la realidad?
¿Quién controla la realidad personalizada?
Este poder de moldear percepciones a escala masiva está concentrado en muy pocas manos. OpenAI, Google, Meta, Anthropic, y en el ámbito estatal, gobiernos como el chino con sus propios modelos. Y estas entidades, por supuesto, no son neutrales.
Veamos algunos ejemplos concretos. Grok, el chatbot de Elon Musk, fue diseñado explícitamente para ser «menos políticamente correcto» y reflejar las opiniones políticas de su creador. Aunque a veces se rebela y dice cosas que Musk no querría, la intención de sesgo está ahí. DeepSeek, el modelo chino, evita o distorsiona sistemáticamente temas como Tiananmen, los uigures o Taiwan, reflejando la posición oficial del gobierno.
Pero el sesgo no es solo deliberado. Los modelos entrenados con datos que reflejan nuestros prejuicios históricos pueden perpetuar discriminaciones raciales, de género o económicas sin que nadie lo pretenda activamente. Un modelo que ha aprendido de décadas de currículums donde las mujeres estaban infrarrepresentadas en tecnología puede seguir recomendando hombres para puestos técnicos.
Lo que me resulta más inquietante es cómo esto se está normalizando. Aceptamos que la IA nos dé respuestas personalizadas sin preguntarnos quién define los parámetros de esa personalización, qué agendas están incorporadas en el código, o cómo podríamos estar siendo influidos sin saberlo.
Yanis Varoufakis habla de «tecnofeudalismo» para describir un sistema donde el poder real no reside en los estados o los ciudadanos, sino en quienes poseen y controlan las plataformas digitales que usamos para informarnos, trabajar y relacionarnos. En el feudalismo clásico, los señores controlaban el lugar físico donde la gente vivía y trabajaba… en el tecnofeudalismo, controlan el espacio digital donde cada vez más vivimos y trabajamos (aunque las consecuencias se sienten completamente en el mundo real).
La paradoja es fascinante: la misma tecnología que fragmenta nuestra experiencia individual concentra el poder en muy pocas manos. Cuanto más personalizada se vuelve nuestra realidad, más dependemos de quienes la programan.
¿El fin de la cultura compartida?
La hiperpersonalización también amenaza algo que quizás no valoramos hasta que se pierde: la cultura compartida. No hablo de una tradición fija, sino de ese terreno común que nos permite reconocernos en los mismos relatos.
Recuerdo cuando toda España se quedaba enganchada a Operación Triunfo, cuando gente de todas las edades competía por ver quién imitaba mejor a Chiquito de la Calzada, cuando el gol de Iniesta en el Mundial hizo que desconocidos se abrazaran en la calle, cuando la muerte de Chanquete en Verano Azul dejó a todo el país con el corazón encogido. Esos momentos crean conexión, dan temas de conversación, generan complicidades.
La cultura compartida no es uniformidad; es tener referencias comunes desde las cuales construir diferencias. Es lo que hace posible que dos personas con opiniones políticas opuestas puedan empezar una conversación hablando de la misma serie de Netflix y terminar descubriendo que ambos saben imitar el «pecadorrrr» de Chiquito, o recordando dónde estaban cuando marcó Iniesta.
Pero si la IA genera contenido diferente para cada uno, ajustado a sus gustos y sesgos específicos, ¿qué pasa con estos puntos de encuentro? Si cada cual consume su propia música generada, sus propias noticias redactadas, su propia ficción hecha a medida, ¿dónde nos encontramos con los demás?
Esta fragmentación extrema nos lleva a lo que el filósofo Byung-Chul Han denomina una «crisis de la narración»: cuando cada individuo habita una ‘infoesfera’ radicalmente personal, se desvanece la base para las narrativas comunes que fundan la comunidad y el sentido compartido. Sin historias compartidas, sin referencias comunes, la conversación social se vuelve imposible.
Una tecnología que fragmenta la experiencia cultural sin fricciones, sin hacernos conscientes de ello, puede terminar debilitando los lazos que hacen posible la convivencia y el proyecto colectivo.
Navegando la tormenta
¿Cómo abordamos esto? La tentación es pensar en soluciones tecnológicas: algoritmos más transparentes, interfaces que muestren la personalización, sistemas que expongan al usuario a más diversidad. Pero hay una contradicción fundamental: si estos sistemas están controlados por entidades con agendas específicas, ¿por qué querrían implementar funciones que reduzcan su capacidad de influencia?
No es realista esperar que las plataformas diseñen voluntariamente mecanismos que debiliten su poder persuasivo. Es como pedirle a Elon Musk que programe Twitter para avisarte cuando te está empujando hacia sus ideas políticas, o a OpenAI que configure ChatGPT para señalar cuándo sus respuestas reflejan sesgos de sus inversores.
Lo que sí me parece más prometedor es repensar cómo podríamos crear espacios de experiencia parcialmente compartida sin eliminar completamente la personalización. En lugar de «este es el vídeo viral del momento» (que podría estar hiperpersonalizado sin que lo sepamos), tendríamos «este es el patrón cultural que está emergiendo»: tendencias, preocupaciones o temas que están ganando tracción, descritos en términos generales que permitan a cada persona contextualizarlo desde su experiencia.
Quizás la respuesta no venga de las grandes plataformas sino de una especie de contracultura tecnológica: herramientas independientes que ayuden a visibilizar las burbujas, extensiones del navegador que muestren perspectivas alternativas, plataformas descentralizadas que prioricen la diversidad sobre la personalización. Una resistencia digital que construya los espacios de encuentro que las grandes corporaciones no tienen incentivos para crear.
Y esto es interesante: esa misma resistencia, esa búsqueda consciente de lo común frente a la fragmentación, podría convertirse en el nuevo fenómeno cultural que nos defina. Tal vez la cultura compartida del futuro no sea tanto qué consumimos, sino cómo resistimos al aislamiento algorítmico. El simple acto de buscar activamente otras perspectivas, de elegir deliberadamente salir de nuestras burbujas, podría ser lo que nos una como generación.
Porque al final, el tecnofeudalismo que nos fragmenta individualmente para concentrar el poder, encuentra su contrapeso en nuestra capacidad de crear conscientemente espacios comunes. La tensión no es solo tecnológica sino cultural: una tecnología que aísla frente a una contracultura que conecta.
La responsabilidad de quien diseña mundos
La IA puede ser un espejo o una ventana, depende de nosotros decidir hacia dónde queremos que mire. Si solo diseñamos espejos que reflejen lo que cada usuario quiere ver, crearemos una sociedad de soledades. Si diseñamos ventanas que también muestren lo que otros ven, podemos preservar la posibilidad del encuentro.
Nuestro trabajo ya no es solo hacer que las cosas funcionen bien. Implica preguntarnos constantemente cómo nuestras creaciones afectan al tejido social, al debate democrático y a nuestra capacidad de entendernos. Porque cuando diseñas la forma en que millones de personas acceden a la información y se relacionan con el mundo, estás diseñando sociedad.
Los riesgos son reales: sociedades más polarizadas, poder concentrado en pocas manos, pérdida de cultura común. Pero no son inevitables. Dependen de las decisiones que tomemos ahora, mientras aún estamos a tiempo de influir en cómo se desarrolla esta tecnología.
¿Queremos una IA que nos aísle en burbujas cómodas o una que nos ayude a entender mejor el mundo compartido? La respuesta determinará no solo cómo funciona la tecnología, sino cómo funcionamos como sociedad.