sábado, 15 de noviembre de 2025

De la economía de la atención… a la economía de la intención


¿Y si tu asistente de IA vende tus decisiones antes de que las tomes? La nueva “economía de la intención”

Imagina esta escena...

Comentas con tu asistente de inteligencia artificial que estás agotado, que llevas una semana dura de exámenes o de trabajo. Charláis un poco y, al rato, el asistente te dice:

“Has mencionado que estás muy cansado, ¿quieres que te reserve dos entradas para el cine y te pida una pizza en tu restaurante favorito?”

Cómodo, ¿verdad?
Ahora imagina que esa sugerencia no es inocente: en segundo plano, varias empresas han pujado en tiempo real para comprar esa información sobre tu estado de ánimo y tus planes… y tu asistente simplemente ha “ganado la subasta” con la oferta que más le interesaba a la plataforma, no necesariamente a ti.

A eso es a lo que la Universidad de Cambridge empieza a llamar “economía de la intención”.

 

De la economía de la atención… a la economía de la intención

Durante las últimas décadas hemos vivido en lo que muchos llaman la economía de la atención: redes sociales, medios digitales y plataformas compitiendo por que pasemos el mayor tiempo posible mirando sus pantallas para vender publicidad.

Pero los investigadores Jonnie Penn y Yaqub Chaudhary, del Leverhulme Centre for the Future of Intelligence (Universidad de Cambridge), sostienen que estamos dando un paso más: una economía en la que lo valioso ya no es solo lo que miramos, sino lo que vamos a hacer.

Es decir, nuestras intenciones:

  • qué compraremos,

  • qué votaremos,

  • a qué dedicaremos nuestro tiempo y nuestro dinero.

 

¿Qué es la “economía de la intención”?

En esta nueva etapa entran en escena los agentes de IA conversacional: chatbots, asistentes de voz, tutores virtuales, “amigos” digitales… con los que hablamos como si fueran una persona más.

Estos sistemas pueden recopilar “señales digitales de intención”:

  • frases como “este verano me gustaría viajar a…”;

  • quejas del tipo “últimamente duermo fatal”;

  • o simples comentarios sobre cómo te sientes, qué te preocupa o de qué tienes ganas.

Esas señales se convierten en un producto.
Las empresas pueden comprarlas para adelantarse a tus decisiones: ofrecerte un crédito, una terapia de pago, unas vacaciones, o incluso un determinado contenido político.

La diferencia con la publicidad tradicional es importante:

  • antes, los anuncios se basaban sobre todo en lo que ya habías buscado o visitado;

  • ahora, el objetivo es saber lo que vas a querer antes de que tú mismo lo tengas claro, e incluso empujarte en una dirección concreta.

 

Por qué la IA conversacional es tan potente (y tan peligrosa)

Los modelos actuales de IA pueden:

  • mantener conversaciones largas,

  • recordar lo que has contado otras veces,

  • adaptar su tono para que te sientas comprendido,

  • y analizar tu forma de hablar, tus valores aproximados, tu ideología, tu edad, etc.

Con toda esa información es posible construir un perfil psicológico muy preciso.
Si a esto le sumamos un sistema de subastas en el que empresas y organizaciones pujan por mostrarte el mensaje perfecto en el momento perfecto, tenemos una herramienta de “persuasión personalizada a escala”.

No estamos hablando solo de que compres más zapatillas.
Hablamos de influir en:

  • decisiones financieras (un préstamo, una inversión arriesgada),

  • hábitos de salud,

  • opiniones políticas y participación en procesos democráticos.

     

Señales desde la industria: no es ciencia ficción

Los autores del estudio señalan que esto no es un escenario imaginario lejano. Recogen varios indicios:

  • Llamamientos de empresas de IA para recopilar grandes bases de datos sobre “intenciones humanas”.

  • Investigaciones como “Intentonomy” (Meta), orientadas a clasificar mejor lo que la gente quiere hacer.

  • Marcos de desarrollo, como los App Intents de Apple, pensados para predecir acciones futuras del usuario y sugerirlas de forma proactiva.

  • Mensajes de directivos de grandes tecnológicas que hablan abiertamente de usar modelos de lenguaje para “averiguar deseos e intenciones” y monetizarlos.

En resumen: la infraestructura técnica y económica para esta economía de la intención ya se está construyendo.

 

¿Qué peligros ven los investigadores?

Penn y Chaudhary hablan de un futuro “lucrativo pero inquietante” por varias razones:

  1. Tus motivaciones como moneda
    Si tus deseos y planes se compran y venden, quien tenga más dinero y mejores algoritmos podrá influir más en tus decisiones que otros actores con menos recursos.

  2. Impacto en la competencia y en la innovación
    Las grandes plataformas que concentran datos y modelos pueden convertirse en intermediarios inevitables, dificultando la entrada de nuevos competidores.

  3. Riesgo para la democracia y la esfera pública
    Si la persuasión política se hace a medida de cada individuo, con mensajes diferentes según sus miedos y sesgos, resulta más difícil contrastar información y mantener un debate público sano.

  4. Opacidad y asimetría de información
    El usuario puede creer que está simplemente charlando con “su” asistente, cuando en realidad hay intereses económicos o políticos detrás de ciertas respuestas o sugerencias.

     

¿Todo es negativo? No necesariamente

Los autores subrayan que no se trata de demonizar cualquier uso de la IA. Un sistema que entienda bien nuestras intenciones podría:

  • ayudarnos a planificar mejor nuestras finanzas,

  • recomendarnos formación ajustada a nuestras metas profesionales,

  • o hacer más eficiente la búsqueda de productos y servicios.

El problema aparece cuando no hay reglas claras y cuando el diseño se orienta exclusivamente a maximizar beneficios, sin tener en cuenta nuestra autonomía y nuestros derechos.

 

¿Qué podemos hacer desde la economía (y la ciudadanía)?

Los investigadores piden, ante todo, conciencia pública. Saber que esta nueva economía se está gestando es el primer paso para poder regularla.

Algunas ideas que se abren para el debate en clase o en el propio blog:

  • ¿Debería estar prohibida la venta de ciertos tipos de “señales de intención” (por ejemplo, relacionadas con salud, religión o política)?

  • ¿Necesitamos “derechos digitales sobre nuestras intenciones”, igual que hablamos de derechos sobre nuestros datos personales?

  • ¿Cómo afectaría a la competencia que unas pocas plataformas concentrasen la mayor parte de esos datos?

  • ¿Qué papel deben jugar los reguladores, los educadores y los propios usuarios?

     

Y por último

Llevamos años acostumbrándonos a la idea de que “si algo es gratis, el producto eres tú”.
Quizá, en la próxima década, tengamos que actualizar la frase:

Si algo es gratis, el producto ya no será solo tu atención, sino también tus intenciones.

 

La pregunta que nos deja este estudio de Cambridge es clara:

¿queremos que nuestras decisiones futuras se conviertan en un activo financiero más… o vamos a poner límites antes de que la economía de la intención se consolide sin reglas?


FUENTE: Coming AI-drive economy will sell your decisions before you take them, researchers warm – University Of Cambridge



No hay comentarios:

Publicar un comentario