Publicidad dentro de ChatGPT: el nacimiento de un poder invisible

La IA de OpenAI ya prueba en Estados Unidos su «último recurso», un modelo de suscripción con anuncios que plantea dilemas éticos y podría tener repercusiones muy profundas

Imagen de un asistente de inteligencia artificial, con publicidad incluida, generada por ChatGPT
Imagen generada por ChatGPT
Nueva Revista

Avance

Siguiendo los pasos de Netflix, ChatGPT ha empezado a experimentar con publicidad en sus planes gratuitos. De momento es solo en Estados Unidos, pero en agosto llegará a 171 países, según informa OpenAI, que insiste en que solo le mueve su misión de «lograr que la inteligencia artificial generativa beneficie a toda la humanidad».

Las causas de este cambio de modelo (que ahora veremos) son evidentes, pero las consecuencias son impredecibles, porque hablamos de un sector especialmente sensible. Los anuncios siempre han requerido una regulación, pero en el caso de los chatbots y la inteligencia artificial, alteran de forma dramática el ecosistema informativo, como comprobó WIRED en un experimento sobre anuncios en ChatGPT.

De momento, son solo unos pocos anunciantes en un entorno de prueba, pero los efectos de esta práctica, llevados al extremo, van más allá de la imaginación; la IA puede hacer justo eso, pensar por nosotros nuevas formas de manipulación y de incremento de la eficacia. El propio CEO de OpenAI, compañía dueña de ChatGPt, Sam Altman, alertaba hace menos de dos años sobre los peligros de lo que ahora ha puesto en marcha: «Odio los anuncios», dijo en la Harvard Business School. En su opinión (de mayo de 2024) la mezcla de anuncios e IA genera una «inquietud única» sobre quién puede influir en las respuestas de un chatbot. «Los anuncios son el último recurso para nuestro modelo de negocio», llegó a decir.

La rectificación ya está en camino y el motivo no es secreto. El modelo de suscripciones de pago es todavía insostenible y los gastos son gigantescos. Poco más del 5 % de los 900 millones de usuarios de la IA de OpenAI optan por versiones no gratuitas. Esto son unos 2.000 millones en ingresos cada mes, cantidad insuficiente ante los enormes gastos que genera la IA. Por si fuera poco, los anuncios integrados en la inteligencia artificial se pueden cobrar más caros, porque su eficacia es mayor.

Persuadir en lugar de atraer

La revolución acaba de empezar, pero resulta irónico que la tecnología que ha puesto contra las cuerdas a los medios de comunicación de todo el planeta sea en sí misma ruinosa. Y aún no conocemos las consecuencias de este intento de hacerla rentable. Con la inclusión de anuncios en las respuestas de ChatGPT, ocurre un fenómeno inédito: por primera vez, la conversación —no la página web— se convierte en un espacio publicitario. Hasta ahora, la publicidad digital se basaba en la interrupción: banners, pop-ups y otros males menores tolerados por el lector amante del contenido gratuito.

La diferencia con nuestro inminente futuro es que en los modelos conversacionales la publicidad puede integrarse dentro de la respuesta. Ya no se trata de captar la atención, sino de influir en la decisión. El Washington Post asegura que esta evolución es comparable a la irrupción de las redes sociales, que ganaron terreno a los buscadores tradicionales, pero potencialmente más profunda.

En el estudio GenAI Advertising: Risks of Personalizing Ads with LLMs, publicado en 2024, se alertaba de los peligros que supondrían unos modelos de lenguaje con publicidad integrada en conversaciones aparentemente neutrales. Su tesis central era inquietante: la publicidad en IA no es simplemente más eficaz, sino cualitativamente distinta, porque se presenta como recomendación en lugar de como anuncio.

La opacidad aporta eficacia

Puede parecer un cambio irrelevante, pero uno de los hallazgos más relevantes es que los usuarios tienen dificultades para distinguir entre contenido informativo y contenido publicitario cuando este se integra en la misma respuesta. El peligro es similar al de un presentador de Telediario que haga publicidad en el mismo espacio informativo que presenta. Aquella barrera también se derribó hace tiempo, pese a la legislación existente en muchos países. Ocurre que, en su inocencia, los usuarios perciben como más útiles y fiables los mensajes publicitarios que no están etiquetados como tales. Es decir, la eficacia del sistema depende precisamente de su opacidad.

En el contexto de la IA, los efectos de estos mecanismos se pueden multiplicar. En la publicidad tradicional, el usuario sabe —aunque sea de forma implícita— que está siendo persuadido, pero en sus charlas con un modelo de lenguaje sabemos que se dejará convencer de cualquier cosa, incluso de llegar al suicidio. El problema del «falso amigo también ha sido muy estudiado desde la aparición de la IA conversacional.

Una consecuencia directa es que la confianza, principal activo de estos sistemas, se convierte en su principal vulnerabilidad. Si el usuario percibe que las respuestas están sesgadas por intereses comerciales, la utilidad del sistema se erosiona. Y si no lo percibe, la influencia puede ser mucho mayor y peor, un dilema más para los gigantes de la IA, que a la hora de resolver sus conflictos suelen apostar por la respuesta más rentable. El debate entre eficacia y transparencia marcará el futuro, como subrayaba hace unos días el Financial Times.

Publicidad que encaja como un guante

Otro aspecto clave es la personalización. Los modelos de lenguaje pueden adaptar el mensaje publicitario no solo al perfil del usuario, sino al contexto específico de la conversación. Esto significa que la publicidad deja de ser genérica para convertirse en altamente contextualizada. Según el paper Commercialized Generative AI, esta capacidad difumina lo que quedaba de frontera entre contenido y marketing.

La personalización no solo aumenta la relevancia del mensaje, sino también su poder persuasivo. Estudios recientes han demostrado que los textos generados por IA pueden igualar o incluso superar a los humanos en eficacia publicitaria. Y si la IA puede optimizar la persuasión mejor que nosotros, ¿quién controla ese poder?

El problema se agrava cuando consideramos el contexto emocional. A diferencia de un buscador, un chatbot puede participar en conversaciones personales, asesorar sobre decisiones importantes o incluso acompañar al usuario en momentos de vulnerabilidad. Añadir publicidad a ese contexto tiene connotaciones éticas evidentes. El estudio citado unas líneas más arriba advierte de los abusos de confianza en situaciones sensibles.

Desde el punto de vista económico, sin embargo, el camino parece inevitable. Los modelos de lenguaje son costosos de entrenar y operar, y la publicidad representa una fuente de ingresos natural. Las plataformas digitales pasaron por este modelo y el crecimiento de los usuarios gratuitos obliga a añadir anuncios para hacerlo sostenible.

Medios de comunicación menos libres

Esto agrava el impacto ya conocido de la IA sobre los medios de comunicación. Si los usuarios obtienen la información directamente de la IA, que rara vez cita las fuentes de manera explícita, la publicidad en la IA podría dar la puntilla a los medios tradicionales. Con semejante cuota de poder, la IA se convierte en el intermediario que decide qué información mostrar y cómo presentarla, un poder aún mayor del que ya tiene Google. Para el Washington Post, este fenómeno supone «una nueva capa de control sobre la información».

La cuestión clave es cómo regular este nuevo ecosistema, si acaso es posible. El etiquetado claro de la publicidad y la transparencia en los criterios de recomendación reduce tanto la eficacia del sistema que empresas como OpenAI no van a transigir. El futuro no está escrito, pero si lo siguen redactando las máquinas, parece difícil que sea bueno para los humanos. Incluso este artículo ha recurrido a la IA en la búsqueda de fuentes y en la elaboración de la imagen que lo ilustra.