La semana pasada los anuncios desembarcaron oficialmente en ChatGPT. Mediante la imbricación de mensajes publicitarios en la que es a todas luces su joya de la corona, OpenAI pretende inaugurar nuevas vías de ingresos (en vista de que el dinero emanado de las suscripciones no resulta en modo alguno suficiente para cubrir los elevadísimos costes que afronta a día de hoy la empresa liderada por Sam Altman).
Sin embargo, el aterrizaje de la publicidad en ChatGPT ha sido confrontado con críticas inusitadamente feroces. Y al fragoroso coro de voces críticas se ha unido en los últimos días una exempleada de la compañía (algo que resulta obviamente particularmente sangrante para OpenAI).
Poco después de que OpenAI anunciara la llegada de los anuncios a ChatGPT, Zöe Hitzig decidía cortar amarras con la compañía, donde trabajaba en estrategias de seguridad y «pricing». Y en un artículo publicado hace solo unos días por The New York Times la reputada economista e investigadora advierte de los riesgos que entraña el debut de los anuncios en ChatGPT. A juicio de Hitzig, el problema no se limita a que la publicidad esté despojada totalmente de ética en un producto como ChatGPT (como argumentan algunos), puesto que sus raíces son en realidad mucho más profundas.
Hitzig pone de relieve que ChatGPT no es producto digital al uso, ya que los usuarios llevan confiándole información altamente sensible desde hace años (desde informes médicos a problemas sentimentales, pasando por cuestiones existenciales). Un reciente estudio emprendido por la Universidad de Heidelberg concluye, no en vano, que las personas forjan a menudo fuertes conexiones emocionales con los modelos de IA. Y la intimidad que les une a tales modelos se refleja en conversaciones que están preñadas en ocasiones de muchísima profundidad (y donde se comparten detalles que se quedan en la penumbra en otro tipo de conversaciones, las que tienen lugar entre personas de carne y hueso).
OpenAI maneja datos altamente sensibles que utilizados con fines publicitarios podrían dar alas a la manipulación
Durante años, enfatiza, Hitzig, los usuarios de ChatGPT han compartido con esta herramienta toda clase de secretos íntimos porque creían que el celebérrimo chatbot eran huérfano de intereses propios. Y es precisamente la excepcional franqueza que el usuario despliega a la hora de comunicarse con ChatGPT la que impregna de más valor desde el punto de vista del marketing a los datos allí alojados. Sin embargo, el hecho de que los datos compartidos con ChatGPT sean ahora utilizados con fines publicitarios (aun siendo altamente sensibles) abre la puerta a nuevas posibilidades de manipulación, enfatiza Hitzig. Y no hay además suficientes salvaguardias técnicas y regulatorias para proteger adecuadamente al usuario.
OpenAI hace hincapié en que la publicidad en ChatGPT será siempre etiquetada claramente como tal y no tendrá influencia alguna en las respuestas proporcionadas al usuario por el famoso chatbot. Hitzig considera, no obstante, que aunque esta promesa puede ser plausible a corto plazo, podría eventualmente saltar por los aires a largo plazo por la creciente presión en el plano económico con la que brega OpenAI.
La publicidad en los modelos en IA es contemplada también de manera muy crítica en los circuitos académicos. En 2025 la Universidad de Míchigan publicó un estudio en se colocó bajo la lupa el comportamiento desplegado por 179 personas que fueron confrontadas con anuncios en sistemas de IA. Y más de la mitad de los sujetos evaluados tuvieron dificultades a la hora de reconocer la publicidad como tal (aunque esta estuviera claramente etiquetada como tal).
Hitzig sostiene en un modelo de negocio anclado en los ingresos publicitarios da lugar a incentivos económicos que diluyen gradualmente las normas por las que se rige primigeniamente ese modelo. Algo similar sucedió en su día en Facebook, donde las promesas emparentadas con la privacidad y el control por parte del usuario han terminado siendo dinamitados por la presión directamente asociada al mercado publicitario.
Conviene además no perder de vista que OpenAI afronta a día de hoy muchísima presión en el plano financiero. Y de acuerdo con las cifras publicadas por la propia compañía, a la matriz de ChatGPT se le van por el desagüe aproximadamente 14.000 millones de dólares cada año. Sin nuevas vías de ingresos, los sistemas más poderosos de IA podrían terminar mutando en artículos de lujo con precios por encima de los 200 dólares mensuales. Y para evitar un aumento desorbitado del precio de ChatGPT, OpenAI desea cobijarse precisamente en la publicidad.
Hitzig cree, no obstante, que no habría que elegir necesariamente entre un modelo publicitario susceptible de dar alas a la manipulación y un carísimo acceso exclusivo a las herramientas de IA al alcance de solo unos pocos. La exinvestigadora de OpenAI propone, entre otras cosas, un modelo financiero alternativo. Desde el punto de vista de Hitzig las empresas que se apoyan en la IA para actividades profesionalmente altamente remuneradas (la tasación de propiedades inmobiliarias, por ejemplo) deberían abonar tarifas más elevadas para beneficiarse de esta tecnología. Y subvencionar así (parcialmente al menos) el acceso a la IA de los usuarios privados, sostiene Hitzig.






























