Wikipedia anuncia la prohibición del uso de la inteligencia artificial en la creación y reescritura de sus artículos. Este movimiento busca proteger la calidad y la neutralidad de sus contenidos, frente a los grandes avances de los nuevos modelos generativos.

La plataforma ha endurecido su postura frente a la IA al prohibir el uso de modelos de lenguaje de gran tamaño (LLM) para generar o modificar contenido dentro de su enciclopedia en línea. La medida afecta tanto a la creación de nuevos artículos como a la edición de los que ya existen, respondiendo a las preocupaciones sobre la fiabilidad de la información producida por estas herramientas.

IA en Wikipedia: prohibida por respeto a la información

Desde Wikipedia aseguran que el uso de este tipo de tecnologías a menudo viola sus principios fundamentales, especialmente aquellos relacionados con la verificación, la neutralidad y la citación de fuentes. La versión en inglés de la enciclopedia, que supera los 7 ‘1 millones de artículos, será una de las principales afectadas por esta normativa.

La decisión llega tras un intenso debate dentro de la comunidad de editores voluntarios, donde el uso de la inteligencia artificial ha generado diversidad de posiciones encontradas. La votación interna respaldó la prohibición, consolidando una línea más restrictiva de la plataforma frente a la adopción de estas herramientas.

Traducción y corrección de textos: las excepciones

Sin embargo, la nueva política contempla dos excepciones. Por un lado, se permite el uso de IA para realizar pequeñas correcciones de estilo en textos propios, siempre que no se introduzca contenido nuevo. También se admite su utilización para traducciones, aunque bajo condiciones estrictas de revisión.

«Se permite a los editores usar LLM para sugerir correcciones básicas en sus propios escritos, e incorporar algunas de ellas tras una revisión humana, siempre que el LLM no introduzca contenido propio», señala la nueva política. «Se requiere precaución, porque los LLM pueden ir más allá de lo que se les pide y cambiar el significado del texto de forma que no esté respaldado por las fuentes citadas».

En el caso de las traducciones, Wikipedia exige que los editores dominen tanto el idioma original como el de destino, además de revisar cuidadosamente el resultado antes de incorporarlo a cualquier artículo. Así, se evitan errores o interpretaciones incorrectas que puedan afectar a la calidad de la información.

Wikipedia vs. IA

Este endurecimiento de las normas se produce en un contexto de creciente popularidad de la inteligencia artificial. Su uso para obtener información básica se ha extendido notablemente, hasta el punto de que ChatGPT habría superado a Wikipedia en número de visitas mensuales en 2025. Además, estas tecnologías ya están integradas en motores de búsqueda y herramientas de redacción de correos electrónicos.

Sin embargo, desde Wikipedia consideran que los sistemas de IA siguen presentando grandes limitaciones, como la generación de respuestas incorrectas o «alucinada»”. Esta problemática ha sido señalada por el fundador de la plataforma, Jimmy Wales, quien califica de «desastre» la situación.

Wales declaraba que, aunque la inteligencia artificial podría ser útil en determinadas tareas, no se contempla su uso para redactar artículos a corto plazo: «No diría absolutamente nunca, pero al menos no a corto plazo. Los modelos más recientes aún están, desde el punto de vista de un wikipedista, ni de lejos lo suficientemente bien». 

Con esta decisión, Wikipedia refuerza su compromiso con la calidad editorial y marca distancia frente al uso generalizado de la inteligencia artificial en la generación de contenidos, apostando por mantener el control humano como pilar central de su modelo.



Source link

Artículo anteriorIberia y sindicatos cierran el acuerdo del ERE voluntario para 996 empleados | Economía