Wikipedia vs la IA: la enciclopedia virtual no quiere artículos escritos con IA

La enciclopedia online decidió prohibir el uso de herramientas de IA generativa para escribir o editar artículos.

30 de marzo, 2026 | 16.49

Wikipedia endurece su postura frente a la inteligencia artificial. La enciclopedia online decidió prohibir el uso de herramientas de IA generativa para escribir o editar artículos, una medida que marca un límite claro al avance de modelos como ChatGPT dentro de su plataforma. La decisión fue impulsada por la propia comunidad de editores, preocupada por el impacto que estas tecnologías pueden tener en la calidad y confiabilidad del contenido.

El cambio ya está en vigencia —principalmente en la versión en inglés— y establece que los textos deben seguir siendo creados por humanos. El principal argumento es que los modelos de lenguaje pueden introducir errores, modificar significados o incluso agregar información no verificada, algo que va en contra de los principios básicos de Wikipedia, como la neutralidad y la verificabilidad.

Qué se puede hacer (y qué no) con IA en Wikipedia

La nueva política no implica un rechazo total a la inteligencia artificial, pero sí limita su uso a tareas muy puntuales. En concreto, los editores podrán utilizar IA solo para traducciones de artículos o para correcciones menores de estilo y redacción. Eso sí, siempre bajo supervisión humana estricta y sin permitir que la herramienta agregue contenido nuevo.

Este punto es clave: incluso en tareas simples, Wikipedia advierte que los sistemas pueden “ir más allá” de lo solicitado y alterar el sentido original del texto. Por eso, cualquier sugerencia generada por IA debe ser revisada manualmente antes de publicarse.

Los editores podrán utilizar IA solo para traducciones de artículos o para correcciones menores de estilo y redacción.

El trasfondo: errores, sesgos y “alucinaciones”

La decisión no surge de la nada. En los últimos años, el crecimiento de la IA generativa abrió un fuerte debate dentro de la comunidad. Mientras algunos ven estas herramientas como una ayuda, otros alertan sobre sus limitaciones: desde errores factuales hasta las conocidas “alucinaciones”, donde la IA inventa información plausible pero incorrecta.

Además, el uso masivo de estos sistemas podría dificultar el control editorial y poner en riesgo la calidad del contenido, uno de los pilares que convirtió a Wikipedia en una de las fuentes más consultadas de Internet.

Con esta medida, la plataforma busca posicionarse como un espacio donde el conocimiento siga siendo producido y validado por personas, en un contexto donde la inteligencia artificial gana cada vez más terreno en la creación de contenidos digitales.