AI Cleanup: cómo la comunidad de Wikipedia combate la avalancha de contenido generado por IA

AI Cleanup: cómo la comunidad de Wikipedia combate la avalancha de contenido generado por IA

Cómo la popular enciclopedia en línea se enfrenta a la proliferación de información falsa.

image

Un grupo de editores voluntarios de Wikipedia ha lanzado un nuevo proyecto llamado WikiProject AI Cleanup . Su objetivo es combatir la avalancha de contenido de baja calidad generado por inteligencia artificial. La iniciativa busca identificar y eliminar textos mal escritos o inexactos que puedan perjudicar la calidad general de la información en la plataforma.

Los participantes del proyecto subrayan que no buscan prohibir por completo el uso de IA, sino simplemente evitar la difusión de noticias falsas.

Según los editores, a veces es bastante fácil reconocer un texto escrito por una máquina. Ocurre que autores descuidados ni siquiera revisan el material y se olvidan de eliminar frases estándar como "como modelo de lenguaje de inteligencia artificial, yo..." o "según mi última actualización de conocimientos". Además, los voluntarios han aprendido a identificar ciertos giros lingüísticos y “expresiones favoritas” características de los generadores de IA.

Sin embargo, también surgen dificultades, especialmente cuando se trata de temas complejos. Por ejemplo, los voluntarios descubrieron un artículo detallado sobre la historia de una fortaleza otomana inexistente. El texto contenía más de 2000 palabras, incluyendo detalles sobre su construcción, asedios e incluso restauración después de la Primera Guerra Mundial. Estaba tan bien escrito que solo un especialista en arquitectura del Imperio Otomano del siglo XIII podría haber detectado el engaño.

En algunos casos, los editores se vieron obligados a reducir la confianza en ciertos sitios de noticias debido al abuso de tecnologías de IA. Tal fue el destino del portal CNET, que fue sorprendido anteriormente publicando artículos falsos generados por algoritmos. Ilias Lebleu, uno de los fundadores del proyecto, también mencionó el caso de un artículo sobre una especie poco conocida de escarabajos, en el que se citaba una publicación científica real en francés: "El único problema era que el artículo original trataba sobre un tipo completamente diferente de cangrejo, y no se mencionaban escarabajos en absoluto."

El proyecto también se dedica a identificar imágenes generadas por IA. Por ejemplo, en un artículo sobre la seminaria islámica Darul Uloom Deoband en la India, los voluntarios encontraron una imagen que, a primera vista, parecía una pintura histórica auténtica. Sin embargo, al observarla más detenidamente, se notaron signos característicos de una generación de baja calidad: manos deformadas y un pie con siete dedos.

Combatir la avalancha de contenido de baja calidad es difícil, porque es muy barato producirlo en grandes cantidades. Dado que Wikipedia siempre ha dependido del trabajo de voluntarios, la tarea se vuelve más difícil cada día.

A pesar de las dificultades, la plataforma está lidiando mejor con la filtración que otros grandes servicios de Internet. "Los artículos en Wikipedia tienen un formato más específico que los resultados de Google, y un modelo que no esté familiarizado con él probablemente creará algo que será bastante fácil de detectar", explicó Ilias Lebleu.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable