Uso de inteligencia artificial en los proyectos Wikimedia
Diversos proyectos buscan mejorar Wikipedia y otros proyectos Wikimedia mediante herramientas de inteligencia artificial.
ORES
El servicio de Evaluación Objetiva de Revisiones (ORES, por sus siglas en inglés) es un proyecto de inteligencia artificial para evaluar la calidad de las ediciones en Wikipedia.[4][5] La Fundación Wikimedia presentó el proyecto ORES en noviembre de 2015.[6]
Bots de Wikipedia
El bot más conocido que lucha contra el vandalismo es ClueBot NG. Este bot fue creado por los usuarios de Wikipedia Christopher Breneman y Naomi Amethyst en 2010 (como sucesor del ClueBot original creado en 2007; NG significa "Next Generation", o "Nueva Generación"). ClueBot NG utiliza aprendizaje automático y estadística bayesiana para determinar si una edición constituye vandalismo.[7][8]
Detox
Detox fue un proyecto de Google en colaboración con la Fundación Wikimedia para investigar métodos que podrían abordar el problema de los comentarios poco amables en las discusiones comunitarias de Wikimedia.[9] Como parte del proyecto, la Fundación Wikimedia y Jigsaw colaboraron en la investigación básica y el desarrollo de soluciones técnicas[cita requerida] para abordar el problema. En octubre de 2016, estas organizaciones publicaron Ex Machina: Personal Attacks Seen at Scale, describiendo sus hallazgos.[10][11]
En agosto de 2018, una empresa llamada Primer informó sobre un intento de usar inteligencia artificial para crear artículos de Wikipedia sobre mujeres como una forma de abordar el sesgo de género en Wikipedia.[12][13]
En 2022, el lanzamiento público de ChatGPT inspiró más experimentación con la IA para escribir artículos de Wikipedia. Se generó un debate sobre si estos modelos de lenguaje son adecuados para estos fines, considerando su tendencia a generar información falsa plausible, incluidas referencias ficticias, generar prosa que no es enciclopédica en tono y reproducir sesgos.[18][19] A partir de mayo de 2023, un borrador de política de Wikipedia sobre ChatGPT y modelos similares recomendó que los usuarios no familiarizados con estos modelos eviten utilizarlos debido a los riesgos mencionados, así como al potencial de difamación o infracción de derechos de autor.[19]
Otros medios
Existe un WikiProject dedicado a encontrar y eliminar texto e imágenes generados por inteligencia artificial, llamado WikiProject AI Cleanup.[20]
Uso de los proyectos Wikimedia para la inteligencia artificial
El contenido de los proyectos Wikimedia es útil como conjunto de datos para el avance de la investigación y las aplicaciones de inteligencia artificial. Por ejemplo, en el desarrollo de la API Perspective de Google, que identifica comentarios tóxicos en foros en línea, se utilizó un conjunto de datos con cientos de miles de comentarios de páginas de discusión de Wikipedia etiquetados por humanos con niveles de toxicidad.[22] Subconjuntos del corpus de Wikipedia se consideran entre los conjuntos de datos mejor curados y más grandes disponibles para el entrenamiento de inteligencia artificial.[15][16]
Un artículo de 2012 reportó que más de 1,000 artículos académicos, incluyendo aquellos relacionados con inteligencia artificial, analizan Wikipedia, reutilizan información de Wikipedia, usan extensiones técnicas vinculadas a Wikipedia o investigan la comunicación sobre Wikipedia.[23] Un artículo de 2017 describió a Wikipedia como la madre de todos los recursos de texto generado por humanos disponible para el aprendizaje automático.[24]
Un proyecto de investigación de 2016 llamado One Hundred Year Study on Artificial Intelligence destacó a Wikipedia como un proyecto clave temprano para entender la interacción entre las aplicaciones de inteligencia artificial y la participación humana.[25]
Existe preocupación sobre la falta de atribución a los artículos de Wikipedia en modelos de lenguaje como ChatGPT.[15] Aunque la política de licencias de Wikipedia permite que cualquiera use sus textos, incluso en formas modificadas, establece la condición de que se otorgue crédito, lo que implica que utilizar sus contenidos en respuestas generadas por modelos de IA sin aclarar la fuente podría violar sus términos de uso.[15]
Desafíos éticos y técnicos
El uso de inteligencia artificial en proyectos Wikimedia plantea varios desafíos éticos y técnicos. Entre ellos se encuentran el riesgo de sesgo algorítmico, la posibilidad de introducir información falsa o referencias inexistentes, y la responsabilidad en el uso de datos generados por los usuarios. Un debate en curso dentro de la comunidad Wikimedia discute cómo equilibrar las oportunidades de mejora tecnológica con la necesidad de mantener la integridad del contenido y las prácticas editoriales éticas.[26]
↑Mamadouh, Virginie (2020). «Wikipedia: Mirror, Microcosm, and Motor of Global Linguistic Diversity». Handbook of the Changing World Language Map(en inglés). Springer International Publishing. pp. 3773-3799. ISBN978-3-030-02438-3. «Algunas versiones han crecido dramáticamente utilizando traducción automática a través del trabajo de bots o robots web que generan artículos traduciendo automáticamente de otras Wikipedias, frecuentemente la Wikipedia en inglés. […] En cualquier caso, Wikipedia en inglés es diferente de las otras porque claramente sirve a una audiencia global, mientras que otras versiones sirven a públicos más localizados, incluso si Wikipedias como la portuguesa, española y francesa también atienden a un público distribuido en diferentes continentes».
↑Nielsen, Finn Årup (2012). «Wikipedia Research and Tools: Review and Comments». SSRN Working Paper Series(en inglés). ISSN1556-5068. doi:10.2139/ssrn.2129874.