Inteligencia artificial en los proyectos de Wikimedia

aplicación de investigación y herramientas de inteligencia artificial a proyectos de Wikimedia

La inteligencia artificial en Wikipedia y otros proyectos de Wikimedia se utiliza con el objetivo de desarrollar dichos proyectos.[1][2]​ La interacción entre humanos y bots en los proyectos Wikimedia es algo habitual e iterativo.[3]

Uso de inteligencia artificial en los proyectos Wikimedia

editar

Diversos proyectos buscan mejorar Wikipedia y otros proyectos Wikimedia mediante herramientas de inteligencia artificial.

El servicio de Evaluación Objetiva de Revisiones (ORES, por sus siglas en inglés) es un proyecto de inteligencia artificial para evaluar la calidad de las ediciones en Wikipedia.[4][5]​ La Fundación Wikimedia presentó el proyecto ORES en noviembre de 2015.[6]

Bots de Wikipedia

editar

El bot más conocido que lucha contra el vandalismo es ClueBot NG. Este bot fue creado por los usuarios de Wikipedia Christopher Breneman y Naomi Amethyst en 2010 (como sucesor del ClueBot original creado en 2007; NG significa "Next Generation", o "Nueva Generación"). ClueBot NG utiliza aprendizaje automático y estadística bayesiana para determinar si una edición constituye vandalismo.[7][8]

Detox fue un proyecto de Google en colaboración con la Fundación Wikimedia para investigar métodos que podrían abordar el problema de los comentarios poco amables en las discusiones comunitarias de Wikimedia.[9]​ Como parte del proyecto, la Fundación Wikimedia y Jigsaw colaboraron en la investigación básica y el desarrollo de soluciones técnicas[cita requerida] para abordar el problema. En octubre de 2016, estas organizaciones publicaron Ex Machina: Personal Attacks Seen at Scale, describiendo sus hallazgos.[10][11]

Imparcialidad y sesgo

editar

En agosto de 2018, una empresa llamada Primer informó sobre un intento de usar inteligencia artificial para crear artículos de Wikipedia sobre mujeres como una forma de abordar el sesgo de género en Wikipedia.[12][13]

 
Ciertos softwares de traducción automática, como DeepL, son utilizados en Wikipedia para la traducción de artículos.[14][15][16][17]

Modelos generativos

editar
Los artículos de Wikipedia pueden ser leídos usando tecnología de voz con IA.

En 2022, el lanzamiento público de ChatGPT inspiró más experimentación con la IA para escribir artículos de Wikipedia. Se generó un debate sobre si estos modelos de lenguaje son adecuados para estos fines, considerando su tendencia a generar información falsa plausible, incluidas referencias ficticias, generar prosa que no es enciclopédica en tono y reproducir sesgos.[18][19]​ A partir de mayo de 2023, un borrador de política de Wikipedia sobre ChatGPT y modelos similares recomendó que los usuarios no familiarizados con estos modelos eviten utilizarlos debido a los riesgos mencionados, así como al potencial de difamación o infracción de derechos de autor.[19]

Otros medios

editar

Existe un WikiProject dedicado a encontrar y eliminar texto e imágenes generados por inteligencia artificial, llamado WikiProject AI Cleanup.[20]

Uso de los proyectos Wikimedia para la inteligencia artificial

editar
 
Los conjuntos de datos de Wikipedia se utilizan ampliamente para entrenar modelos de IA.[21]

El contenido de los proyectos Wikimedia es útil como conjunto de datos para el avance de la investigación y las aplicaciones de inteligencia artificial. Por ejemplo, en el desarrollo de la API Perspective de Google, que identifica comentarios tóxicos en foros en línea, se utilizó un conjunto de datos con cientos de miles de comentarios de páginas de discusión de Wikipedia etiquetados por humanos con niveles de toxicidad.[22]​ Subconjuntos del corpus de Wikipedia se consideran entre los conjuntos de datos mejor curados y más grandes disponibles para el entrenamiento de inteligencia artificial.[15][16]

Un artículo de 2012 reportó que más de 1,000 artículos académicos, incluyendo aquellos relacionados con inteligencia artificial, analizan Wikipedia, reutilizan información de Wikipedia, usan extensiones técnicas vinculadas a Wikipedia o investigan la comunicación sobre Wikipedia.[23]​ Un artículo de 2017 describió a Wikipedia como la madre de todos los recursos de texto generado por humanos disponible para el aprendizaje automático.[24]

Un proyecto de investigación de 2016 llamado One Hundred Year Study on Artificial Intelligence destacó a Wikipedia como un proyecto clave temprano para entender la interacción entre las aplicaciones de inteligencia artificial y la participación humana.[25]

Existe preocupación sobre la falta de atribución a los artículos de Wikipedia en modelos de lenguaje como ChatGPT.[15]​ Aunque la política de licencias de Wikipedia permite que cualquiera use sus textos, incluso en formas modificadas, establece la condición de que se otorgue crédito, lo que implica que utilizar sus contenidos en respuestas generadas por modelos de IA sin aclarar la fuente podría violar sus términos de uso.[15]

Desafíos éticos y técnicos

editar

El uso de inteligencia artificial en proyectos Wikimedia plantea varios desafíos éticos y técnicos. Entre ellos se encuentran el riesgo de sesgo algorítmico, la posibilidad de introducir información falsa o referencias inexistentes, y la responsabilidad en el uso de datos generados por los usuarios. Un debate en curso dentro de la comunidad Wikimedia discute cómo equilibrar las oportunidades de mejora tecnológica con la necesidad de mantener la integridad del contenido y las prácticas editoriales éticas.[26]

Referencias

editar
  1. Marr, Bernard (17 de agosto de 2018). «Las increíbles formas en que Wikipedia utiliza la inteligencia artificial» (en inglés). Forbes. 
  2. Gertner, Jon (18 de julio de 2023). «El momento de la verdad de Wikipedia: ¿Puede la enciclopedia en línea ayudar a los chatbots de IA a obtener datos precisos sin destruirse en el proceso?». The New York Times. Archivado desde el original el 18 de julio de 2023. Consultado el 19 de julio de 2023.  Parámetro desconocido |estado-url= ignorado (ayuda)
  3. «Wikidata: ¿Un nuevo paradigma de colaboración entre humanos y bots?». arXiv:1810.00931  [cs.HC]. 1 de octubre de 2018. 
  4. Simonite, Tom (1 de diciembre de 2015). «Software que puede detectar errores de novatos podría hacer Wikipedia más acogedora» (en inglés). MIT Technology Review. 
  5. Metz, Cade (1 de diciembre de 2015). «Wikipedia usa IA para expandir el número de editores humanos». Wired. Archivado desde el original el 2 de abril de 2024. 
  6. Halfaker, Aaron; Taraborelli, Dario (30 de noviembre de 2015). «El servicio de inteligencia artificial "ORES" ofrece a los wikipedistas una visión de rayos X para detectar malas ediciones». Fundación Wikimedia. 
  7. Nasaw, Daniel (25 de julio de 2012). «Conoce a los 'bots' que editan Wikipedia». BBC News. Archivado desde el original el 16 de septiembre de 2018. Consultado el 21 de julio de 2018.  Parámetro desconocido |urlestado= ignorado (ayuda)
  8. Raja, Sumit. «Un poco sobre el bot que gestiona Wikipedia, ClueBot NG». digitfreak.com. Archivado desde el original el 22 de noviembre de 2013. Consultado el 11 de abril de 2017.  Parámetro desconocido |urlestado= ignorado (ayuda)
  9. Research:Detox - Meta (en inglés). 
  10. Wulczyn, Ellery; Thain, Nithum; Dixon, Lucas (2017). «Ex Machina: Personal Attacks Seen at Scale». Proceedings of the 26th International Conference on World Wide Web. pp. 1391-1399. ISBN 9781450349130. S2CID 6060248. arXiv:1610.08914. doi:10.1145/3038912.3052591. 
  11. Jigsaw (7 de febrero de 2017). «Algoritmos e insultos: Ampliando nuestra comprensión del acoso en Wikipedia». Medium. 
  12. Simonite, Tom (3 de agosto de 2018). «Using Artificial Intelligence to Fix Wikipedia's Gender Problem». Wired. 
  13. Verger, Rob (7 de agosto de 2018). «Artificial intelligence can now help write Wikipedia pages for overlooked scientists». Popular Science (en inglés). 
  14. Costa-jussà, Marta R.; Cross, James; Çelebi, Onur; Elbayad, Maha; Heafield, Kenneth; Heffernan, Kevin; Kalbassi, Elahe; Lam, Janice; Licht, Daniel; Maillard, Jean; Sun, Anna; Wang, Skyler; Wenzek, Guillaume; Youngblood, Al; Akula, Bapi; Barrault, Loic; Gonzalez, Gabriel Mejia; Hansanti, Prangthip; Hoffman, John; Jarrett, Semarley; Sadagopan, Kaushik Ram; Rowe, Dirk; Spruit, Shannon; Tran, Chau; Andrews, Pierre; Ayan, Necip Fazil; Bhosale, Shruti; Edunov, Sergey; Fan, Angela; Gao, Cynthia; Goswami, Vedanuj; Guzmán, Francisco; Koehn, Philipp; Mourachko, Alexandre; Ropers, Christophe; Saleem, Safiyyah; Schwenk, Holger; Wang, Jeff (junio de 2024). «Scaling neural machine translation to 200 languages». Nature (en inglés) 630 (8018): 841-846. ISSN 1476-4687. doi:10.1038/s41586-024-07335-x. 
  15. a b c d «El momento de la verdad de Wikipedia». New York Times. Consultado el 29 de noviembre de 2024. 
  16. a b «Considerations for Multilingual Wikipedia Research». 
  17. Mamadouh, Virginie (2020). «Wikipedia: Mirror, Microcosm, and Motor of Global Linguistic Diversity». Handbook of the Changing World Language Map (en inglés). Springer International Publishing. pp. 3773-3799. ISBN 978-3-030-02438-3. «Algunas versiones han crecido dramáticamente utilizando traducción automática a través del trabajo de bots o robots web que generan artículos traduciendo automáticamente de otras Wikipedias, frecuentemente la Wikipedia en inglés. […] En cualquier caso, Wikipedia en inglés es diferente de las otras porque claramente sirve a una audiencia global, mientras que otras versiones sirven a públicos más localizados, incluso si Wikipedias como la portuguesa, española y francesa también atienden a un público distribuido en diferentes continentes». 
  18. Harrison, Stephen (12 de enero de 2023). «Should ChatGPT Be Used to Write Wikipedia Articles?». Slate Magazine (en inglés). Consultado el 13 de enero de 2023. 
  19. a b Woodcock, Claire (2 de mayo de 2023). «AI Is Tearing Wikipedia Apart». Vice (en inglés). 
  20. Maiberg, Emanuel (9 de octubre de 2024). «The Editors Protecting Wikipedia from AI Hoaxes». 404 Media. Consultado el 9 de octubre de 2024. 
  21. «Will we run out of data? Limits of LLM scaling based on human-generated data». Consultado el 29 de noviembre de 2024. 
  22. «El sistema de clasificación de comentarios de Google será popular entre la extrema derecha». Engadget. 1 de septiembre de 2017. 
  23. Nielsen, Finn Årup (2012). «Wikipedia Research and Tools: Review and Comments». SSRN Working Paper Series (en inglés). ISSN 1556-5068. doi:10.2139/ssrn.2129874. 
  24. Mehdi, Mohamad; Okoli, Chitu; Mesgari, Mostafa; Nielsen, Finn Årup; Lanamäki, Arto (marzo de 2017). «Excavating the mother lode of human-generated text: A systematic review of research that uses the wikipedia corpus». Information Processing & Management 53 (2): 505-529. S2CID 217265814. doi:10.1016/j.ipm.2016.07.003. 
  25. «AI Research Trends - One Hundred Year Study on Artificial Intelligence (AI100)». ai100.stanford.edu (en inglés). 
  26. «AI and Ethics in Wikimedia». 2023. Consultado el 2024.