Altmetrics

métricas de impacto alternativas

Altmetrics se utiliza para designar a las nuevas métricas que se proponen como alternativas al factor de impacto, usado para las revistas científicas, y a los índices de citas de persona, como el índice h. Este término se propuso en 2010,[2][3]​ como una generalización de las métricas usadas a nivel de artículo,[4]​ y tiene sus raíces en la etiqueta de Twitter #altmetrics. Aunque a menudo las altmetrics se consideran como métricas sobre artículos, pueden utilizarse para personas, revistas, libros, conjuntos de datos, presentaciones, videos, repositorios de código fuente, páginas web, etc.[5]​ Las altmetrics no solo cubren el número de citas, ya que también pueden usarse para otros aspectos del impacto de un trabajo, como cuántos datos o bases de conocimiento se refieren a él, visualizaciones del artículo, descargas, o menciones en medios sociales o en prensa.[6][7]

Métricas de citas
Lista de métricas
El logotipo original del manifiesto Altmetrics.[1]

Adopción

editar

Diferentes sitios web y proyectos calculan altmetrics, incluyendo ImpactStory,[8][9]Altmetric.com,[8][10]Plum Analytics,[8][11][12]​ y CitedIn.[13]​ Diversos editores han comenzado a ofrecer esta información a los lectores, como por ejemplo BioMed Central, Public Library of Science,[14]Frontieres,[15]Nature Publishing Group,[16]​ y Elsevier. Elsevier anunció en una nota de prensa que "progresivamente atendería a métricas adicionales, incluyendo las llamadas Altmetrics, como medida de la influencia de revistas y de autores".[17]​ Desde marzo de 2009, Public Library of Science también ha introducido métricas a nivel de artículo para todos ellos.[14]​ Los agentes financiadores también han comenzado a mostrar interés en las métricas alternativas,[18]​ incluyendo al UK Medical Research Council.[19]​ Las Altmetrics han sido utilizadas en solicitudes y revisiones de promoción por investigadores.[20]​ Además, varias universidades, incluyendo la University of Pittsburgh están experimentando con altmetrics a nivel de institución.[20]

Sin embargo, se ha observado que un artículo necesita poca atención para subir hasta el primer cuartil del ranking de artículos,[21]​ lo que sugiere que todavía no hay disponibles suficientes fuentes de altmetrics para obtener una visión equilibrada del impacto de la mayoría de los artículos.

Resulta fundamental para determinar el impacto relativo de un artículo que el servicio que se trate para calcular las estadísticas de altmetrics utilice una base de conocimiento de considerable tamaño. La tabla siguiente muestra el número de artículos cubiertos por dos de estos servicios:

Servicio Número de artículos
Altmetric.com 2.007.115[22]
ImpactStory 364.000[23]

Origen

editar

Los orígenes de los almetrics están ligados a los principios de la webmetría. Esto es considerado como el análisis cuantitativo de la estructura y uso de los recursos de información y tecnologías en la web con el apoyo de métodos bibliométricos y informétricos. En sus inicios, se presumió de los almetrics como una cienciometría 2.0, aunque actualmente es considerado como parte coadyuvante de los demás métodos cuantitativos que estudian las actividades científicas, incluyendo aquí la cienciometría, la bibliometría y la cibermetría, todas ellas parte de un campo mayor llamado informetría.

El surgimiento de estas herramientas como respuesta complementaria a las métricas establecidas para medir la producción científica, va directamente ligado a la insuficiencia de las métricas convencionales actuales para aprovechar los beneficios de la web social y sus amplias posibilidades de mejorar la comunicación científica de manera instantánea, libre y con una mayor audiencia. Un factor de la creación de estos nuevos tipos de métricas alternativas se da por la lentitud y recortes de información que ofrecen estas métricas traidicionales, como son la revisión por pares o el índice de citas de un artículo[3]​.[24]

Ventajas

editar

Con las herramientas de las web social, la visibilidad de la producción científica se ha incrementado, y no solo hacia la comunidad científica, sino también al público en general. Además, el análisis del número de veces que un artículo ha sido mencionado en las redes es mucho más rápido que el número de citas que manejan los índices tradicionales. Otras ventajas, se pueden resumir de la siguiente manera:

  • Una comprensión mejor matizada del impacto que genera la lectura de un artículo, pues es posible saber si se leyó, si se discutió en algún grupo o blog, si se guardó o si también fue recomendado.
  • Abren una ventana al impacto de los productos académicos basados en la web, como son las bases de datos, el software, los blogs y los videos[25]​.[24]

Categorías

editar

Los altmetrics son un amplio grupo de indicadores que abordan diferentes aspectos del impacto que un artículo o un trabajo pueden tener. En septiembre de 2012[26]​ ImpacStory propuso una clasificación de los indicadores de altmetrics, muy similar a la utilizada por la Public Library of Science (PLOS):[27]

  • Visualizaciones - Visualizaciones HTML y descargas de PDF.
  • Comentarios - Comentarios en revistas, blogs científicos, Wikipedia, Twitter, Facebook y otros medios de comunicación social.
  • Marcadores - Mendeley, CiteUlike y otros marcadores sociales.
  • Citas - Citas en la literatura académica, identificados por Web of Science, Scopus, CrossRef y otros similares.
  • Recomendaciones - por ejemplo utilizado por F1000Prime.[28]

Visualizaciones

editar

Uno de los primeros indicadores alternativos que se va a utilizar es el número de visualizaciones o de consultas de un documento. Tradicionalmente, un autor quiere publicar en una revista que tenga una tasa de suscripción alta, porque de esta forma más público puede tener acceso a su investigación. Con la introducción de las tecnologías web va a ser posible saber con cuánta frecuencia es visualizado un documento dado en realidad. En general, los editores contabilizan el número de visualizaciones de los documentos HTML y de las descargas de documentos PDF. Desde 2004 BMJ (antiguo British Medical Journal) ya publicaba el número de visualizaciones de sus artículos, en el cual se mostraba una cierta correlación con el número de citas que recibían.[29]

Comentarios

editar

El comentario o discusión de un artículo puede ser visto como una métrica que muestra el impacto potencial del artículo en cuestión. Las fuentes típicas de los datos para el cálculo de este indicador incluyen Facebook, Google+, Twitter, blogs científicos y páginas de Wikipedia . Se ha estudiado la correlación entre las menciones y el “me gusta” y las citas en la literatura científica primaria, y parece que existe una ligera correlación, por ejemplo, en artículos de PubMed.[30]​ En 2008, el Journal of Medical Internet Research empieza a publicar las consultas y los tuits sobre los artículos. Estas " tweetations " van a resultar ser un buen indicador de los artículos más citados. Esto permite proponer al autor un factor “Twimpact ", que correspondería al número de tweets que recibe un artículo en los primeros siete días desde su fecha de publicación, y un "Twindex", que sería el rango de percentil de Twimpact del artículo en cuestión.[31]

Además de Twitter y de otras redes sociales, los blogs han demostrado ser una poderosa plataforma pera comentar la literatura científica. Existen diversas plataformas para seguir el rastro de los artículos que se comentan en los blogs. Almetric.com utiliza esta información para calcular las métricas, mientras que otras herramientas, como ResearchBlogging y Chemical blogspace, solo informan de dónde se produce el comentario o discusión. Por otra parte, estas plataformas pueden incluso ofrecer un ranking de artículos y recomendaciones de los mismos, como hace Faculty of 1000.

Marcadores

editar

También puede ser informativo el número de personas que guardan un marcador de un documento dado. La idea subyacente a esta métrica es que una persona no guardaría en sus marcadores un artículo que no fuese de importancia para su propio trabajo. Los proveedores de este tipo de información incluyen servicios de marcadores específicamente orientados a las publicaciones científicas como CiteULike y Mendeley .

Además de los indicadores tradicionales basados en las citas que se utilizan en la literatura científica, como por ejemplo los ofrecidos por Web of Science, Scopus, Google Scholar, CrossRef y PubMed Central, los altmetrics también utilizan las citas que se obtienen de fuentes secundarias, y de otras fuentes de información. Por ejemplo, ImpactStory contabiliza el número de veces que un artículo ha sido citado en Wikipedia.[32]

Interpretación

editar

Mientras el concepto de almetrics está en discusión,[33]​ también se cuestiona la interpretación de las métricas de altmetrics en particular. Los defensores de los altmetrics dejan claro que muchos de los indicadores muestran más la influencia o el compromiso sobre un tema, que el impacto real en el progreso de la ciencia.[27]​ Es necesario señalar que incluso las métricas basadas en citas no aseguran que una puntuación alta indique un impacto positivo en la ciencia; es decir, que los documentos pueden ser citados en artículos que no estén de acuerdo o que rebatan el artículo citado. Este es un tema tratado, por ejemplo, por el proyecto Citation Typing Ontology Archivado el 10 de febrero de 2015 en Wayback Machine..[34]

Controversia

editar

Resulta controvertida la utilidad de las métricas para estimar el impacto,[35][36]​ pero existe una clara necesidad en la comunidad científica: las entidades financiadoras exigen indicadores cuantitativos y mensurables sobre el impacto de los fondos provistos. Al igual que el resto de indicadores, los altmetrics son sensibles a la auto-cita, a los juegos de azar y a otros mecanismos para aumentar el impacto aparente de un tema o un autor.[37]​ También se ha argumentado que los indicadores adoptados en la actualidad son aquellos que muestran un impacto positivo, mientras que los indicadores negativos también tendrían que ver reconocida su importancia.[38]

Sin embargo, ha de tenerse en cuenta que las métricas no son más que el resultado del seguimiento de cómo se utilizan los resultados de investigación. Realmente, es más significativo saber cuáles son los documentos que citan a otro, que conocer la frecuencia con la que se cita un documento. Esta información permite a los investigadores saber cómo su investigación influye, o no lo hace, en su campo de estudio. También hay que considerar que la puntuación obtenida en cada campo no informa directamente de la calidad o del impacto del documento. Por ejemplo, un artículo muy discutido puede ser simplemente muy controvertido: los artículos que se comentan en el Retraction Watch generalmente obtienen altos indicadores en altmetrics, a pesar de que estén siendo retirados de la literatura científica.

Otra fuente de objeciones contra los altmetrics, y contra otras métricas, es de qué forma las universidades están usando estas métricas para generar rankings de sus profesores e investigadores.[39]

Los proveedores de métricas también ofrecen acceso a la información de cómo se calculan los indicadores. Web of Science indica cuáles son los documentos que citan a otro, ImpactStory señala qué páginas de Wikipedia hacen referencia al documento, y CitedIn recoge qué bases de datos indizan el documento.[40]

Los almetrics pueden ser manipulados: por ejemplo, los “me gusta” y las menciones se pueden comprar.[37]​ Los altmetrics pueden resultar más difíciles de normalizar que las citas. Un ejemplo de ello es el número de tuits y enlaces a un artículo, que puede variar ampliamente dependiendo de cómo se recopilen los tuits.[41]

Los altmetrics de los artículos más recientes pueden ser más altos a causa del aumento de la captación de interés a través del web social, y por el hecho de que los artículos se mencionan principalmente cuando se produce la novedad de su publicación.[42]​ Como resultado de ello, no parece justo comparar las puntuaciones "altmétricas" de los artículos a no ser que haya sido publicados en el mismo año y en momentos similares del mismo, debido al rápido crecimiento de los sitios de web social.

Una investigación reciente muestra que Altmetrics reproduce sesgos de género encontrados en las prácticas de publicación y citación: por ejemplo, los artículos académicos escritos exclusivamente por mujeres obtienen una puntuación un 27% inferior de media que los artículos escritos exclusivamente por hombres. Al mismo tiempo, las puntuaciones de 0 pertenecen predominantemente a publicaciones de hombres.[43]

Investigación en curso

editar

Los casos y las características específicas de uso son un campo de investigación activo en bibliometría. buscando proporcionar los datos necesarios para medir adecuadamente el impacto de los altmetrics por sí mismos. La Public Library of Science tiene una Altmetrics Collection[44]​ e Information Standards Quarterly ha publicado recientemente un número especial sobre los altmetrics.[45]

Véase también

editar

Referencias

editar
  1. Priem, Jason; Taraborelli, Dario; Groth, Paul; Neylon, Cameron (28 de septiembre de 2011). «Altmetrics: A manifesto (v 1.01)». Altmetrics. 
  2. J. Priem (@jasonpriem), I like the term #articlelevelmetrics, but it fails to imply *diversity* of measures. Lately, I'm liking #altmetrics., 4:28 AM - 29 Sep 10, Tweet
  3. a b J. Priem, D. Taraborelli, P. Groth, C. Neylon, Altmetrics: a manifesto, 2010, http://altmetrics.org/manifesto/
  4. Peter Binfield Article-Level Metrics at PLoS - what are they, and why should you care en YouTube., 2009
  5. E. Adie (@stew), @McDawg altmetrics could cover person, uni or journal level stats, non-trad contributions & items. ALMs a subset, fixes article as focus, 5:45 PM - 10 Aug 13, Tweet
  6. McFedries, P. (2012). «Measuring the impact of altmetrics [Technically Speaking]». IEEE Spectrum. 49 = 8: 28. doi:10.1109/MSPEC.2012.6247557. 
  7. Galligan, F.; Dyas-Correia, S. (2013). «Altmetrics: Rethinking the Way We Measure». Serials Review 39: 56-61 = 56. doi:10.1016/j.serrev.2013.01.003. 
  8. a b c Liu, J.; Adie, E. (2013). «New perspectives on article-level metrics: developing ways to assess research uptake and impact online». Insights. 26 = 2: 153. doi:10.1629/2048-7754.79. 
  9. "FAQ". ImpactStory. Retrieved 13 August 2013
  10. Liu, Jean; Euan Adie (8 July 2013). "New perspectives on article-level metrics: developing ways to assess research uptake and impact online". Insights 26 (2): 153. doi:10.1629/2048-7754.79. Retrieved 13 August 2013
  11. "About Us". Plum Analytics. Retrieved 19 August 2013.
  12. "Plum Analytics Metrics Overview". Plum Analytics. Retrieved 19 August 2013.
  13. "Included resources". CitedIn. Retrieved 16 August 2013
  14. a b "Article-Level Metrics Information". PLoS ONE. 2005-07-01. Retrieved 2012-05-29.
  15. «Copia archivada». Archivado desde el original el 8 de julio de 2014. Consultado el 5 de julio de 2014. 
  16. Press release: Article level metrics on nature.com, 2012,http://www.nature.com/press_releases/article-metrics.html
  17. Press release: Elsevier Announces 2012 Journal Impact Factor Highlights, 2012, http://www.marketwatch.com/story/elsevier-announces-2012-journal-impact-factor-highlights-2013-07-15 Archivado el 16 de junio de 2018 en Wayback Machine.
  18. Piwowar, H. (2013). «Altmetrics: Value all research products». Nature. 493 = 159. doi:10.1038/493159a. 
  19. Viney, I. (2013). «Altmetrics: Research council responds = 7436». Nature 494: 176. doi:10.1038/494176c. 
  20. a b Kwok, R. (2013). «Research impact: Altmetrics make their mark». Nature. 500 = 7463: 491-3. doi:10.1038/nj7463-491a. 
  21. J. Kelly, Altmetric rankings, 22 August 2013,http://infiniflux.blogspot.ca/2013/08/altmetric-rankings.html
  22. Determined on 31 March 2014 using the altmetrics record for a specific paper.
  23. ImpactStory (@ImpactStory). "@egonwillighagen Sorry, we've got no automated reporting tool for the db size yet. But I just checked and it's just over 364k items." 2013-10-20, 8:10. Tweet.
  24. a b Castro-Ponce, Samuel (25 de junio de 2014). «Conceptos básicos sobre Altmetrics». IFT. Consultado el 16 de noviembre de 2021. 
  25. Piwowar, Heather (2013). «Introduction altmetrics: What, why and where?». Bulletin of the American Society for Information Science and Technology (en inglés) 39 (4): 8-9. ISSN 1550-8366. doi:10.1002/bult.2013.1720390404. Consultado el 16 de noviembre de 2021. 
  26. "A new framework for altmetrics". ImpactStory Blog. 2012-09-14. Retrieved 2013-08-13
  27. a b Lin, J.; Fenner, M. (2013). «Altmetrics in evolution: Defining and redefining the ontology of article-level metrics». Information Standards Quarterly 25: 20-26. doi:10.3789/isqv25no2.2013.04. 
  28. F1000Prime
  29. Perneger, T.V. (2004). «Relation between online “hit counts” and subsequent citations: prospective study of research papers in the BMJ». BMJ. 329 = 7465: 546-7. doi:10.1136/bmj.329.7465.546. 
  30. Stefanie Haustein; Isabella Peters; Sugimoto, Cassidy R.; Mike Thelwall; Vincent Larivière (2013). "Tweeting biomedicine: an analysis of tweets and citations in the biomedical literature". arXiv:1308.1838 cs.DL.
  31. Eysenbach, G. (2012). «Can tweets predict citations? Metrics of social impact based on Twitter and correlation with traditional metrics of scientific impact». Journal of Medical Internet Research 13: e123. doi:10.2196/jmir.2012. 
  32. "FAQ: which metrics are measured?". ImpactStory. Retrieved 13 August 2013.
  33. Jump, Paul (23 August 2012). "Research Intelligence - Alt-metrics: fairer, faster impact data?". Times Higher Education. Retrieved 13 August 2013.
  34. Shotton, D. (2010). «CiTO, the Citation Typing Ontology». Journal of Biomedical Semantics. 1 = Suppl 1: s1-s6. doi:10.1186/2041-1480-1-S1-S6. 
  35. Buschman, M.; Michalek, A. (abril/May de 2013). «Are alternative metrics still alternative?». asist&t Bulletin. Archivado desde el original el 11 de marzo de 2018. Consultado el 25 maig 2014. 
  36. Cheung, M. K. (2013). «Altmetrics: Too soon for use in assessment». Nature. 494 = 7436: 176. doi:10.1038/494176d. 
  37. a b J. Beall, Article-Level Metrics: An Ill-Conceived and Meretricious Idea, 2013, «Copia archivada». Archivado desde el original el 6 de agosto de 2013. Consultado el 10 de agosto de 2013. 
  38. Holbrook, J. B.; Barr, K. R.; Brown, K.V. (2013). «Research impact: We need negative metrics too». Nature. 497 = 7450: 439. doi:10.1038/497439a. 
  39. David Colquhoun, How should universities be run to get the best out of people?, 2007
  40. Waagmeester, A.; Evelo, C. (17 de junio de 2011). «Measuring impact in online resources with the CI-number (the CitedIn Number for online impact)». Nature Precedings. doi:10.1038/npre.2011.6037.1. 
  41. Chamberlain, S. (2013). «Consuming article-level metrics: Observations and lessons». Information Standards Quarterly. 25 = 2: 4-13. doi:10.3789/isqv25no2.2013.02. 
  42. Thelwall, M.; Haustein, S.; Larivière, V.; Sugimoto, C. R. (2013). «Do Altmetrics work? Twitter and ten other social web services». PLoS ONE. 8 = 5: e64841. doi:10.1371/journal.pone.0064841. 
  43. Meibauer, Gustav; Phull, Kiran; Alejandro, Audrey; Ciflikli, Gokhan (19 de mayo de 2023). «Alternative metrics, traditional problems? Assessing gender dynamics in the altmetrics of political science». European Political Science (en inglés). ISSN 1682-0983. PMC 10198594. doi:10.1057/s41304-023-00431-y. 
  44. Priem, J.; Groth, P.; Taraborelli, D. = 11. «The Altmetrics collection». PLoS ONE 7: e48753. doi:10.1371/journal.pone.0048753. 
  45. «Summer 2013 vol. 25 núm. 2». Information Standards Quarterly. doi:10.3789/isqv25no2.2013. 

Enlaces externos

editar