En seis revistas bien consideradas de hidrología y recursos hídricos publicadas en 2017, el porcentaje estimado de estudios cuyos resultados pudieron reproducirse completamente fue solo entre 0.06 y 6.8 por ciento. Este bajo nivel de reproducibilidad no es infrecuente en estudios de hidrología, un hechomuchos científicos reconocen fácilmente, sin embargo, un equipo de investigadores de la Universidad Estatal de Utah puede haber encontrado una solución para hacer que estos estudios sean más reproducibles.
En su artículo, "Evaluación de la disponibilidad de datos y la reproducibilidad de la investigación en hidrología y recursos hídricos", publicado el 26 de febrero en Nature's Scientific Data, los coautores de David Rosenberg desarrollaron una herramienta de encuesta en línea para evaluar la reproducibilidad de la investigación publicada. El equipo revisó360 artículos de seis revistas de recursos hídricos publicados en 2017. De 360 artículos, solo pudieron reproducir completamente los resultados de cuatro artículos.
"Nuestra herramienta de encuesta desglosa el concepto de reproducibilidad científica en componentes específicos de disponibilidad de datos, reproducibilidad de resultados y replicabilidad de hallazgos", dijo Rosenberg, profesor asociado de ingeniería civil y ambiental en la USU ". Luego sugerimos cómo los autores,revistas, financiadores e instituciones pueden usar la herramienta de encuestas para aumentar las bajas tasas de reproducibilidad ".
Los autores dicen que la reproducibilidad se puede dividir en tres componentes :
La herramienta de encuesta en línea del equipo consta de 15 preguntas y proporciona una lista de verificación de los elementos esenciales necesarios para la disponibilidad de artefactos y la reproducibilidad de resultados. Artefactos es un término general para todos los datos, software, modelos, códigos, instrucciones y otros materiales necesarios para reproducir resultadosdentro de un estudio.
El equipo descubrió que alrededor del 70 por ciento de los artículos de la muestra declararon que algunos materiales estaban disponibles, pero solo se podía acceder en línea a alrededor del 48 por ciento de los materiales. Solo alrededor del seis por ciento de los artículos de la muestra pusieron a disposición del público los artefactos, y solo el uno por ciento de la muestralos artículos pusieron a disposición artefactos y pudieron reproducirse completamente
Los autores dijeron que a muchos artículos les faltaban instrucciones para generar resultados. Si los autores brindan instrucciones, dicen, el número de artículos que podrían ser probados para la reproducibilidad se duplicaría. Los artículos que pusieron a disposición todos los artefactos tenían una probabilidad de seis en 10 de tener algunoso todos sus resultados reproducidos. Dos revistas encuestadas por el equipo requirieron artículos para indicar cómo se puede acceder a los artefactos, y cuatro revistas alentaron declaraciones. Ninguna de las revistas exigió a los autores que pusieran todos los artefactos a disposición.
La herramienta de encuesta puede ayudar a reconocer y alentar a los autores a alcanzar ciertos niveles de reproducibilidad. Por ejemplo, los autores pueden usar la herramienta de encuesta para autoevaluar la reproducibilidad de sus resultados. Rosenberg y su equipo también recomiendan un sistema de medallas para reconocer diferentes niveles dereproducibilidad :
Rosenberg recomienda que se publiquen íconos de medallas junto a los artículos en línea para reconocer a los autores por su trabajo de reproducibilidad y facilitar a los lectores encontrar las mejores prácticas de reproducibilidad. Rosenberg y su equipo asignaron cuatro medallas de plata y seis medallas de bronce de los 360 artículos que publicaronrevisado. La concesión de medallas de oro por la replicabilidad de los hallazgos sigue siendo una línea importante de trabajo futuro.
"Esperamos que la herramienta de encuesta ayude a los autores, revistas, patrocinadores e instituciones a hacer que el trabajo científico sea más reproducible", dijo Rosenberg. "Damos la bienvenida a la discusión para mejorar la herramienta de encuesta y mejorar la reproducibilidad de nuestra ciencia".
Fuente de la historia :
Materiales proporcionado por Universidad Estatal de Utah . Original escrito por Lexie Richins. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :