martes, 3 de abril de 2018

Cómo saber si es fiable un artículo científico.

Hace un tiempo me preguntaron por el CuriousCat (sí, tengo de eso, y lo puedes encontrar aquí) sobre de qué forma podría alguien, sin conocimientos específicos sobre la materia, saber si un estudio es fiable o no. Mi respuesta fue que intentaría hacer un vídeo al respecto, pues es un tema que tiene bastante miga, pero como últimamente no tengo tiempo ni para abrocharme las cordoneras, voy a dejar de retrasar. Así que vamos a la materia.

Cuando estemos discutiendo con alguien por Twitter o cualquier otra red social y nos enlacen algo, lo primero es que tenemos que ver es para qué nos están enlazando el artículo. Hay mucha gente que enlaza cosas que no se ha leído (a mí cierto historiador me enlazó un libro entero que reconoció no haber leído, pero cuyo título coincidía con su afirmación). Esto es importante ya que solo los artículos que describen un análisis de datos experimentales pueden ser considerados como evidencia. El resto (libros, ensayos, etc.) sirven para plantear razonamientos o ideas, pero el hecho de que alguien haya pensado X y lo haya publicado no lo convierte automáticamente en cierto.

Una vez que tenemos un estudio, hay varias cosas a considerar. La más importante es el tipo de artículo. Los hay que analizan un caso concreto (llamados Case Studies/Reports, muy usados en medicina), pequeños grupos (del tamaño que abarque el presupuesto del experimento) y otros que directamente se centran en analizar artículos ya publicados para intentar aglutinar la evidencia ya existente (Revisiones sistemáticas y Meta-análisis). Además de esto, también tenemos las Reviews, que consisten en artículos más teóricos, que normalmente están enfocados a informar a científicos de otras áreas sobre un cierto tema. El nivel de evidencia de los diferentes tipos de artículo son diferentes, siendo mayor cuantos más estudios englobe:


Ahora bien, solo por pertenecer a una de estas categorías no significa que la evidencia sea fiable, como demuestra la incansable labor de la Retraction Watch, una página web que monitorea las retracciones de artículos científicos, ya sea por mala praxis o por errores varios. Entonces, cómo podemos decidir si nos fiamos de un artículo o no?

Pues la verdad es que es complicado. Hace un tiempo leí a un periodista científico (no recuerdo a quién, la verdad) que contaba una anécdota sobre un paper que a él le había parecido la leche, pero cuando fue a comentarlo con sus científicos "de cabecera" en dicho campo se encontró con que a ninguno le pareció más que paja. Y esto se debe a que muchas veces necesitas conocimientos muy específicos sobre el tema para poder juzgar si lo que se afirma es importante, si está bien planteado, etc. Sin embargo, hay una serie de fallos que pueden hacer que cualquiera, sin conocimientos profundos en la materia, pueda rechazar un artículo.

El primer paso es comprobar si el artículo ha sido sometido a revisión por pares (o peer-review). Últimamente es bastante común publicar tus estudios en bioArxiv u otros servidores de preprints antes de pasar por este proceso, y eso no significa que tu artículo no sea fiable, y bastantes veces malos artículos terminan pasando este filtro, pero si el artículo está publicado en su forma final en una revista que no usa peer-review, malo.

El siguiente es leer el abstract. Este es un resumen del propio artículo, y debería de tener una descripción de los objetivos, métodos, resultados y conclusión del estudio. Si el estudio no tiene abstract, podéis olvidaros de él.

Bueno, y ahora que hemos terminado con los aspectos formales, vamos con la chicha: el diseño del estudio. Este debe estar descrito en el abstract, y tiene que tener unas cuantas características.Para empezar, la cantidad de muestras del experimento debe ser lo suficientemente grande. Esto se debe a que el análisis estadístico (imprescindible para poder decidir si nuestros resultados son relevantes o no) asume una serie de condiciones, y para que este sea fiable debe haber una buena representación de la población. Además, las muestras deben estar seleccionadas de forma aleatoria para evitar sesgos, y haber sido seleccionadas de varios orígenes que representen un rango de condiciones dentro de nuestra población y que tengan sentido para el objetivo de nuestro estudio. Por ejemplo, no tendría sentido ninguno escoger solamente a mujeres para un estudio sobre los efectos de una pastilla para el dolor de garganta, pero sí para una contra el cáncer de mama.

Otro requisito indispensable es que se haya utilizado un grupo de control ( o varios, por ejemplo, Control Positivo y Control Negativo). Esto es importantísimo porque es lo que nos va a aportar una base con la que comparar al otro grupo para ver si hay diferencias. Si consideramos un estudio farmacológico, lo ideal sería tener un control negativo con placebos, varios tratamientos ya en uso (si los hay) y el que estamos probando. Esto nos permitiría demostrar si nuestro tratamiento funciona (contra el placebo) y si su efecto difiere del de la competencia. 

Y hablando de experimentos farmacéuticos, no podemos olvidar que algunos estudios requieren de ciertas medidas adicionales sin las cuales podemos descartar automáticamente el paper. En el caso de los estudios con medicamentos, es inaceptable un estudio que no sea doble ciego (que ni el paciente ni quien le administra el medicamento sepan si este está en el grupo experimental o en el de control). Esto se hace porque se ha visto que el efecto placebo es muy potente, y altera los resultados incluso en casos de ciego simple, donde solo el paciente no sabía si estaba tomando medicina o placebo. 

Y a partir de este punto, la lista de posibles errores empieza a diversificarse dependiendo del campo, tipo de experimento, objetivos, etc. Como véis, muchos posibles errores a tener en cuenta cuando haces un experimento y escribes un artículo. Para que luego diga alguno que hacer Ciencia es fácil. 

No hay comentarios:

Publicar un comentario