martes, 18 de septiembre de 2018

El carácter en los genes: cómo la domesticación de los zorros nos habla de nosotros mismos.


Desde hace varias décadas, dos corrientes filosóficas chocan en la discusión sobre qué es lo que nos hace ser como somos. Por un lado, tenemos a los deterministas biológicos, tradicionalmente gente con amplio bagaje en ciencias biológicas, antropología biológica y psicología evolutiva, cuyos estudios suelen sugerir una cierta relación, aunque difícil de precisar, entre la genética y cómo terminaremos siendo (carácter, personalidad, etc.). Por el otro lado, tenemos a los construccionistas, tradicionalmente sociólogos, antropólogos e historiadores, que consideran que lo que somos es una compilación de experiencias moldeadas por la sociedad que te envuelve.

Ambas posturas tienen sus pros y sus contras, y como todo en filosofía, seguramente esté completamente equivocado y la realidad sea algo intermedio o totalmente distinto. Sin embargo, como el estancamiento en un debate es algo que la Ciencia no se puede permitir, seguimos investigando, y hoy traigo un paper muy interesante.

En la década de los 50 del siglo pasado, Dimitri Belyaev, genetista del Instituto de Citología y Genética de la Academia Rusa de las Ciencias, empezó un curioso proyecto de cría de zorros en Novosibirsk, Siberia. Durante más de 60 años, el equipo de Belyaev, traspasado a Lyudmilla Trut tras la muerte de este en 1985, se dedicaron a seleccionar artificialmente a zorros de una granja peletera de acuerdo a su comportamiento. Del grupo original se seleccionaron solamente a los más tranquilos, y en posteriores generaciones se empezó a seleccionar a los que menos desconfiaban de los humanos. A partir de mediados de los 60 se empezó otro grupo de control negativo, en que los seleccionados eran los zorros agresivos. Después de solo medio siglo, los zorros de Belyaev socializan perfectamente, pese a ser todavía muy enérgicos y no tan cariñosos como un perro, y se venden como mascotas por la astronómica cifra de 9000€.


Esta información sorprenderá a muy poca gente, ya que estos zorros son una sensación en internet, y a todos nos gustaría tener uno, pero resulta que hace poco salió un estudio genético sobre ellos, y eso sí es una sorpresa. Todos los procesos de domesticación se llevaron a cabo hace cientos o miles de años, por lo que poder comparar la genética de grupos seleccionados activamente de una población salvaje es algo muy extraño.



Una parte muy interesante de este estudio es que, como los zorros solo se han seleccionado teniendo en cuenta su comportamiento, en principio los cambios genéticos entre los diferentes grupos deberían estar asociados a dicha selección, y por lo tanto, a dicho comportamiento.

Y los resultados son bastante extraños. Lo primero que vemos es que, pese a que la selección se realizó solo para el comportamiento, ha habido cambios fisiológicos, morfológicos y reproductivos en los distintos grupos, lo que sugiere que los genes para los que estamos seleccionando hacen mucho más que modificar el comportamiento. Para ahondar en esta idea, resulta que el grupo de zorros domesticados tienen sobrerrepresentados genes para la estabilidad del ADN, o que los agresivos presentan una mayor expresión de interleucinas, lo que corroboraría estudios anteriores en que las ratas más agresivas tendrían una mejor respuesta inmunitaria que aquellas más tranquilas. Además, estos genes y sus receptores identificados en zorros domesticados también se han encontrado en perros cuando se comparó su genoma al de lobos salvajes. 


Además de esta relación entre el desarrollo del comportamiento y otros factores fisiológicos, como cabría esperar, se ha encontrado una fuerte selección en genes relacionados con el desarrollo y la señalización en el tejido nervioso. El más prometedor de todos es el SorCS1, un gen que regula  el tráfico intracelular de receptores de glutamato AMPA y neurexinas (ambos neurotransmisores), cuyas mutaciones se han asociado en bastantes estudios con desórdenes del comportamiento, como el autismo, problemas de aprendizaje, esquizofrenia, etc. Al comparar los genes de los zorros domesticados con aquellos característicos de desórdenes del espectro autista y el trastorno bipolar, se encontraron 22 coincidencias, muchos de ellos relacionados con la señalización del glutamato, algo que ya se había sugerido como característica de domesticación en perros, gatos y conejos.

Esto no es solo interesante desde un punto de vista genético o evolutivo, aunque es cierto que nos da una perspectiva fantástica de cómo funciona la domesticación, sino que nos ayuda a entender mejor qué efecto tienen los genes en las enfermedades mentales, algo que en humanos es bastante difícil de estudiar.

Todos estos resultados parecen sugerir que los determinista biológicos tienen razón, al menos en parte, y que de verdad hay una base biológica para nuestro comportamiento. Personalmente, creo que el enrocamiento clásico en estas posturas es inútil, y que lo más probable es que la realidad se acerque más a un modelo de "nature+nurture", en que nuestra biología sería el cajón de arena en que nuestras experiencias y nuestro entorno terminarían de dar forma a lo que somos. Un "yo mismo y mis circunstancias", que diría Gasset. Pero qué se yo, que solo soy un biólogo.

miércoles, 6 de junio de 2018

Rastreando la evolución.

Resultado de imagen de tree of life forms

Uno de los principales objetivos de la Biología como campo de estudio es entender cómo funciona el motor de la diversidad en nuestro planeta: la Evolución. Esta es la razón por la que dentro de este campo encontramos a "biólogos evolutivos" (término que siempre me ha parecido redundante), que se especializan en estudiar los mecanismos por los que dicho proceso se rige. Por otro lado tenemos a casi todos los demás, que nos dedicamos en mayor o menor medida a estudiar los resultados de dicha evolución. Sin embargo, un pequeño grupo de biólogos (y geólogos) trabajan en intentar reconstruir los pasos que ha dado esta a lo largo del tiempo y así rastrear la relación entre los seres vivos.

Imagen relacionada

Muchos conocemos el trabajo realizado por los paleontólogos, que ha arrojado luz sobre grandes incógnitas y que siempre han sido una de las bases más sólidas de la Teoría Evolutiva. Sin embargo, con la revolución genómica y el desplome del coste de la secuenciación cada vez tenemos más y más información sobre genes de diferentes especies, lo que nos ofrece por primera vez la posibilidad de estudiar qué cambios se han producido en el lugar donde estos cambios importan, y por tanto podemos establecer relaciones e incluso estimar cómo eran los ancestros comunes de las especies que tenemos hoy en día. Todo esto suena genial, verdad? Pues sí, mola mucho, pero cómo se hace?

El primer paso es secuenciar el genoma, obviamente. Podéis encontrar una descripción excelente de este proceso por Guillermo Peris (@waltzing_piglet) en su blog en Naukas, y como no lo voy a hacer mejor, os dejo con ella. Una vez tenemos una secuencia de consenso a partir de todos los fragmentos secuenciados, debemos alinear estas secuencias. Existen una enorme cantidad de algoritmos para hacer esto, y dependiendo de lo que queramos y de las características de nuestras secuencias unos son mejores que otros, pero la idea básica es que necesitamos que el ordenador empareje nuestras secuencias de ADN de forma que podamos comparar donde ha habido cambios.


Resultado de imagen de dna alignment

Como podemos ver es la imagen superior, este alineamiento incluye también huecos donde el ADN se ha perdido o donde ADN nuevo se ha insertado (deleciones e inserciones, respectivamente, aunque normalmente se las llama directamente indels). Esto obviamente complica bastante el alineamiento, y por tanto la elección del algoritmo que usamos es bastante importante.

Una vez que tenemos el alineamiento realizado, podemos usar bastantes modelos estadísticos para poder estimar la relación genética entre las secuencias. Y posiblemente os preguntaréis por qué, si ya tenemos las secuencias alineadas y por tanto podemos contar las diferencias. Y tenéis razón, podemos. Este modelo, conocido como Máxima Parsimonia, presupone que, para llegar a donde estamos, se han producido el número mínimo de cambios, y por tanto no hacen falta grandes modelos estadísticos.

Resultado de imagen de parsimony

Sin embargo, este modelo suele ser demasiado simplista, pues siempre tenemos la posibilidad de que una mutación suceda en una posición que ya había mutado anteriormente. A más tiempo (y mutaciones), mayor la probabilidad de que esto pase. Por tanto, necesitamos un modelo que considere estas mutaciones "superpuestas".

Dentro de estos modelos encontramos algunos que consideran que todas las mutaciones son igual de probables (Jukes-Cantor), que hay diferentes frecuencias entre transiciones y transversiones (Kimura), o que hay frecuencias diferentes dependiendo de la base (HKY o GTR).




Y si todo esto no fuese suficiente lío, todavía tenemos que ver qué tipo de algoritmos usamos, porque hay un montón. Sin embargo, todos ellos pueden agruparse en tres tipos, dependiendo de en qué métrica se basan:
  • Métodos de Distancia: A partir de nuestro alineamiento y con un modelo seleccionado podemos calcular la distancia (la cantidad de cambios estimada por el modelo) que hay entre las diferentes secuencias para construir lo que se conoce como una Matriz de Distancias. Una vez tenemos dicha matriz, podemos usar uno de los algoritmos de este grupo para construir un árbol filogenético.
  • Máxima Verosimilitud (Maximum Likelihood): Estos métodos se basan en la matriz de verosimilitud, que evalúa el ajuste de cada secuencia a una secuencia modelo, obteniendo así una métrica similar a la distancia. A partir de aquí, el algoritmo elegido (que hay varios) inferirá la distribución de probabilidad de los posibles árboles, eligiendo el (o los) más probable. 
  • Modelos Bayesianos: Si la anterior os parecía complicada, esta lo es todavía más, pues usa una simulación conocida como Markov Chain Monte Carlo sampling simulation para simular una serie de cambios circulares y así estimar la distribución de probabilidad de los árboles filogenéticos. Sin embargo, a diferencia de con los métodos de Máxima Verosimilitud, aquí lo que hacemos es partir de una distribución original (prior, o a priori), que ponderamos con la de nuestros datos para estimar la distribución final (posterior, o a posteriori)
Para terminar de rematar, todos estos métodos son increíblemente costosos a nivel de computación (hablamos de costosos nivel superordenador trabajando durante días o semanas), por lo que a todo este follón estadístico hay que añadir algoritmos que nos permitan buscar posibles árboles sin tener que revisar todas y cada una de las posibilidades, en lo que se conoce como Búsqueda Heurística.

Como ya habréis podido intuir, este es un campo que requiere mucha prueba y error y tiene detrás un follón estadístico importante, pero espero haberos dado una pequeña idea general de qué hay detrás de esos árboles filogenéticos. Por último, me gustaría listar otras aplicaciones bastante interesantes para este tipo de análisis, que suelen pasar bajo el radar de mucha gente:

  • Epidemiología: el análisis filogenético de bacterias y virus es una herramienta clave para saber si los casos de una región están relacionados con otra o si tenemos un nuevo brote. Además, podemos rastrear el origen de dicho brote hasta su reservorio (por ejemplo, con los virus del Ébola hasta los murciélagos de la fruta o el Lassa hasta los roedores del género Mastomys). 
Resultado de imagen de ebola
  • Paleogenética y genética de poblaciones: analizar la relación de las secuencias de ADN de muestras antiguas (hasta de otras especies de homínidos) nos está permitiendo comprender mucho mejor cómo nos hemos ido desarrollando como especie, hasta el punto en que ha dado lugar a un campo nuevo, conocido como Bioarquelogía. Además, esto no solo se aplica a nuestra especie: hay trabajos súper interesantes que se están llevando a cabo en perros, mamuts, leones... 
Resultado de imagen de paleogenetics africa

martes, 3 de abril de 2018

Cómo saber si es fiable un artículo científico.

Hace un tiempo me preguntaron por el CuriousCat (sí, tengo de eso, y lo puedes encontrar aquí) sobre de qué forma podría alguien, sin conocimientos específicos sobre la materia, saber si un estudio es fiable o no. Mi respuesta fue que intentaría hacer un vídeo al respecto, pues es un tema que tiene bastante miga, pero como últimamente no tengo tiempo ni para abrocharme las cordoneras, voy a dejar de retrasar. Así que vamos a la materia.

Cuando estemos discutiendo con alguien por Twitter o cualquier otra red social y nos enlacen algo, lo primero es que tenemos que ver es para qué nos están enlazando el artículo. Hay mucha gente que enlaza cosas que no se ha leído (a mí cierto historiador me enlazó un libro entero que reconoció no haber leído, pero cuyo título coincidía con su afirmación). Esto es importante ya que solo los artículos que describen un análisis de datos experimentales pueden ser considerados como evidencia. El resto (libros, ensayos, etc.) sirven para plantear razonamientos o ideas, pero el hecho de que alguien haya pensado X y lo haya publicado no lo convierte automáticamente en cierto.

Una vez que tenemos un estudio, hay varias cosas a considerar. La más importante es el tipo de artículo. Los hay que analizan un caso concreto (llamados Case Studies/Reports, muy usados en medicina), pequeños grupos (del tamaño que abarque el presupuesto del experimento) y otros que directamente se centran en analizar artículos ya publicados para intentar aglutinar la evidencia ya existente (Revisiones sistemáticas y Meta-análisis). Además de esto, también tenemos las Reviews, que consisten en artículos más teóricos, que normalmente están enfocados a informar a científicos de otras áreas sobre un cierto tema. El nivel de evidencia de los diferentes tipos de artículo son diferentes, siendo mayor cuantos más estudios englobe:


Ahora bien, solo por pertenecer a una de estas categorías no significa que la evidencia sea fiable, como demuestra la incansable labor de la Retraction Watch, una página web que monitorea las retracciones de artículos científicos, ya sea por mala praxis o por errores varios. Entonces, cómo podemos decidir si nos fiamos de un artículo o no?

Pues la verdad es que es complicado. Hace un tiempo leí a un periodista científico (no recuerdo a quién, la verdad) que contaba una anécdota sobre un paper que a él le había parecido la leche, pero cuando fue a comentarlo con sus científicos "de cabecera" en dicho campo se encontró con que a ninguno le pareció más que paja. Y esto se debe a que muchas veces necesitas conocimientos muy específicos sobre el tema para poder juzgar si lo que se afirma es importante, si está bien planteado, etc. Sin embargo, hay una serie de fallos que pueden hacer que cualquiera, sin conocimientos profundos en la materia, pueda rechazar un artículo.

El primer paso es comprobar si el artículo ha sido sometido a revisión por pares (o peer-review). Últimamente es bastante común publicar tus estudios en bioArxiv u otros servidores de preprints antes de pasar por este proceso, y eso no significa que tu artículo no sea fiable, y bastantes veces malos artículos terminan pasando este filtro, pero si el artículo está publicado en su forma final en una revista que no usa peer-review, malo.

El siguiente es leer el abstract. Este es un resumen del propio artículo, y debería de tener una descripción de los objetivos, métodos, resultados y conclusión del estudio. Si el estudio no tiene abstract, podéis olvidaros de él.

Bueno, y ahora que hemos terminado con los aspectos formales, vamos con la chicha: el diseño del estudio. Este debe estar descrito en el abstract, y tiene que tener unas cuantas características.Para empezar, la cantidad de muestras del experimento debe ser lo suficientemente grande. Esto se debe a que el análisis estadístico (imprescindible para poder decidir si nuestros resultados son relevantes o no) asume una serie de condiciones, y para que este sea fiable debe haber una buena representación de la población. Además, las muestras deben estar seleccionadas de forma aleatoria para evitar sesgos, y haber sido seleccionadas de varios orígenes que representen un rango de condiciones dentro de nuestra población y que tengan sentido para el objetivo de nuestro estudio. Por ejemplo, no tendría sentido ninguno escoger solamente a mujeres para un estudio sobre los efectos de una pastilla para el dolor de garganta, pero sí para una contra el cáncer de mama.

Otro requisito indispensable es que se haya utilizado un grupo de control ( o varios, por ejemplo, Control Positivo y Control Negativo). Esto es importantísimo porque es lo que nos va a aportar una base con la que comparar al otro grupo para ver si hay diferencias. Si consideramos un estudio farmacológico, lo ideal sería tener un control negativo con placebos, varios tratamientos ya en uso (si los hay) y el que estamos probando. Esto nos permitiría demostrar si nuestro tratamiento funciona (contra el placebo) y si su efecto difiere del de la competencia. 

Y hablando de experimentos farmacéuticos, no podemos olvidar que algunos estudios requieren de ciertas medidas adicionales sin las cuales podemos descartar automáticamente el paper. En el caso de los estudios con medicamentos, es inaceptable un estudio que no sea doble ciego (que ni el paciente ni quien le administra el medicamento sepan si este está en el grupo experimental o en el de control). Esto se hace porque se ha visto que el efecto placebo es muy potente, y altera los resultados incluso en casos de ciego simple, donde solo el paciente no sabía si estaba tomando medicina o placebo. 

Y a partir de este punto, la lista de posibles errores empieza a diversificarse dependiendo del campo, tipo de experimento, objetivos, etc. Como véis, muchos posibles errores a tener en cuenta cuando haces un experimento y escribes un artículo. Para que luego diga alguno que hacer Ciencia es fácil.