lunes, 17 de noviembre de 2014

Indices de producción a todos los niveles y para todos los gustos (Redalyc 2.0, Nature Index, Scopus, Scielo Index) para países e instituciones

En una necesidad de medición y de cuantificación de resultados de múltiples aspectos, generando índices de bibliometría y/o cienciometría han aparecido toda clase de mediciones que han soprepasado los artículos, investigadores y desde hace años se han trasladado a las instituciones y países, generando múltiples mediciones, impactos, y en los casos más avanzados, se han dado resultados de excelencia, liderazgo, entre otras conceptualizaciones más elaboradas (Bornmann et al., 2012).

Imagen 1. Visión de algunos de los índices de producción y citación.
Esta amplia gama de opciones tiene la ventaja de poder cuantificar aspectos antes no tenidos en cuenta y que, por demás, no son tan sensibles a la intención de "torcer" los índices e indicadores. Una de las acusaciones que normalmente reciben las revistas, editores y autores, es la ingeniería constante por influir de forma intencional los indicadores de producción, citación o impacto (un ejemplo de estas críticas aquí). Pero más allá de tener la certeza de poder haber influido o no en estos indicadores, es poco probable que la influencia se pueda dar en los diferentes niveles de los índices. La gran ventaja de poder contar con diversos indicadores radica en tener medidas, a diversos niveles,. que contrasten múltiples aspectos. La complejidad en la cual se han inmerso los sistemas de registro, brindan la posibilidad de evaluar autores, instituciones, revistas o países. La normalización, registros de citación en múltiples bases, rastreo de fuentes, índices de todos los tipos y para todos los gustos permiten que hoy por hoy el mapa de la producción ciencia tenga herramientas cada vez más complejas e informativas que constituyen un avance muy importante en el campo. En últimas, quién más se ha beneficiado son los usuarios y analistas de la información.

Pero no son solo herramientas con las cuales tomar una decisión entorno a investigadores, prestigio institucional y demás, son complejas y visualmente muy atractivas las herramientas desarrolladas por los diversos sistemas, desde coloridas e interactivas, hasta con la posibilidad de realizar todo tipo de comparaciones.

El factor de impacto es sólo una medida

La imperiosa necesidad de medir los productos, los procesos, la investigación, los resultados, o el impacto ha generado un creciente número de indicadores, algunos con mayor complejidad, que dan cuenta de una forma de la dinámica de la ciencia, pero además, aumentan la información que supera los viejos y criticados indicadores de medición (Garfield, 2006). Ni siquiera los movimientos que inicialmente se oponían a este tipo de cuantificación, han escapado de ésta. Es el caso del movimiento de acceso abierto (open access) y el intento de los países emergentes por mostrar una parte del trabajo invisible a estos grandes indicadores (McCallum, 2007). Este esfuerzo ha llevado a que los grandes índices giren su interés en poder recoger gran parte de esta información, es el caso del Scielo Citation Index, alojado en la plataforma de la multinacional privada Thompson Reuters. Quién lo hubiera imaginado hace diez años, cuando muchos de los proyectos de América Latina o los que se generaban fuera de estas grandes editoriales fueran a impactar en la atención de la producción científica mundial.

Es tal el impacto del movimiento sobre los sistemas cerrados y tradicionales, que éstos han empezado a captar y atacar lo relacionado con el tema de Open Access, grandes editoriales han tenido que seguir el juego de manejar un doble perfil con el ánimo de no perder un público interesado en intentar salir de los esquemas tradicionales. En este sentido, han cobrado importancia las mediciones en las redes sociales, que si bien, tienen la particularidad de tener que ser interpretados con precaución, también son un indicador de consumo de conocimiento científico (Sugimoto et al., 2013) y que si bien no terminan reflejándose en una cita o en una contribución al factor de impacto, se encuentra en la lógica de poder cuantificar la difusión, utilización, consumo e impacto del conocimiento científico (Priem et al., 2010).

Imagen 2. Ejemplo de mediciones de Almetrics en Scopus. Tomada de: http://editorsupdate.elsevier.com/issue-37-october-2012/the-changing-face-of-journal-metrics/

Nature Index

En esta semana, y es parte de la motivación para este post, la revista Nature ofrece su Nature Index (2013-2014). Se propone como un índicador del impacto de instituciones y países basados en la publicación de artículos en las revistas tanto del Nature Publishing Group junto con otras revistas seleccionadas (http://www.natureindex.com/). Tal como se reporta, el Nature Index pretende ser una herramienta para medir resultados de alta calidad, así como la cuantificación de participación de instituciones y países.

Imagen 3. Nature Index. Tomada de Introducing the Index 2014.
Sobresalen dos aspectos de tan visualmente atractiva herramienta. Por un lado, son ya conocidos los sesgos y problemas de artículos que se publican en revistas de muy alto impacto. No es el tema de esta entrada, pero se conoce que son múltiples los aspectos que se tienen en cuenta en las publicaciones de estas grandes revistas, además del mérito científico. Ésto sumado a la poca representatividad de las investigaciones publicadas, lo que dificulta asumir que por sí mismo, el índice es un buen indicador de la producción a nivel mundial. Revistas como Science, Nature o algunas de las de más alto impacto, están sometidas a presiones de resultados llamativos, gran cantidad de artículos y pocos espacios para publicar, lo que lleva a que lo que se muestra es solo una parte, quizás la más llamativa (no necesariamente la más real), de lo que ocurre en la ciencia (Estupinya 2009; Young et al, 2008). De hecho la credibilidad de investigaciones con el mismo valor metodológico variarán en la percepción de verdad, únicamente por el lugar donde han sido publicadas, de allí el valor del sitio de la publicación. No en vano grandes laboratorios, solo publican sus artículos en un grupo muy reducido de revistas.

Sumado a este problema de representatividad, se encuentra el asociado a la invisibilización de la ciencia de las comunidades emergentes. Que, si bien es cierto que parte de esta invisibilización procede de las mismas prácticas de la comunidad (consumiendo y desacreditando una producción de conocimiento local, el interés por publicar en revistas top desconociendo canales locales y poco uso del conocimiento producido) no se hace justicia en torno a los niveles de producción de conocimiento. Haciendo una búsqueda en este índice sobre Centro y Sur América de la producción científica, se encuentra una participación muy baja de nuestro conocimiento a nivel mundial. Si bien es cierto que tradicionalmente ha sido poco y que sólo algunos ejemplos aislados pueden compararse con la producción mundial, no es posible indicar que no se tiene una producción en aumento y que el no reflejo en los índices indica que no existe.

Imagen 4. Nature Index - Middle & South America. Tomado de: http://www.nature.com/nature/journal/v515/n7526_supp/full/515S91a.html
Sería muy interesante realizar el ejercicio de comparar la producción de estos índices, no solamente el de Nature, sino los diferentes sistemas de medida con la medición de otros indicadores más regionales, Redalyc o Scielo Citation Index, para comparar la representatividad que tienen de la producción regional. Tendría que tomarse en cuenta la forma en como son construidos y los datos utilizados para su construcción, la principal dificultad radicaría en que cada uno de estos indicadores pondera y cuantifica de forma diferente diversos aspectos. En la última imagen se puede observar el reporte de producción en Psicología en las revistas en Redalyc, que si bien, no tienen la misma naturaleza de las incluidas en otros índices, tienen la ventaja de ser más reales a la producción local. Quizás la comparación de estos indices sea estable en instituciones y países donde la mayoría de sus canales pertenezcan de forma equivalente a estas bases/organizaciones/indicadores, pero en países emergentes donde, primero la participación es muy baja y adicionalmente no se refleja el nivel de producción, estos indicadores sólo serán un referente, de alguna forma lejano, de nuestra realidad. Que son necesarios pero deben tenerse en cuenta entendiendo nuestro contexto.

Imagen 5. Tomada de www.redalyc.org
--César Acevedo-Triana--
Twitter: @cesar_acevedot


Referencias
ResearchBlogging.org
Bornmann, L., de Moya Anegón, F., & Leydesdorff, L. (2012). The new Excellence Indicator in the World Report of the SCImago Institutions Rankings 2011 Journal of Informetrics, 6 (2), 333-335 DOI: 10.1016/j.joi.2011.11.006

Estupinyá, P. (2010). El ladrón de cerebros Editorial Debate

Garfield, E. (2006). The History and Meaning of the Journal Impact Factor JAMA, 295 (1) DOI: 10.1001/jama.295.1.90

MacCallum CJ (2007). When is open access not open access? PLoS Biology, 5 (10) : 10.1371/ journal.pbio.0050285

Priem, J., & Costello, K. (2010). How and why scholars cite on Twitter Proceedings of the American Society for Information Science and Technology, 47 (1), 1-4 DOI: 10.1002/meet.14504701201

Sugimoto, C., Thelwall, M., Larivière, V., Tsou, A., Mongeon, P., & Macaluso, B. (2013). Scientists Popularizing Science: Characteristics and Impact of TED Talk Presenters PLoS ONE, 8 (4) DOI: 10.1371/journal.pone.0062403

Young, N., Ioannidis, J., & Al-Ubaydli, O. (2008). Why Current Publication Practices May Distort Science PLoS Medicine, 5 (10) DOI: 10.1371/journal.pmed.0050201




lunes, 10 de noviembre de 2014

La "guerra de la memoria" y la imperiosa necesidad de evidencia en la formación en psicología

En los últimos meses han aparecido en la revista "Psychological Science"una serie de artículos, respuestas y meta-respuestas (respuesta a las respuestas) sobre el tema de lo que se conoció en los años 90 la guerra de la memoria (Patihis, et al., 2014). El término enmarca una serie de ideas en torno a dos grupos. Por un lado la posibilidad de "reprimir" recuerdos o memorias que luego persisten a lo largo de la vida y que en la práctica clínica tiene una corriente de pensamiento y un tipo de trabajo terapéutico (regresiones, hipnosis, entre otros) versus el grupo que debate y refuta la idea de dichos mecanismos de represión (Loftus, 1993).

Pero más allá de tomar partido, casi que inevitablemente, por alguna de las dos posiciones, considero que la relevancia y el detalle del mismo sobrepasa los alcances académicos y tiene un implicación, social, judicial y por supuesto ética de los profesionales involucrados en cada uno de los grupos. Como ha sido reportado en múltiples estudios la aparición espontanea de múltiples casos de "recuperación" de memorias relacionadas con delitos fueron en los años 90 una de los hechos que, más allá de la repercusión que tuvo para los involucrados, un evento que despertaba la curiosidad no solo del hecho mismo sino también de la "fortaleza" de la evidencia acerca de hechos ocurridos hace muchos años (Loftus, 1993; Patihis et al., 2014).

Imagen 1. Carátula del libro de Elizabeth Loftus "The Myth of Repressed Memory". Tomada de University of California (ocialecology.uci.edu/faculty/eloftus/) 

Quizás lo que más llama la atención del artículo de Patihis et al., (2014) son los datos sobre los profesionales (clinicos con diversos niveles de formación, i.e, PhD, MA) encuestados que reportan solidez de la evidencia entorno a las memorias reprimidas (71% de Psy.D. y 58% de PhD en Dammeyer et al 1997; 96% de psicoterapeutas en Holanda en Wessel 1998 citados en Patihis, et al., 2010). Estudios de 2012 en Noruega reportan que más del 60% de los psicólogos con licencia tiene ideas similares sobre la solidez del recuerdo (Magnussen & Melinder 2012 citado en Patihis et al., 2014). Realizan entonces dos estudios con el objetivo de medir el impacto de estas ideas en estudiantes de pregrado en Psicología y profesionales en torno a la creencia en estas ideas.

En el primer estudio se toman las respuestas de estudiantes (N = 390) y encuentran que existe un alto porcentaje de estudiantes con ideas relacionadas con conceptos de represión de memoria y técnicas pseudocientíficas para el tratamiento (imagen 2).

Imagen 2. Tomado de Patihis et al., 2014, p. 521
En un segundo estudio les interesa comparar los datos de profesionales, estudiantes y público en general con estudios previos en ideas similares. Encuentran, por fortuna, aunque no del todo que las ideas y dudas sobre la solidez de la memoria reprimida podrían ser falsas. Lo que me gustaría resaltar del segundo estudio es la comparación que realizan con otro tipo de profesionales diferentes a los psicólogos. En la siguiente imagen (imagen 3) se observa el porcentaje de acuerdo de estas ideas con diferentes grupos, se resalta la similaridad entre las ideas sostenidas por las practicas más cercanas al terreno de la pseudociencia y las de estudiantes y público en general. Que, por demás, creo es una invitación a una mejor formación en pregrado, pero, al mismo tiempo un aumento en la difusión de resultados empíricos que permitan a la población general contar con herramientas para la elección de la alternativa con una mayor evidencia, y creo, este es un error en quienes pueden y deben prevenir a la población de lo que Sagan denominaba "traficantes en misterios".

Imagen 3. Tomada de Patihis et al., 2014, p. 528

Finalmente, no es la psicología un campo donde se insertan ideas mágicas y llenas de misterio (aunque si existe una propensión quizás en parte a las malas prácticas de sus profesionales, un post sobre replicabilidad). En un excelente relato sobre el problema de creacionismo versus evolucionismo, Coyne (2012) muestra como el problema de la creencia en teorías científicas se correlaciona negativamente con ideas religiosas (imagen 4), indicando terrenos sensibles para la educación y la sociedad en general, pero más allá de tomar partido en un debate que sobrepasa todo propósito de esta entrada, considero que el compromiso en la educación científicamente sólida (es decir, empíricamente contrastable por métodos rigurosos) es un deber social y moral.

Imagen 4. Tomada de Coyne 2012, p 2657.
--César Acevedo-Triana--
Twitter: @cesar_acevedot

Referencias


ResearchBlogging.org



Coyne, J. (2012). SCIENCE, RELIGION, AND SOCIETY: THE PROBLEM OF EVOLUTION IN AMERICA Evolution, 66 (8), 2654-2663 DOI: 10.1111/j.1558-5646.2012.01664.x

Loftus, E. (1993). The reality of repressed memories. American Psychologist, 48 (5), 518-537 DOI: 10.1037/0003-066X.48.5.518

Patihis, L., Ho, L., Tingen, I., Lilienfeld, S., & Loftus, E. (2013). Are the "Memory Wars" Over? A Scientist-Practitioner Gap in Beliefs About Repressed Memory Psychological Science, 25 (2), 519-530 DOI: 10.1177/0956797613510718

Sagan, C. (1981). Sonámbulos y traficantes en misterios: sentidos y sinsentidos en las fronteras de la ciencia. En El Cerebro de Broca. Barcelona: Grijalbo.

viernes, 4 de abril de 2014

Editorial: "Brain Waves" Nature, 508, 8

La editorial de Nature de esta semana (2 de abril, 2014) menciona el impacto de la gran cantidad de datos en neurociencia y la necesidad por comenzar a integrarlos en teorías explicativas. Adicionalmente se publican dos artículos, en este mismo número, sobre la expresión de genes durante el neurodesarrollo prenatal y la descripción de conexión en detalle de estructuras cerebrales en ratón, respondiendo a los proyectos desarrollados por el Instituto Allen (www.brain-map.org) y a propósito de un año del anuncio del proyecto BRAIN.


Si bien, es conocido por todos el anuncio de grandes proyectos en neurociencia y a esto se le ha denominado "big neuroscience", la falta de un marco teórico que permita soportar algunos de estos grandes hallazgos pareciera que dejan en el limbo estos hallazgos y las especulaciones fantasiosas comienzan su curso.
Pero no es posible esperar tener el conocimiento acabado de la forma y función de la estructura cerebral, debido a múltiples razones. Por mencionar dos. La primera, los avances tecnológicos permiten que la investigación aumente el conocimiento sobre la estructura y función. Segundo, es relativamente reciente el estudio y entendimiento de la constitución del tejido nervioso. Por lo anterior, la construcción de conocimiento en neurociencias lentamente cambia paradigmas biológicos y nos permite una flexibilidad en la integración con explicaciones.

Lo que se espera con estos grandes proyectos es poder constituir un marco teórico y explicativo más amplio y basado en evidencia, así como permear otro tipo de disciplinas que están íntimamente relacionadas con el funcionamiento cerebral.

--César Acevedo-Triana--

sábado, 8 de febrero de 2014

Neuroanatomía molecular: un área derivada de grandes esfuerzos

Dentro de los grandes proyectos en neurociencia como The Human Brain Project (HBP), Blue Brain y BRAIN (Brain Resource And Information Network) se han desarrollado estrategias y mecanismos tecnológicos necesarios para alcanzar los ambiciosos objetivos de entendimiento, comprensión y control del cerebro. Esto quiere decir que junto con los ambiciosos proyectos en cuanto a determinar la estructura y función del cerebro, también ha crecido el desarrollo tecnológico y bioinformático. Dentro de los avances tecnológicos derivados de las técnicas de la anatomía molecular se encuentran los atlas que rastrean la expresión de estos genes. Uno de los más llamativos es el desarrollado por Allen Institute for Brain Science que ha mostrado de forma educativa y amigable la forma de expresión del genoma en el cerebro tanto de ratón como humano (www.brain-map.org).
Figura 1. Tomado de: http://www.extremetech.com/extreme/154756-scientists-grow-a-mouse-brain-that-looks-like-a-humans

Uno de los campos derivados inicialmente y que han surgido hoy en día con objetivos propios es la neuroanatomía molecular. Ésta se ha definido como un campo que intenta determinar la expresión de los genes que funcionan o se activan en determinadas áreas cerebrales (Polock, Wu & Satterle, 2014). Esto, ha llevado a que los avances en técnicas genéticas permitan un avance en los métodos para manipular y entender las estructuras cerebrales utilizando principalmente modelos animales.

Figura 2. Tomado de Hager et al., 2012. Mouse brain sketch highlighting the analysed brain parts.(a) For each of the brain parts and body weight we show the corresponding genome scan with peaks identifying main loci, their location and chromosome number. Where individual peaks are shown, the red lines denote genome-wide significance and the grey line is the suggestive threshold. (b) The quantitative trait locus cluster maps provide a global whole-genome summary of mapping results for all key traits in the form of colour-coded horizontal bands—one per trait, extending from proximal chromosome 1 to distal chromosome X. Regions of more intense colour correspond to linkage peaks and the colours also encode whether the B allele (blue) or the D allele (red) contributes to large weight and volume. Body, body weight; BLA, basolateral complex; brain, overall brain weight; CB, cerebellum; CX, cortex; HP, hippocampus; LGN, lateral geniculate nucleus; OB, olfactory bulb; STR, striatum.

Aproximaciones como la neuroanatomía molecular parten de la base de que las células neuronales expresan una gran cantidad del genoma de los individuos. De hecho, se ha encontrado que las neuronas y en general las células del tejido cerebral expresan un alto porcentaje de todo el genoma de los individuos (Polock et al., 2014). Esta característica presenta dos problemas: el primero es que no es posible determinar fácilmente patrones de expresión de genes entre las áreas y segundo que los métodos de manipulación genética suelen estar limitados a unos pocos genes cuando se realizan técnicas de "ingeniería genética".

Aparte de estos problemas, y algunos otros en cuanto a las técnicas utilizadas en anatomía molecular, se encuentra que el gran aporte de esta nueva área es poder integrar dos niveles de análisis para explicar fenómenos de tipo anatómico y de tipo funcional. Es decir, las áreas cerebrales que cumplen alguna función específica deberán tener patrones de expresión similares para poder tener una equivalencia en cuanto a la identidad fisiológica. Aunque esta idea ha sido parcialmente evidenciada con técnicas de neuroanatomía molecular (como por ejemplo, atlas cerebrales, animales manipulados genéticamente y técnicas de control de circuitos a partir de estimulación externa), también se ha encontrado que las áreas generalmente responden de una forma homogénea a los cambios genéticos que se generan en un determinado sitio.

Otro punto a favor de los estudios en neuroanatomía molecular está dado por lo modelos biológicos que utilizan. Así, y como desde hace muchos años se reconoce en cuanto a la similitud genética de las especies, los sujetos utilizados en los estudios de neuroanatomía molecular muestran no solo genes similares, sino patrones de expresión similares entre diferentes especies para algunas funciones o expresión de proteínas, receptores y sustancias neuronales. Cabe señalar que a pesar de estas similitudes también se reportan diferencias propias del desarrollo ontogenético de cada especie que señalarían una marca filogenética resultado del proceso de evolución (Zeng et al., 2012).

Así, se ha encontrado en un estudio en el que los autores intentan comparar la expresión de genes de la corteza visual y temporal entre ratón y humano que existe un muy alto porcentaje (70% aproximadamente) de similitudes en los genes de expresión en estas áreas (ver Figura 3). De la misma forma los autores encuentran una variación en algunos genes que podrían corresponder a diferencias de especie o diferencias individuales entre los individuos. Ésta última explicación sería acorde a los estudios de conectómica que señalan que si bien la forma esencial de comunicación entre las áreas es la misma, la variación en la estructura cerebral podría corresponder a un patrón de conexión determinado por la experiencia y relación con el ambiente. 

Figura 3. Tomada de Zhen et al., 2012. Cross-species comparison in both visual (vis) and temporal (te) cortices. The pie chart shows the number and percentage of genes (out of 611 total) with human-mouse expression difference (level or pattern combined) in either visual or temporal comparisons.
Estos proyectos de conectómica se enmarcan dentro de grandes esfuerzos por determinar los patrones de conexión que subyacen al desarrollo. En el caso de los humanos el NIH Neuroscience Blueprint Human Connectome Project tiene como propósito determinar la conección de estructuras cerebrales en 1200 adultos, haciendo uso de herramientas genéticas, comportamentales y de neuroimagen. Otros proyectos complementarios, con una visión comparada, intentan dar una explicación más completa de nuestro desarrollo y evolución. Así, el Brain Architectura Project, the iConnectome y Allen Mouse Brain Connectivity Atlas utilizan en modelos animales marcadores anterógrados y retrógrados, adenovirus y grandes dispositivos en microscopía e ingeniería genética que intenta determinar también patrones de conexión (Pollock et al., 2014).

En el caso de los humanos ha sido importante encontrar que la expresión de genes se relacionan de forma consistente con funciones previamente conocidas. Es decir, al relacionar genes determinados con la expresión de neurotransmisores por ejemplo, se encuentra que éstos se expresan en los sitios que se habían identificado por medio de otro tipo de técnicas tradicionalmente. Este método permite hacer validación metodológica de técnicas de citoarquitectura anteriores.

Figura 4. Tomado de: www.sistemanervoso.com
Este campo de neuroanatomía molecular ha cambiado el carácter de centralidad en las células (neuronas y glía) y se ha volcado sobre el entendimiento molecular como un nivel de análisis necesario para comprender la estructura y funcionamiento cerebral. No es de sorprender que estos estudios traigan consigo nuevas preguntas y desafíos, pues es éste el seguir de la ciencia. Siguiendo a Pollock (2014), dentro de las preguntas a responder en los próximos años con la ayuda de esas nuevas herramientas (optogenética, conectómica, imágenes cerebrales, ingeniería genética, control de circuitos) serán: ¿es posible identificar tipos de células con base en su conexión y su perfil genético?¿qué impacto tienen en el funcionamiento?¿podemos activar genes (que de hecho si se puede) para modificar una función celular?¿es la tecnología nanomolecular más importante que las técnicas tradicionales para entender la estructura?

--César Acevedo-Triana--

Referencias

ResearchBlogging.org
Hager, R., Lu, L., Rosen, G. D.,  & Williams, R. W. (2012). Genetic architecture supports mosaic brain evolution and independent brain body size regulation Nature Communications, 37 (1079) DOI: 10.1038/ncomms2086

Pollock, J., Wu, D-Y., & Satterlee, J. S. (2014). Molecular neuroanatomy: a generation of progress. Trends in Neuroscience, 37 (2), 106-123 DOI: 10.1016/j.tins.2013.11.001 

Zeng, H., Shen, E. H., Hohmann, J. G., Oh, S. W., Bernard, A., Royall, J. J., & Jones, A. R. (2012). Large-scale cellular-resolution gene profiling in human neocortex reveals species-specific molecular signatures Cell, 149 (2) DOI: 10.1016/j.cell.2012.02.052



martes, 7 de enero de 2014

Contar historias o hechos: quién se beneficia y quién se perjudica

En el número de noviembre y octubre de 2013 la revista Nature Methods ha surgido un debate que ha sido latente entre comunidades científicas y comunidad no científica. Es difícil mantener una división en este sentido (científico versus no científico), pero por propósitos ilustrativos vamos a suponer que la comunidad científica hace referencia a aquellos individuos que trabajan haciendo ciencia (con esto quiero señalar a cualquier científico en cualquier campo, aunque no es tan evidente ni real partiré de la base que utiliza el método científico en su trabajo y con esto se convierte en científico). Ahora bien, la comunidad no científica hace referencia al público que no trabaja en el campo "científico" específico, pero que podría ser científico en otro campo. Esta complicada y confusa división la realizo para ilustrar la disputa entorno a la comunicación de resultados científicos a una comunidad de no expertos .

El debate consiste en preguntarse ¿deberían los científicos transmitir sus resultados tal cual como son obtenidos, aunque sean incomprensibles y estériles a una comunidad no experta (o no científica)? o ¿debería utilizar recursos "literarios" como si fueran narradores de historias para que el público no experto comprenda estos resultados?. Respuestas impulsivas en cualquiera de las dos preguntas pueden tener implicaciones difíciles de sostener y perjuicios a largo plazo. Más aun, podría haber una tercera opción, que personas diferentes a los científicos, periodistas por ejemplo, comunicaran los resultados de los científicos (una práctica común pero que termina generalmente en una distorsión de la información). Permítanme presentar cada uno de los panoramas.

El primer panorama es en el cual los científicos transmiten sus resultados tal como son obtenidos y sin delimitar y acotar sus implicaciones. Voy a utilizar un estudio reciente y que podría sugerir varias implicaciones. El estudio que utilizaré apareció en la revista Molecular Psychiatry y lleva por título: "Discovery and validation of blood biomarkers for suicidality" (Le-Niculescu, et al., 2013). En este estudio un gran equipo de autores estudiaron cuatro grupos (3 de estos grupos habían sido diagnosticados con enfermedades mentales -dos grupo de trastorno bipolar y uno de esquizofrenia y 1 grupo postmortem). Se realizó una escala sobre depresión que contiene una subescala sobre ideas suicidas en los grupos de EM y se realizó una relación entre la expresión genética y las puntuaciones altas de la escala de ideas suicidas. Finalmente se comparó la expresión de genes de cerebros postmortem. Los investigadores concluyen su estudio con varios genes (biomarcadores) que podría constituir un factor de riesgo alto y bajo para conductas suicidas (no explicaré en detalle este estudio ya que espero exponerlo en un post aparte). Supongamos que alguno de estos investigadores es invitado a una charla con personas de todas las edades para contar su estudio. Probablemente en este escenario el científico se centre en los métodos estadísticos y experimentales que validen como es posible que compare grupos de personas con diferentes trastornos, diferentes tratamientos y cerebros de personas fallecidas. Al no tener la población un conocimiento homogéneo sobre los métodos experimentales para el entendimiento del método el estudio podría crear la falsa sensación de causalidad, ya que los datos reportados son correlaciones que si bien muestran posibles relaciones no implican causalidad. El problema de esta primera visión está en suponer que la divulgación de los resultados supone un nivel de conocimientos necesarios que no siempre se logran en una población de forma homogénea.

Fig 2. Convergent Functional Genomics approach for identification and prioritization of genomic biomarkers for suicidality. Tomado de: Le-Niculescu, et al., 2013
El segundo panorama, con el mismo estudio, sería intentar explicar cómo es posible que una enfermedad mental y mediante ejemplos e historias fáciles de digerir tratar de centrarse en la explicación de la enfermedad mental y la relación con biomarcadores, qué se constituye en biomarcador y como esto se relaciona con la conducta suicida. En este punto probablemente la sensación del público sea más alentadora y se crea que el estudio se ha comprendido mediante los ejemplos e historias utilizadas por el científico para tratar de ilustrar y presentar el estudio. Sin embargo, el problema de los métodos experimentales, estadísticos o de comprensión de las limitaciones de las características que se expresan y la complejidad de la conducta no sea solucionado y mucho menos pueda identificarse. Este tipo de posición fácilmente podría distorsionar los resultados, en tanto, los ejemplos e historias son únicamente recursos pedagógicos, pero que fácilmente podrían sobredimensionarse o distorsionarse. Creo que en este punto fácilmente al perder el rigor científico y la utilización de conceptos y herramientas de crítica lleven a distorsionar los resultados y las implicaciones. En el intento por facilitar los resultados para que la comunidad no científica "entienda" la investigación se pueden perder los límites y la particularidad de los estudios, generando falsas expectativas.

El tercer y último panorama es en el que una persona ajena a la investigación y que no tiene la formación suficiente para interpretar los resultados, termina intentando explicar el estudio. En este caso es la forma como algunos medios de comunicación divulgan la noticia de marcadores para el suicidio y cómo es posible identificar estas conductas antes de que ocurran para prevenir suicidios -esta conclusión que de hecho es expuesta de forma algo irresponsable por los investigadores; aunque me atrevería a pensar en una utilización a propósito de la afirmación como una forma de aumentar el impacto del artículo sobre los revisores y editores de la revista; no olvidemos que es una revista del Q1 en Scopus-. Es difícil que una vez que la noticia ha sido difundida se pueda explicar en detalle que algunas de las afirmaciones llamativas del estudio son en realidad hipótesis que podrían derivarse del mismo pero que carecen de evidencia. Considero que este tipo de divulgación es incluso más peligrosa ya que ya no son los científicos sino sus intérpretes quienes presentan los resultados con una mirada diferente y que suene atractiva. Estoy de acuerdo con Gutierrez & Rodríguez (2012) cuando afirman que el científico tiene una responsabilidad social en la difusión de su conocimiento y que es el sistema educativo el que debería proveer a los individuos las herramientas necesarias para la comprensión de los hallazgos científicos, pero no estoy de acuerdo en afirmar que sean los periodistas en el método híbrido quienes se encarguen de esta difusión, tampoco estoy de acuerdo con que el lenguaje deba ser diferente al utilizado ya que esto sugiere una pérdida de rigurosidad y tendría las limitaciones del segundo panorama que presenté.

Desde mi punto de vista considero que la opción viable es la primera en donde el científico trnasmita sus resultados, mostrando las limitaciones e intentando aumentar la cantidad de información (sin perder la rigurosidad ni tomando figuras que pueden distorsionarse fácilmente) que sea necesaria para el entendimiento de los resultados. En este caso la responsabilidad de difusión aumenta y el complemento de esta vía deberá estar acompañada por un cambio en los sistemas educativos, de lo que denominan Vadillo y Matute, el pensamiento crítico, y que consiste en la evaluación crítica de los métodos de evidencia, mientras que no se de una educación que permita el entendimiento de métodos de investigación no será fácil la difusión y entendimiento de las investigaciones científicas.

--César Acevedo-Triana--

Referencias

ResearchBlogging.org
Editorial (2013). Should scientists tell stories? Nature Methods, 10 (11), 1037-1037 DOI: 10.1038/nmeth.2726

Gutiérrez, M. F., & Rodríguez, J. A. (2012). Científicos y periodistas en la divulgación de la ciencia. Un problema de responsabilidad social Revista Colombiana de Bioética, 7 (2), 35-44.
 H Le-Niculescu, D F Levey, M Ayalew, L Palmer, L M Gavrin, N Jain, E Winiger, S Bhosrekar, G Shankar, M Radel, E Bellanger, H Duckworth, K Olesek, J Vergo, R Schweitzer, M Yard, A Ballew, A Shekhar, G E Sandusky, N J Schork, S M Kurian, D R Salomon, & A B Niculescu III (2013). Discovery and validation of blood biomarkers for suicidality Molecular Psychiatry, 18, 1249-1264 DOI: 10.1038/mp.2013.95

Katz Y (2013). Against storytelling of scientific results. Nature Methods, 10 (11) PMID: 24173378

Krzywinski M, & Cairo A (2013). Reply to: "against storytelling of scientific results". Nature Methods, 10 (11) PMID: 24173379

domingo, 17 de noviembre de 2013

Especial Nature Methods sobre mapeo cerebral

Hace unos años para el boletín del Colegio Colombiano de Neurociencias (COLNE) escribía una sección sobre tecnología. Y en uno de los números escribí un texto sobre "Atlas Cerebrales" en donde intentaba mostrar algunos mapas que habían sido construidos para fomentar el estudio y entendimiento de diferentes aspectos del cerebro, tanto en modelos animales como en humanos. Dentro de los mapas descritos se encontraba el realizado por el instituto Allen para ratón y humano. Han pasado varios años y es impresionante el avance y las ventajas que han ofrecido para el mundo el instituto Allen. He tenido la oportunidad de seguir varias de sus publicaciones y he incorporado algunas de sus herramientas en los contenidos de clase para el estudio de anatomía y genética.

Tomado del Boletín del COLNE, Vol 2, No 1, 2011 - Aquí se puede consultar el artículo completo
En esta oportunidad la prestigiosa revista Nature Methods ha dedicado un número especial (junio 2013) sobre técnicas de mapeo cerebral, recogiendo y explorando algunas de las herramientas que intentaba exponer en mi artículo. Como se señala en la editorial de este número (Pastrana, 2013); el objetivo de las técnicas de mapeo cerebral es, en general, entender diferentes componentes de la estructura o función cerebral. Son tan amplias y rápidas las modificaciones tecnológicas realizadas para este propósito que tenemos desde técnicas ópticas y moleculares, hasta registro de actividad cerebral en tiempo real y cerebros transparentes, pero es únicamente bajo la cooperación de matemáticos, físicos, estadistas, químicos y demás profesionales de la ciencia básica que es posible desarrollar más y mejores técnicas para registrar el funcionamiento y la estructura cerebral.

La primera anotación técnica se realiza al trabajo desarrollado por Joshua Sanes & Jeff W. Lichtman y denominado "Brainbow"; en el cual las neuronas individuales son etiquetadas por un color distinto,utilizando animales transgénicos con el sistema de recombinación genética Cre-LoxP, en el que se expresan diferentes proteínas fluorescentes, para determinar las prolongaciones y conexiones a grandes distancias (Center for Brain Science - Harvard). Es una de las técnicas que se utiliza en el movimiento denominado "Conectómica" que pretende determinar en detalle la forma como diferentes componentes del cerebro está conectado.También se relaciona la participación de Sanes en el proyecto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) financiado por el gobierno de Estados Unidos y que pretende "mapear los patrones de actividad cerebral en miles de neuronas conectadas en circuitos que subyacen al comportamiento" (Marx, 2013, p. 449). En este proyecto la técnica Brainbow podría ayudar a los primeros intentos por determinar patrones de conexión entre diferentes especies y en cerebros completos.

Imagen 1: Dentate Gyrus.
tomada de Center for Brain Science - Harvard University 
Posteriormente en el artículo de Bargmann & Marder (2013) se hace una comparación en la estructura y dinámica de circuitos neuronales en invertebrados y vertebrados mostrando un paralelo biológico y una dinámica biológica común. A partir de información de estudios electrofisiológicos y de microscopia electrónica se han rastreado los patrones de conectividad e interacciones en invertebrados desde hace varios años. La identificación de tipos de neuronas, tipos de sinapsis (químicas o eléctricas) o ritmos de activación pueden predecir con gran precisión la fuerza e importancia de diferentes conexiones. Sin embargo, a pesar del avance en técnicas en la detección de actividad sináptica (medición de calcio, voltaje y liberación sináptica) poco se tiene para la medición de conexiones eléctricas (gap junctions) y menos aún para la influencia de los actores como moduladores sobre la influencia directa en la actividad de neuronas o circuitos, frecuencia o patrones motores generados. Finalmente, esta muy distante la descripción de conexión en partes complejas y completas de cerebros grandes, haciendo necesaria la creación de laboratorios con capacidades inmensas y no como los laboratorios convencionales que conocemos.

Imagen tomada de Bargmann & Marder (2013). The conectoma de C. elegans mostrando las 302 neuronas y su sinapsis químicas pero no gap junctions. En la imagen los círculos rojos son neuronas sensoriales, los círculos azules son interneuronas y los círculos verdes son neuronas motoras.
En el siguiente texto de O. Sporn (2013) se realiza un comentario sobre diferencia entre los mapas generados por de conectiviad (conectómica) y los mapas de patrones dinámicos de conectividad funcional y la necesidad de desarrollar nuevas estrategias para el análisis y modelado de datos cerebrales. Estas estrategias dependerán del desarrollo de técnicas a nivel computacional e incluso teóricas para poder comprender estructura y función. Estas técnicas para poder identificar la estructura neural deben estar soportadas en un gran interés por identificar componentes biológicos de células que al parecer son particularmente especiales. Así, Morgan & Lichtman (2013) señalan características especiales de las neuronas con respecto a otros tejidos, como: 1. el cerebro tiene más tipos de células que cualquier otro órgano; 2. el patrón de conectividad es geométricamente muy complejo lo que repercute en la forma en cómo se comunica y actúa sobre otros órganos; 3. estos contactos especiales permiten comunicaciones bidireccionales, particulares en el cerebro; 4. la comunicación particular entre la información genética y expresión de la misma a partir de la interacción con el ambiente.

A pesar de estas características particulares han surgido fuertes críticas al proceso de conectómica que son respondidas por Morgan & Lichtman (2013), por ejemplo, una de las críticas más fuertes se basa en que la identificación de propiedades estructurales en algunos individuos tiene poca generabilidad en virtud de la variabilidad de estructura entre individuos; el disparo e integración de respuestas neuronales está determinado por la cantidad de receptores y la modificación de propiedades fisiológicas en las células. Esta característica varía entre células y entre individuos lo que haría un proceso de conectómica inviable de generalizar. Estas y otras críticas son discutidas a profundidad. Los autores finalizan su texto proponiendo que es viable y necesario el desarrollo de mapas de conexión básicamente porque los métodos tradicionales de análisis de sinapsis uno a uno no dan cuenta del proceso complejo que subyace al comportamiento, es necesario conocer en detalle la conformación del cerebro de forma que soporte los hallazgos en campos más específicos y es probable que durante el proceso se detecten características no conocidas de funcionamiento, lo que podría repercutir en áreas diferentes a la neurociencia.

Quizás uno de los artículos más interesantes del especial es el escrito por Chung & Deisseroth (2013) describiendo su técnica de CLARITY. Esta técnica consiste en crear una estructura de hidrogel que permite una fijación dentro del tejido para luego remover los lípidos de las células sin alterar mecánicamente el tejido. Está técnica crea entonces una estructura híbrida estable que permite cambiar la forma de estudiar la conexión cerebral y pasar de tajadas cerebrales con técnicas de microscopía tradicional a una técnica que permite estudiar el cerebro completo con técnicas moleculares complementarias.

Imagen tomada de: Chung & Deisseroth (2013). CLARITY for mapping the nervous system. Detalle del proceso de creación de la estructura híbrida de hidrogel.
A propósito de la técnica de CLARITY se produjo y difundió hace algunos meses un video (Nature Methods) que muestra lo vistoso de la técnica y su posible potencial al cambiar un paradigma que incluso recuerda los estudios pioneros y fundamentales de Santiago Ramón y Cajal.


Finalmente, hay otros artículos que muestran varios proyectos que intentan determinar la estructura y conectividad de diferentes especies, en donde el Allen Institute promete un gran avance en este campo por sus hallazgos y sus proyectos a futuro, como lo menciona Osten & Margrie (2013). Esta es una lectura obligada si el interés es tener un amplio espectro de técnicas, limitaciones y potencialidades de los estudios para el mapeo cerebral

--César Acevedo-Triana--

Referencias
ResearchBlogging.org




Cai, D., Cohen, K. B., Luo, T., Lichtman, J. W., & Sanes, J. R. (2013). Improved tools for the Brainbow toolbox Nature Methods, 10 (6), 540-547 DOI: 10.1038/nmeth.2450

Chung K, & Deisseroth K (2013). CLARITY for mapping the nervous system. Nature Methods, 10 (6), 508-513 PMID: 23722210

Bargmann, C. I., & Marder, E. (2013). From the connectome to brain function Nature Methods, 10 (6), 483-490 DOI: 10.1038/nmeth.2451

Morgan, J. L., & Lichtman, J. W. (2013). Why not connectomics? Nature Methods, 10 (6), 494-500 DOI: 10.1038/nmeth.2480

Osten P, & Margrie TW (2013). Mapping brain circuitry with a light microscope. Nature Methods, 10 (6), 515-523 PMID: 23722211

Pastrana, E. (2013). Focus on Mapping the Brain Nature Methods, 10 (6) DOI: 10.1038/nmeth.2509

Sporns, O. (2013). Making sense of brain network data Nature Methods, 10 (6), 491-493 DOI: 10.1038/nmeth.2485



domingo, 20 de octubre de 2013

"Conectómica" un movimiento que no se puede limitar al cerebro

Tabla de Contenido - October 2013
En el número de octubre de la revista Neuroinformatics (Volumen 11, issue 4, 2013) la editorial está dedicada a la exposición de varios proyectos en neurociencia para poder unificar una cantidad importante de conocimientos. Dentro de los grandes proyectos generados en los últimos años (Brain Research through Advancing Innovative Neurotechnologies BRAIN por US y Human Brain Project - HBP por la comunidad europea) se han agrupado una serie de iniciativas que intentan determinar de forma muy precisa aspectos del funcionamiento cerebral que permita entender un funcionamiento normal y patológico.

Parte de estos esfuerzos se centran en reunir una cantidad importante de estudios y experimentos que han sido generados de forma aislada. Cuando se estudia el cerebro en diferentes niveles de análisis (genético, molecular, celular, anatómico, de función) es necesario generar mecanismos para sintetizar y reunir la gran cantidad de esfuerzo y articulación que se debe existir para que estos estudios sean coherentes y contribuyan de forma importante en el entendimiento cerebral.

Esta integración que deberá terminar con explicaciones coherentes plantea desafíos a nivel de desarrollos informáticos que puedan albergar y manejar una cantidad de información a nivel tecnológico nunca antes planteada. Por lo tanto, los esfuerzos en generar el ambiente tecnológico e informático propicio puede abarcar gran parte de todo el proyecto.

Adicionalmente, los movimientos académicos que intentan explicar la forma como está conectado el cerebro, desde imágenes hasta cerebros transparentes, han mostrado importancia de entender el fenómeno de conexión y han involucrado múltiples universidades, institutos, consorcios y han reunido muchos años de trabajo. Así, no es posible que cada uno de estos actores reclame para sí la totalidad de conexión cerebral, sino que, deberá estar en "conexión" con otros institutos/universidades/laboratorios para poder entender y dar sentido a un esfuerzo propio. En este sentido, la conexión estudiada no puede tener sentido sino hay una red (conexión) entre estos esfuerzos.

Parte de la evidencia son los proyectos, plataformas y diversas redes de conocimiento (NeuroLex, por ejemplo) en torno únicamente a poder unificar la forma de producir, entender y generar el conocimiento. Esto hace referencia a otro nivel de conexión, es decir, que la forma de establecer y producir los resultados sea acorde a una red semántica estandarizada que permita unificar y producir un tipo de conocimiento funcional.

Estos movimientos para generar redes de esfuerzo conjunto, propuestas coherentes y estandarización en la producción de conocimiento son una evidencia de que el estudio de "conectómica" no puede limitarse al estudio cerebral sino que por el contrario deben estar soportados en una comunidad conectada académica, tecnológica y socialmente.

--César Acevedo-Triana--

Referencias

ResearchBlogging.org Maryann E. Martone, & Giorgio A. Ascoli (2013). Connecting Connectomes Neuroinformatics, 11 (4), 389-392. DOI: 10.1007/s12021-013-9207-0