La revista Nature Human Behaviour publicaba su primer artículo a principios de 2017 con un tema demoledor: la mayor parte de los estudios científicos publicados se basan en experimentos mal diseñados y sus resultados no se pueden replicar. ¿Las revistas son el motor o la perversión de la Ciencia? Varios expertos lo analizan en Plaza
VALÈNCIA.- Las revistas científicas representan una gran conquista en la transmisión del conocimiento. Sin ellas, los investigadores de todo el mundo no podrían trabajar en red y los laboratorios malgastarían años repitiendo los mismos errores que otros centros de investigación a miles de kilómetros de distancia. Pero esa gran agilidad ganada se ha tornado en una perversión para la ciencia: la cantidad y el impacto de los artículos, y el número de citas que acaparan, dan o quitan puestos de trabajo a los científicos. ¿Investigar para publicar o para conocer y cambiar el mundo? Este es uno de los grandes dilemas de la ciencia cuando lo revolucionario de las investigaciones ya no determina la calidad del trabajo científico.
Aprovechando su lanzamiento al mercado, la revista Nature Human Behaviour, del grupo Nature, publicaba en enero un manifiesto por una ciencia más reproducible, en el que se denunciaba que la mayor parte de los artículos científicos no están bien diseñados. Esa polémica se enmarca en un movimiento cada vez más extendido entre los científicos que cuestionan la validez de las investigaciones publicadas.
En 2012, la PNAS, la publicación oficial de la Academia Nacional de Ciencias de Estados Unidos, señalaba que el fraude científico se había multiplicado por diez desde 1975, tras analizar más de dos mil retractaciones por malas prácticas, engaño, plagio y duplicidad. Tras recibir el premio Nobel de Medicina 2013, se sumaba la voz crítica del biólogo estadounidense Randy Schekman, abogando por una ciencia libre de «la tiranía de las revistas de lujo», encaminadas más a vender suscripciones que a fomentar las investigaciones más importantes para el avance social.
En principio, los resultados publicados deben ser reproducibles; es decir, que otros científicos lleguen a los mismos resultados por los métodos descritos en el artículo. «El problema de la reproducibilidad se ha convertido en la norma, pero una cosa es la picaresca, el fraude científico, y otra el problema que se deriva de la presión por publicar, al publish or perish [publicar o perecer] y a las políticas agresivas de las editoriales para sacar estudios que llamen la atención», señala Manuel Porcar, investigador del Institut Cavanilles de Biodiversitat i Biologia Evolutiva de la Universitat de València (ICBiBE). «Es un secreto a voces en la comunidad científica que las editoriales se preocupan más por el impacto de las publicaciones en la opinión pública que por ser científicamente los mejores estudios», sostiene.
Como buena parte de sus colegas, Porcar reconoce que la necesidad de publicar ha marcado su vida académica. «Si no lo haces, te tiran a la calle. Si no publicaba, no me daban becas para hacer la tesis, la estancia posdoctoral o para volver a España. Tampoco me daban la certificación ni podía sacar la oposición».
Afirmar que la productividad de un investigador se mide hoy por el número de publicaciones no es nada exagerado como tampoco lo es reconocer que la persecución del impacto de los artículos distorsiona la evidencia científica. Uno de los artículos más populares de Porcar fue una investigación sobre bacterias en las máquinas Nespresso, publicada en 2015 por el grupo Nature, con un elevado impacto mediático. «No es mi mejor artículo. Tuvo éxito por ser un tema atractivo, que llegó a salir en el New York Times. Esa distorsión es total para la opinión pública, y parcial para los científicos, porque no estamos exentos de vanidad. La gente suele sacar pecho por tener un Science o por el número de retuits, más que por sus efectos para transformar la sociedad. Publicar es un medio para dar a conocer una investigación, pero se confunde y se hace al revés: primero se piensa dónde se publica y luego en la investigación», anota.
Publicar en una revista de prestigio no siempre equivale a que el estudio sea el no va más. Lo prueba la paradoja de que el selecto grupo de revistas de impacto haya rechazado estudios que han sido auténticas revoluciones científicas. Así lo vivió el investigador alicantino Francis Mojica, padre de CRISPR, la técnica revolucionaria del corta-pega genético cuya investigación tumbó Nature. «No se lo creyeron, pero con el tiempo le pidieron perdón. Tal vez Francis no tenía la experiencia de hoy. Lo envió cuando estaba haciendo su tesis, necesitaba más prestigio. Trabajar en un laboratorio prestigioso da más garantías. Pero las revistas de impacto buscan excusas para rechazarlos, a diferencia de las demás», afirma Juan Lerma, exdirector del Instituto de Neurociencias del CSIC y la Universidad Miguel Hernández de Elche y editor jefe de la revista internacional Neuroscience.
Decir que el 80% de los estudios son falsos y que se derrochan miles de millones de dólares al año para repetir experimentos que no sirven constituye una afirmación infundada para Lerma. «Esta polémica viene del problema de las compañías farmacéuticas al aplicar datos de la ciencia básica. Se descubren continuamente posibles dianas a nivel básico, pero no significa que sean ya terapéuticas. Los artículos no son 100% reproducibles, pero en todos hay una parte de verdad: están los resultados, que deben ser correctos, y las interpretaciones, que cambian según el avance del conocimiento», señala Lerma.
El exceso de estudios científicos no es el problema de la ciencia, indica Miguel Ángel Vadillo, investigador de Psicología en la Universidad Autónoma de Madrid, sino que las revistas tradicionales solo publiquen investigaciones con resultados bonitos. «Ese sesgo representa una visión muy optimista de la ciencia. Si imaginamos que se prueba un futuro tratamiento para el cáncer haciendo cuatro estudios, y es en el cuarto donde se encuentra algo prometedor, entonces solo ve la luz el cuarto. Necesitaríamos revistas que lo publicaran todo, con unos mínimos de calidad, independientemente de que el resultado sea o no espectacular».
La conciencia sobre la problemática de la replicabilidad se ha despertado en los últimos años gracias a las nuevas tecnologías que permiten disponer de repositorios y de nuevas técnicas estadísticas. Fruto de ese escenario fue el primer estudio internacional de replicabilidad a gran escala publicado en 2015 en Science, sobre cien artículos relevantes de psicología, de los que solo el 39% fueron reproducibles. «Las tasas de replicabilidad son bajas en cualquier disciplina. Todavía no tenemos información sobre lo que es una tasa óptima en ciencia. Estos estudios ayudarán a tener una referencia», explica este investigador en Psicología.
Manuel Porcar «Las editoriales se preocupan más por el impacto de las publicaciones que por ser científicamente los mejores estudios»
Una de las principales críticas sobre la validez de los estudios científicos ataca al escaso conocimiento del uso de la estadística y al diseño de las muestras. Por ejemplo, recurrir a la población estudiantil para realizar sus investigaciones. «Para algunos tipos de estudio interesa que la muestra sea muy homogénea y se recurre a estudiantes porque a veces es lo que tienen más a mano. El problema surge cuando esos resultados se quieren extrapolar a la población general. Una pregunta es hasta qué punto una investigación es robusta, repetible y fiable, y otra es hasta qué punto estos resultados se pueden generalizar asumiendo que son robustos», subraya Vadillo.
Al margen de las revistas de prestigio, disciplinas como la neurociencia viven otro tipo de tiranías, las de las políticas institucionales, indica el neurocientífico Lerma. «Cuando se escribe un proyecto, se tiene que decir que algo cura el Alzheimer porque exigen la traslación del conocimiento, aunque todavía no conocemos las bases de la memoria ni las causas del deterioro cognitivo. La política tiene que dejar que los científicos hagan lo que saben hacer, no decir qué líneas deben seguir. El ansia por la aplicación que marcan los programas de investigación también nos está haciendo mucho daño», añade.
Las políticas de las editoriales también constituyen un negocio mayúsculo. «Los investigadores pagamos por publicar un valor variable entre los 1.000 y 4.000 y a veces hasta 5.000 euros por artículo. Este es un tema muy grave en unas universidades o instituciones que no sean multimillonarias. Un investigador con una productividad digna —con entre tres y siete artículos al año— se gasta 10.000 euros para publicar, dinero que le podría servir para contratar a otro investigador», recalca Porcar. Pero los autores no están solos. «Las editoriales utilizan a otros investigadores de reconocido prestigio mundial como mano de obra altísimamente cualificada para revisar los artículos sin cobrar», añade.
El último artículo del grupo al que pertenece Carmen Agustín, profesora ayudante de la Unidad Docente de Biología Funcional de la UV, ha sido publicado en Frontiers, una revista de acceso abierto [en la que los lectores no pagan por leer los artículos a cambio de que lo hagan los propios autores] gracias a un pago previo de casi 2.000 dólares, extraídos del proyecto de investigación. «Antes de que la comprara Nature, hace un año, era más barato publicar, salía por unos 1.500 dólares, antes por 700... Han visto un negocio en las revistas open access, y los autores debemos pagar cada vez más», explica la bióloga Agustín.
Para analizar la replicabilidad, las revistas tendrían que dar algún incentivo para que varios laboratorios analizaran un estudio de forma independiente, apunta esta investigadora. «La ciencia tendría que ser más cooperativa. El problema es que los investigadores tienden a ser más competitivos porque su futuro depende de publicar. Los egos y las situaciones límite hacen inventarse los resultados. Se entra en una rueda que se va de las manos», lamenta Agustín.
«La investigación debería juzgarse por su calidad. Requiere un cambio en la mentalidad del funcionamiento de las universidades. En Reino Unido o Estados Unidos, los comités de los centros deciden si se contrata a alguien leyendo previamente sus investigaciones para evaluar la calidad investigadora. En España no se hace, importa el número sin más. Eso no favorece una ciencia íntegra», aboga Vadillo. O como defiende Porcar: «Los investigadores deberíamos formar un gran sindicato mundial donde hagamos de críticos de nuestros compañeros y asumamos los costes de publicación, haciendo una sana competencia a las editoriales. También es muy importante hacer una aproximación más humana al perfil del investigador; no se puede basar todo en el número de publicaciones y en el índice H —relativo al número de citas de un artículo— o a su impacto».
Como Robin Hood, Alexandra Elbakyan, informática kazaja de 28 años, se ha hecho conocida por piratear a las elites las publicaciones científicas para favorecer a los investigadores más modestos. A través de su web Sci-Hub millones de científicos pueden consultar de forma gratuita una base de datos con 62 millones de artículos. Una iniciativa que la sentó en el banquillo de Nueva York en 2015, por la demanda de la editorial Elsevier. Elbakyan hoy vive escondida, alejada de cualquier país con acuerdos de extradición a Estados Unidos.
«Desde la UV no tengo acceso a muchas publicaciones que consultaba cuando trabajaba en Reino Unido. Las editoriales que no son de acceso abierto hacen pagar la suscripción, y las universidades modestas o con recortes no se las pueden permitir. Es una piedra para acceder a la información. Por eso alguna vez he utilizado su web, pero ojalá tuviéramos otro sistema en el que todos compitiéramos en igualdad de oportunidades sin necesidad de hackers», admite Carmen Agustín.
* Este artículo se publicó el número 32 (VI/17) de la revista Plaza