Open Access ¿y quién lo paga?

open access

Open Access, vale, ¿y quién y cómo lo paga?

En el artículo anterior hablábamos del Open Access y del coste que suponía. Queremos en esta segunda parte reflexionar sobre las partidas implicadas y el coste no económico que puede tener sobre las carreras científicas.

Un aspecto que nos quedó por desarrollar en el artículo anterior es que el coste de la suscripción a las revistas científicas y el coste que supondría poner todos los artículos en acceso abierto salen de partidas presupuestarias muy diferentes. Mientras que el primero se incluye en los gastos generales y corrientes de los servicios de información científica o bibliotecas de los centros de investigación, el segundo va directamente a los presupuestos de los proyectos de investigación o a las mermadas arcas de los grupos de investigación.

En ambos casos, sale de las arcas públicas, pero de dos ámbitos diferentes entre los que a veces falla la comunicación.

Desde la perspectiva de bibliotecario se percibe un desconocimiento, bastante común por parte de los científicos, sobre el enorme y creciente gasto anual que tienen que soportar las instituciones para que puedan acceder a las revistas de su interés. La impresión que se desprende es que hay que estar suscrito a todo y de manera inmediata.

Por otro lado y para ser justo, desde el ámbito profesional de las bibliotecas el ejercicio de reflexión y empatía hacia la realidad de la actividad científica es en ocasiones escaso o inexistente. Lo más habitual es encontrar un apoyo ferviente del Open Access en las reuniones profesionales de ámbito bibliotecario, sin pararse a analizar el coste de lo que se está defendiendo. Una línea argumental muy recurrente es que el coste del open access se puede presupuestar en los proyectos de investigación, dan dinero a mansalva y por tanto deberían pagar sin poner demasiados problemas.

Cualquier científico saltaría a la yugular del bibliotecario en este punto:

¿Dinero a mansalva? Ya nos gustaría. Es difícil estimar la financiación media de los proyectos, porque dependen mucho del área científico-técnica y de si se ha pedido (y concedido) dinero para la contratación de personal, y también estimar el número de artículos que salen de un proyecto. Pero si nos fijamos en los números de nuestro centro del año pasado deberíamos haber destinado más del 20% del dinero gastado en investigación a la publicación en Open Access. Ese porcentaje es simplemente demasiado alto.

Por otro lado, en estos foros de bibliotecarios, si pones de manifiesto el coste que supondría para los grupos de investigación publicar en las revistas en las que tradicionalmente vienen haciéndolo, el argumento rápidamente esgrimido es la opción de publicar en revistas Open Access de bajo coste, (y escaso índice de impacto), sin pararse a analizar el enorme coste NO económico que puede suponer para los grupos de investigación y, especialmente y desde un punto de vista individual, para los científicos o aspirantes a científicos que se vean “obligados” a publicar en este tipo de revistas.

Todo se entiende mejor si se ponen ejemplos: si soy becario y mi grupo de investigación deja de publicar en revistas de alto impacto automáticamente dejo de ser competitivo a la hora de solicitar futuras becas que me permitan continuar la carrera científica. Si ya soy doctor, difícilmente podré acceder a contratos Ramón y Cajal o Juan de la Cierva, y si afortunadamente ya soy científico, puede suponer una merma en las posibilidades de conseguir nuevos proyectos.

Paralelamente a cualquier debate que se quiera organizar en torno a costes económicos, índices de impacto, sistemas de evaluación o carrera científica, surgen dudas perversas que van más allá de una consideración simplista de la ciencia como algo meramente cuantificable y socavna uno de los pilares básicos de la ciencia misma:

¿En qué momento la calidad científica de un artículo dejó de tener el peso fundamental en la balanza que determina que dicho artículo se publique en una u otra revista?

¿En qué momento es el dinero del que disponga mi grupo de investigación, o mi proyecto, el que determina en qué revista publico?

 

Este artículo se ha realizado conjuntamente entre Teresa Valdés-Solís y Luis G. Tresguerres. Luis es responsable de la Biblioteca del Instituto Nacional del Carbón, desde donde ha movilizado a los científicos del centro a favor de la utilización del repositorio institucional del CSIC para todo tipo de documentos científicos. Su trabajo en el INCAR ha permitido la digitalización de un gran número de archivos de difícil accesibilidad que permiten conocer mejor la historia de nuestro instituto y de las investigaciones que se han llevado a cabo en él en los últimos 50 años.  Dicha información está disponible en: http://digital.csic.es/handle/10261/84

12 Comentarios

Participa Suscríbete

MiguelMiguel

Interesante conocer ambos puntos de vista sobre una misma problemática. Yo que no trabajo en el ámbito de la investigación científica pero si consumo artículos científicos y me gusta seguir algunas líneas de investigación, jamás me hubiese enterado del impacto económico que tiene para los grupos el Open Access.
El último enlace del articulo es bastante interesante y se agradece el l trabajo realizado.

Teresa Valdés-Solís

Gracias por tu comentario Miguel, ese es uno de los problemas, que no nos pensamos a parar cuánto cuesta el Open Access hasta que nos toca pagarlo directamente 😀
Claro que como concepto es bueno, nadie lo discute, pero obligar a que toda la investigación esté accesible en abierto en un plazo determinado (y los artículos definitivos) lo que consigue es que las editoriales vean un gran negocio ahí.

yeilyeil

Es el problema de la dictadura del factor de impacto, a qué mala hora se le ocurrió a alguien utilizarlo para medir la calidad de los artículos. Uno de los artículos más citados de mi especialidad es un artículo mediocre, en perros, tomado como si fuese la Biblia. El propio autor hizo artículos nuevos sobre el tema (también en perros) para corregir un gran error que tuvo en su primer artículo, básicamente que la mandíbula del perro es más fina que la nuestra y por lo tanto los implantes utilizados eran demasiado gruesos, lo que llevo a conclusiones erróneas.

Pues bien, nadie cita los artículos nuevos, al no estar publicados en revistas tan buenas y a que básicamente, se nota que mucha gente cita sin leerse los artículos. O lo que es peor, publica sin tener ni idea de metodología.

Juan RJuan R

Claramente la editorial es un negocio y en cierto modo un monopolio. Desde siempre. Lo que sucede es que además con internet aparecen nuevas formas de negocio bajo el eufemismo de “democratizar la ciencia”. Es decir, hacer un acceso abierto para que todos puedan disfrutar de la ciencia.
Así que, como el otro día creo que le explicaba a Francis (que se queja mucho de Plos One, pero todas son iguales), todas las grandes editoriales han sacado su versión open access (para evitar que los artículos que rechazan arriba se les vaya de su negocio y te ofrecen las de más abajo) y las nuevas que han surgido, PloS y Frontiers por ejemplo. En todos los casos, son revistas de bajísimo perfil científico. Solo exigen que metodológicamente sea impecable el trabajo, pero no se preocupan de la novedad, calidad, interés de los resultados. Así es fácil publicar y hacer caja. Un ejemplo extremo es que en Frontiers es im-po-si-ble rechazar un artículo como revisor. Casos más encubiertos son Scientific Reports y Plos One, que permanentemente recuerdan a revisores y editores que solo tienen que tener en cuenta que los métodos sean buenos y precisos etc…. lo demás es hacer caja.
Completamente de acuerdo con los argumentos que expones en estos dos artículos,… la cuestión es ¿qué impulsa a las agencias de financiación de la ciencia a dirigir el gasto en publicación hacia open access?. La otra cosa divertida es el acuerdo de las editoriales con la prensa para adelantar noticias sobre publicaciones “estrella” justo antes de que salga, sin embargo, es imposible acceder al artículo desde cualquier otro sitio.
Tristemente la ciencia no escapa al negocio. Se crean corrientes que dirigen la financiación hacia tal o cual campo, ¿ atendiendo a sensibilidad del pueblo ante una enfermedad, cambio climático, un nuevo material etc? y se abandonan la financiación lineas sólidas con evolución clara en el conocimiento etc…. ¿a quién interesa todo esto?
…. luego intentas comprar un disco duro para almacenar datos, análisis etc en plena época de la tecnología donde ya todo necesita soporte informático y ponen pegas a ese gasto (absurdo en cuantía) porque… dudan de que sea para almacenar tus películas en vez de los datos de tu lab…. patéticas/ridículas agencias de financiación que piensan que los científicos somos políticos!.
Y así el científico es un presunto delincuente por haber conseguido un proyecto de investigación…. No se admiten reparaciones del material con cargo a proyecto, no sea que repares la lavadora de tu casa…
en fin, paro que si no me enciendo y es domingo…. mejor ir por el aperitivo….
Salud

José María Díaz MínguezJosé María Díaz Mínguez

Tengo que mostrar mi total disconformidad con varias de las afirmaciones que haces. Decir que Plos One y Frontiers in Microbiology son revistas con bajísimo perfil científico es una falsedad. La importancia de una revista la mide su índice de impacto medio, y el de Frontiers es actualmente de 3.989. Decir que en esta revista es imposible rechazar un artículo como revisor es otra falsedad. Yo soy revisor habitual y he rechazado bastantes más manuscritos de los que he aceptado.

Por cierto, las reparaciones del equipamiento científico ya están incluidas en la última convocatoria (ya resuelta) de proyectos del MINECO.

Saludos

juan Rjuan R

Hola, mi pregunta es: el artículo que tú has rechazado… ¿ has buscado si finalmente seguro que no ha salido en la revista? o es posible que tú lo hayas evaluado como rechazado pero más tarde sale aceptado, porque lo pasan a otro revisor que le da el pase?. Es simple curiosidad, pero también te digo que eso ha pasado.
Mi experiencia en Frontiers para rechazar en un artículo es tal cual, es imposible (he terminado por no aceptar revisar papers en esa editorial, puedo estar equivocado, pero no digo cosas falsas así porque sí…. algo de experiencia también llevo a las espaldas). Si tú como revisor insistes en algunos puntos negativos… terminan por cambiar de revisor. Y se termina esa discusión “colaborativa” que tienen. Y eso ha pasado (no sé si en la microbiology…. pero si en algunas de neurociencias)
Sobre Plos One (y conste que tengo algún artículo publicado ahí) la cuestión es que su impacto ha caído casi dos puntos en dos años. En la web dicen que aceptan el 69% de artículos… yo lo que veo es otra cosa. Y alguna de neurociencia tiene entre 4 y 5 de impacto (que confieso está muy bien para el campo) en general no me convence lo que sale. Con la excepción de los trabajos de revisión sobre un tema, que suelen tener mucha calidad.

La importancia de la revista, como dices, la mide el índice de impacto medio. Y según el campo de investigación, un 3.9 puede ser mucho o puede no importante o relevante para nada.
Sobre las reparaciones del equipamiento científico lo que ha salido en la convocatoria recientemente resuelta no tiene carácter retroactivo. Así que no afecta a 2012…

Finalmente, insisto, puede que esté equivocado en alguna cosa sobre todo al intentar generalizar, pero no escribo falsedades, estimado Sr Díaz. Lo que he descrito me ha pasado en la revista nombrada. Tal cual. Así como el hecho de rechazar una reparación con cargo al plan nacional, y eso no es falso solo porque en la presente convocatoria haya terminado por aceptarse. Sobre la calidad científica de Plos One, lo que se habla en los laboratorios está más claro qeu el índice de impacto…. cuando no puedes colarlo arriba, lo envías a Plos One (y tampoco estoy falseando aquí, es lo que se habla en congresos, laboratorios etc…).Las cosas, en su sitio.
salud

yeilyeil

El índice de impacto depende del campo de estudio y ni siquiera eso indica la calidad de la revista. Hasta hace poco la revista más citada en mi especialidad era una donde sólo se publican opiniones de comités de expertos, es decir, el escalón más bajo de la evidencia (basados en otros artículos, pero opiniones).

De la misma manera, Frontiers no, pero Plos One es una revista generalista y ahí su factor de impacto pasa a ser relativamente bajo y no para de bajar.

Juan RJuan R

Hola yeil, pues justo eso es lo que comento en el penúltimo párrafo, que la relevancia del factor de impacto depende del campo de investigación (me cito a mi mismo: Y según el campo de investigación, un 3.9 puede ser mucho o puede no importante o relevante para nada).
Y si, también comento que plos one ha perdido cas 2 putos en los últimos 3 años, eso no dice nada bueno… pero cada uno haga sus interpretaciones.
salud

yeilyeil

En verdad a lo que me refiero es que el índice de impacto no es un indicador de la calidad de una revista, nunca lo ha sido. Pero a algún iluminado se le ocurrió utilizarlo como tal y así nos va.

0 (0 Votos)
Teresa Valdés-Solís (@tvaldessolis)Teresa Valdés-Solís (@tvaldessolis)

Es cierto que el índice de impacto de una publicación no debería ser utilizado directamente como índice de calidad de las mismas. De hecho no se utiliza el valor absoluto del mismo, por lo que comenta Juan R que depende del área sino su posición relativa en la categoría, especialmente si pertenece o no al primer cuartil (Q1), que normaliza en cierto modo el índice de impacto por categorías. Esto no quita que de todas formas el IF tenga su importancia porque las revistas nuevas, no indexadas y muchas, muchísimas de las Open access de concepto puro tienen IF bajísimos. Es cierto que si hacemos una búsqueda por palabras clave la revista donde se haya publicado depende menos, pero aunque cada vez menos también de vez en cuando se “ojean” los últimos artículos de algunas revistas de referencia en nuestro área y ahí vamos a las clásicas porque es imposible controlar toda la literatura científica de tu tema de trabajo. Cuando tienes un artículo para publicar o te fuerzan a publicarlo en algún sitio concreto por política de la fuente de financiación (que yo creo q es lo q debería hacer la UE) o vamos a los únicos criterios de calidad que tenemos, cuánta gente lee los artículos de una revista –> cita –> impacto y además me parece una forma de actuación legítima, porque todos queremos que nuestra investigación sea leída y citada. Con la proliferación de revistas de open access de los últimos años, y los predatory journals estos que tienen un título que se parece al de la revista buena de verdad pero que no lee nadie (ni tiene la más mínima repercusión) cualquiera se pone a buscar la revista más adecuada según el tema. Casi apetece volverse a los boletines antiguos y a las revistas del siglo pasado. En el otro post alguien proponía que nos pusiésemos de acuerdo los investigadores de un campo determinado para publicar todos en la misma revista OA y así subir el impacto (no por publicar más, sino porque se supone que será más interesante lo que se publique), esto también tiene el inconveniente de las autocitas en las revistas que se investiga (con razón) por parte de los que controlan estas cosas del IF, pero lo veo francamente difícil.
Gracias a todos por la discusión

0 (0 Votos)
Juan RJuan R

Sacado de las Guidelines for reviewers en Plos One (copiadas abajo). Básicamente tiene que ser técnicamente impecable. Pero los resultados, aunque tienen que ser originales, no tienen porqué ser novedosos ni de gran impacto.
Se pueden revisar igualmente las guidelines de cualquier otro open access…. ahí están en la web. Calidad científica? si pero cuando el autor así se lo propone, no porque la revista lo exija como premisa para aceptar.
Salud

Criteria for Publication

Unlike many journals which attempt to use the peer review process to determine whether or not an article reaches the level of ‘importance’ required by a given journal, PLOS ONE uses peer review to determine whether a paper is technically sound and worthy of inclusion in the published scientific record.

Juan RJuan R

las guías de revisión para Frontiers.
Una vez más: se publica todo lo “technically sound”.
nada de resultados novedosos o impactantes, solo válidos (da igual si simplemente replican otros resultados de trabajos anteriores etc) y la rejection solo basada en claros errores….

y sigan mirando las guidelines de otras open access….

Objective Review

Frontiers promotes a strict separation between review and evaluation. Frontiers editors and reviewers have the mandate to focus only on objective criteria evaluating the soundness of the study and to ensure that the results are valid, the analysis is flawless and the quality as high as possible. We publish all papers judged unanimously to be technically sound. Reviewers may recommend rejection based exclusively upon objective errors. Judgments regarding the importance of a paper can be made through open post-publication reviews and we use objective impact metrics – reflecting the opinion of the entire community – to spotlight outstanding discoveries and invite them to contribute a “Focused Review”.

Deja un comentario

Tu email nunca será mostrado o compartido. No olvides rellenar los campos obligatorios.

Obligatorio
Obligatorio

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>