La Impactolatría en la Ciencia

Desde los inicios de la ciencia, el ser humano ha sentido la necesidad de transmitir los conocimientos adquiridos al colectivo, partiendo de esa necesidad apareció la publicación científica como el resumen de los resultados obtenidos a través del trabajo investigativo y del método científico. Con el surgimiento de las revistas científicas se hizo indispensable el evaluar los trabajos publicados, es así que Eugene Garfield fue el primero en sugerir el concepto de «factor de impacto» (FI) basándose en el promedio de citas recibidas por las revistas. Lamentablemente el afán por conseguir un estatus en la comunidad científica ha degenerado en una especie de culto o adoración incontinente al factor de impacto como si se tratara de la panacea de la evaluación en ciencia, de ahí el término impactolatría.

La impactolatría conlleva una práctica simplista en la que se presupone que el FI de la revista y su reputación son indicativos absolutos de la calidad o importancia de una investigación concreta y, por extensión, de los autores de ésta. A continuación se presentan algunos ejemplos que tratan de demostrar en cierta forma como el sistema de FI no es del todo infalible.

El truco de la Autocitación.

El FI de una revista es un indicador bibliométrico que se obtiene dividiendo el número de citas que reciben en un año determinado los trabajos publicados en una revista a lo largo de los 2 años anteriores (numerador) por el número total de ítems citables publicados en dichos 2 años (denominador). Estos resultados son indizados y publicados por la Science Citation Index-Journal Citation Reports (SCI-JCR).

El truco de la autocitación, considerada como el número de veces que una revista se cita a sí misma en las referencias bibliográficas de sus artículos, contribuye a aumentar el FI  en el ranking de la JCR. Desde el punto de vista editorial, los intentos de forzar a los autores a aumentar el número de autocitas en sus manuscritos no están bien vistos, a pesar de esto, algunas revistas aún recurren a esta práctica.

Sin duda alguna el ejemplo más sonado, ocurrió cuando la revista internacional suiza “Folia Phoniatrica et Logopaedica,” publico el artículo “Reaction of Folia Phoniatrica et Logopaedica on the Current Trendof Impact Factor Measures,” donde se citan de forma intencionada a todos los artículos publicados en dicha revista en los últimos 2 años, como una demostración de lo absurdo del sistema, logrando con este único artículo que el índice de impacto suba de 0,67 a 1,439 pasando de la posición 22 a la 13 en su categoría. Otro caso un tanto más descarado, ocurrió con la revista Acta Crystallographica, en uno de sus artículos titulado “A short history of SHELX,” se incluyeron 5624 autocitas lo cual hizo que el índice de impacto de esta revista pasara de 2’38 a 49’93 en un solo año.

Como estos, muchos otros ejemplos han ido apareciendo, al parecer la autocitación se ha vuelto cada vez más prevalente con el pasar del tiempo, en las ediciones anteriores de la JCR se excluyeron 51 revistas en 2011, 34 en 2010, 26 en 2009, 20 en 2008, y 9 en 2007, la mayoría por tener un número excesivo de autocitas.

Una pregunta válida sería, ¿Por qué no se eliminan las autocitas del cálculo del índice de impacto? Desde hace algunos años, el JCR incluye tanto el índice de impacto con autocitas como sin ellas. Algunos estudios se han realizado sobre este problema cuyos resultados parecen demostrar que en la mayoría de revistas el índice de autocitación es poco significativo y que al parecer las diferencias del FI con autocitas no dista demasiado del sin autocitas, aunque algunos casos aislados parecen demostrar lo contrario.

¿Es el FI un indicador de prestigio?

En 1998 la revista británica The Lancet, una de las cinco revistas de medicina con más prestigio a nivel mundial, publicó un artículo titulado “Ileal-lymphoid-nodularhyperplasia, non-specificcolitis, and pervasive developmental disorder in children”, en el que se relacionaba a la vacuna triple viral (Sarampión, rubéola y paperas) con el desarrollo de alteraciones gastrointestinales y la presencia de síntomas regresivos autistas en 12 niños, el artículo generó una intensa controversia, se trataba ni más ni menos de la evidencia científica que tanto esperaban los grupos antivacunas, la noticia se difundió masivamente en los medios de comunicación del Reino Unido causando una ola de temor en los padres lo cual a su vez produjo que los índices de vacunación descendieran de forma espectacular.

Cuando se analiza el estudio, uno no puede dejar de notar la escasa calidad científica del mismo, se trata de un estudio descriptivo, sin grupo control ni enmascaramiento alguno, con una muestra de tan solo 12 participantes, la mayoría menores de 6 años a los que se les sometió a procedimientos cruentos como colonoscopias y tomas de biopsias sin un justificativo válido, y como si todo esto no fuera suficiente, posteriormente salió a la luz que el artículo había recibido financiación de un grupo de padres de niños con autismo, de lo cual no se dio constancia a la revista y mas grave aun, se logró descubrir, luego de una investigación periodística, que los datos habían sido manipulados de forma fraudulenta para hacerlos encajar con los resultados que se buscaba.

Ante el escándalo generado, The Lancet anunciaba que retiraba el estudio en cuestión en el 2010, sin embargo durante ese tiempo el artículo todavía era citable, y debido a la gran controversia que generó, acumulo un numero considerable de referencias aumentando de esta forma el factor de impacto de la revista.

Serias dudas se han generado a partir de todo esto, ¿como es que un artículo tan sesgado logró ser publicado en una revista tan prestigiosa?, ¿porque se permite que citas de artículos dudosos se contabilicen para el cálculo del FI? y sobre todo ¿es el FI un verdadero indicativo de prestigio y calidad científica?, muchas de estas preguntas aún no tienen respuesta.

Hacia un uso correcto del FI.

El FI debería ser entendido en su real dimensión, un indicador cuantitativo de investigaciones citables con una apreciación subjetiva de la supuesta calidad de las mismas. El problema principal surge cuando se deja de lado este concepto y se comienza a utilizar el FI con otros usos distintos a su principal función,  en este sentido, el propio Garfield recientemente reiteraba cuál era la utilidad del FI como herramienta para la clasificación y evaluación de las revistas, mientras que, a su vez, lamentaba que se estuviera haciendo un uso tan inapropiado del FI en ejercicios de evaluación de publicaciones y de curriculums de científicos.

———————————
Este artículo participa en los Premios Nikola Tesla de divulgación científica y nos lo envía Juan Diego Patino, médico residente y autor del blog NSMED.me. También puedes seguirlo en tuiter en @Juandp77.

Enlaces y Referencias

  • Jordi Camí. Impactolatría: diagnóstico y tratamiento. Medicina Clínica 1997;109(13):515-524
  • Schutte HK, Švec JG: Reaction of Folia Phoniatrica et Logopaedica on the Current Trend of Impact Factor Measures. Folia Phoniatr Logop 2007;59:281-285
  • Sheldrick, G. M. Acta Cryst. A64 2008: 112-122.
  • Saha S, Saint S, Christakis DA. Impact factor: a valid measure of journal quality? J Med Libr Assoc.2003;91:42-46
  • Wakefield AJ, Murch SH, Anthony A, Linnell, Casson DM, Malik M, et al. Ileal lymphoid nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children [retracted]. Lancet 1998;351:637-41
  • Fiona Godlee. Wakefield’s article linking MMR vaccine and autism was fraudulent. BMJ 2011;342:c7452
  • Garfield E. How can impact factors be improved? Br Med J 1996; 313: 411-413

18 Comentarios

Participa Suscríbete

Golem

El FI puede ser utilizado correctamente por cualquier institución o administración que quiera hacerlo. Lo que ocurre es que nadie se molesta en hacerlo. Como se ha dicho, hay datos con y sin autocitas, hay un factor del “endogamia” para cada revista y luego, para los autores tenemos lo mismo y más (índice h, por ejemplo). El problema no es el FI en sí mismo sino el uso ciego que se hace de él en casi todos los casos.

Milú el BárbaroMilú el Bárbaro

Las revistas científicas tienen montado un lobby cojonudo. Espero que otros países hagan como acaba de hacer Reino Unido, donde todas las publicaciones financiadas por el estado son de libre acceso (No es el único país).
De verdad, siendo el objetivo de las revistas propagar el conocimiento científico lo máximo posible, no entiendo cómo hay que pagar por leer cualquier publicación. Es demencial y totalmente contrario a la ciencia y al método científico.

JuanJuan

Ud dice :”…¿es el FI un verdadero indicativo de prestigio y calidad científica?, muchas de estas preguntas aún no tienen respuesta….”
Eso parece inexacto. Ya en 2007 la European Association of Science Editors (EASE) ya se había pronunciado sobre el tema.
De hecho, se ha buscado y se busca otras opciones : NTC, indice h. Por supuesto, hecha la ley hecha la trampa : estos indicadores son susceptibles de ser tan manipulados como el FI.
Aquí, Mesurer les chercheurs, Jean Paul Delahaye. Pour la science.n°401-Mars 2011, paginas 82-87, se trata este tema.

NB: Perdón por los acentos, escribo desde Francia, con un teclado francés y resulta difícil escribir correctamente en español !

martmart

milú: hay que pagar porque la gestión de las revistas científicas conlleva esfuerzo y dinero. No entiendo como alguien puede exigir a nadie que trabaje gratis y quedarse tan ancho. Este modelo tiene muchos defectos pero, no te engañes, éste es el que entre todos hemos favorecido y seguramente es por algo. Recuerda que para localizar contenidos de calidad hace falta algo más que libre acceso.
Tampoco el método científico dice nada de que las revistas deban ser gratis, como tampoco lo son los reactivos, ni los ordenadores. Y sí, la ciencia es riqueza y, por tanto, se comercia con ella.

Milú el BárbaroMilú el Bárbaro

El valor de la ciencia es los beneficios que genera a la postre para la humanidad, no el comercio con la información científica.
El hacer necesario el pago por la información es poner trabas a la divulgación del conocimiento, lo cual es contrario al método científico.
Y respecto a trabajar gratis, yo no he dicho eso. Puede ser un servicio público, o los costes de publicación pueden estar incluidos en el coste de la misma investigación… total, dentro de los costes de una investigación estará lo que pagan los investigadores por los artículos que lean (que no van a ser pocos).
Además así haces accesible la información a estudiantes, por ejemplo.

Cruz Enrique Borges HernándezCruz Enrique Borges Hernández

@mart

¿Me quieres explicar que costes conlleva una revista científica electrónica cualquiera cuando:

- Los autores NO cobran.
- Los revisores NO cobran.
- Los editores (por lo general) TAMPOCO cobran.
- El trabajo de maquetación y corrección es ridículo pues YA lo hacen los propios autores.
- Los costes de infraestructura son bajos o escasos (un servidor con ancho de banda suficiente y listo)?

Y aún así cobran:

- 1 500 € AL AÑO por acceder a los artículos de los últimos 5 años de esa revista… y de otras 10 que te han endosado (y que no te interesan lo más mínimo) porque solo las venden en packs… [1]
- o 30 € por el acceso a un pdf de 8 páginas… [2]
- o 3 000 € para publicar un artículo en open access… [3]

Multiplica por los miles de instituciones en el mundo que se pueden suscribir a revistas más o menos coherentes y mira a ver si es o no un negocio redondo para las editoriales…

[1] http://www.myelsevier.com/browse/pro...estid=17972
[2] http://www.sciencedirect.com/science...al/0885064X
[3] http://www.elsevier.com/wps/find/jou...ions#N10A68

PD: que conste que he escogido esta revista porque ha sido la primera que me ha venido a la cabeza de entre las que ya he publicado. De hecho, viendo los enlaces hasta me he quedado corto en los precios…

EstherEsther

Totalmente de acuerdo. Se trata de un negociazo denunciado desde hace años.

Un solo dato:

“Elsevier—the biggest of all the academic publishers—reports a 2011 profit of £768 million on revenue of £2,058 million, an astonishing 37.3 percent, compared for example with Apple’s 24 percent profit margin in their record-breaking 2011. This makes 2011 the fifth consecutive year in which Elsevier’s profit margin has increased”.

Extraído del siguiente artículo sobre el tema:

http://the-scientist.com/2012/03/19/...-is-broken/

martmart

Todo lo que decís es muy bonito, pero no es demasiado realista. Sé que he hecho de abogado del diablo. No pretendo ponerme del lado de los que claramente son un lobby que abusa de su situación de superioridad. Pero no nos quedemos en la crítica fácil y hagamonos una serie de preguntas, que realmente nos ayuden a “democratizar” la ciencia:

1- ¿habéis pensado que tal vez, el hecho de que se pague por la información científica, es lo que le proporciona independencia? creéis acaso que la tele que vemos, gratis, “democrática”, no la paga nadie?

2- ¿cualquier publicación científica vale? ¿cómo de grave es un error en un número de una tabla? Que los editores no cobren, y que los maquetadores y correctores hagan un trabajo “ridículo” , puede ser la diferencia entre revistas serias y profesionales y las pequeñas que desaparecen o se venden porque lo del amor al arte, creo que no sustenta ningún sector. Publicar un artículo de calidad es mucho más que recibir un original, leerlo y colgarlo.

3- Si fuera tan fácil como cruz enrique dice (un gran servidor y un contrato de internet…) ¿por qué no les haces frente? ¿por qué los proyectos de repositorios públicos no acaban de cuajar como herramientas de recuperación? ¿por qué las revistas “buenas e independientes” se acaban vendiendo a Elservier y cia? Echa un vistazo a las fuentes de información gratuitas y open access, que las hay y muchas y busca las 7 diferencias. En ellas está el valor añadido que esas empresas ofrecen y que hacen que todas las instituciones los contraten. No es sólo que tienen mucha información, es que es información depurada e innovan en recuperación de la información. Eso vale pasta. ¿cuánta? sólo depende de cuántos tengan lo que tú, y cuánto te puedan pagar por ello. Bienvenidos al mundo (real).

Conste que no digo que me guste la situación, sólo que para cambiar el modelo hay que aportar otro modelo que funcione y eso hay que trabajarlo más profundamente que repitiendo una historia de buenos y malos muy malos malísimos.

Y volviendo al tema del factor de impacto:
http://scholarlykitchen.sspnet.org/2...act-factor/

Cruz Enrique Borges HernándezCruz Enrique Borges Hernández

>1- ¿habéis pensado que tal vez, el hecho de que se
>pague por la información científica, es lo que le
>proporciona independencia? creéis acaso que la tele que
>vemos, gratis, “democrática”, no la paga nadie?

Nadie ha dicho que no haya que pagar por ella, solo digo que haya que pagar LA BURRADA que se está pagado dados los beneficios MULTIMILLONARIOS que están teniendo las editoriales.

> 2- ¿cualquier publicación científica vale? ¿cómo de
> grave es un error en un número de una tabla? Que los
> editores no cobren, y que los maquetadores y correctores
> hagan un trabajo “ridículo” , puede ser la diferencia entre
> revistas serias y profesionales y las pequeñas que
> desaparecen o se venden porque lo del amor al arte,
> creo que no sustenta ningún sector. Publicar un artículo
> de calidad es mucho más que recibir un original, leerlo y > colgarlo.

¿Perdona? ¿Desde cuando el tener una revista que cobre un pastizal garantiza NADA de lo que expones? Yo he visto cada burrada publicada en revistas decentes… y cuanta “mala ciencia” ha sido publicada en Nature y Science solo porque tiene un impacto brutal aunque sea negativo? (véase el último caso de la bacteria que había introducido el arsénico y que al final nada de nada…).

La calidad de una revista reside SOLO Y EXCLUSIVAMENTE en la entereza científica del editor y de los revisores y eso no tiene ABSOLUTAMENTE nada que ver con lo que cobre la revista por publicación… ni con lo que cobren los editores y revisores, por cierto.

La parte técnicas ahora mismo es TRIVIAL. Se pueden maquetar revistas de una calidad técnica por muy poco presupuesto, lo que no hay forma de hacer es conseguir que el contenido sea decente si no se “pasa por el aro”, y te explico en el siguiente punto porqué.

> 3- Si fuera tan fácil como cruz enrique dice (un gran
>servidor y un contrato de internet…) ¿por qué no les
>haces frente?

Por una simple razón, ÍNDICE DE IMPACTO. Empezar una revista es un marrón de mil pares de narices. Te explico lo que tienes que hacer:

- Convencer a unos señores para que revisen DE GRATIS y sin conseguir nada a cambio un montón de artículos.
- Convencer a otros señores para que hagan de editores y decidan a qué personas hay que enviar los artículos para que sean revisores (y estos tampoco ganan nada).
- Convencer a un buen puñado de colegas para que escriban buenos artículos y te los envíen a tu revista SIN QUE CONSIGAN NADA A CAMBIO (principalmente puntos que les permitan promocionar internamente en sus instituciones). Éste último es el punto clave. Si consigues resolver este punto, todo lo demás viene solo.

Si tienes alguna idea de como hacer esto (yo te propongo una más abajo), me la comentas que. Yo estoy dispuesto a hacer la revista porque ahora mismo el negocio editorial científico es un OLIGOPOLIO de facto.

> ¿por qué los proyectos de repositorios
>públicos no acaban de cuajar como herramientas de
>recuperación?

Pues yo uso google scholar sistemáticamente para recuperar información gratuita y me consta que arXiv.org se usa también en otras ramas de la ciencia.

> ¿por qué las revistas “buenas e
>independientes” se acaban vendiendo a Elservier y cia?

Pensando bien: porque te lo dan todo muy mascadito (y el precio para tí no es un problema, en cuanto empiecen a cortar el grifo de las suscripciones a revistas en las universidades ya verás como estas cosas van a cambiar…),
Pensando mal: piensa en las técnicas que usa microsoft y las grandes farmacéuticas.

>Echa un vistazo a las fuentes de información gratuitas y
>open access, que las hay y muchas y busca las 7
>diferencias. En ellas está el valor añadido que esas
> empresas ofrecen y que hacen que todas las
> instituciones los contraten. No es sólo que tienen mucha
>información, es que es información depurada e innovan
>en recuperación de la información. Eso vale pasta.
>¿cuánta? sólo depende de cuántos tengan lo que tú, y
>cuánto te puedan pagar por ello. Bienvenidos al mundo
>(real).

Insisto, google scholar a mi me funciona perfectamente bien (supongo que la pasta la sacan de publicidad o vete a saber de donde). Mucha gente publica sus artículos en su web pues el “impacto” que obtienen es MUY superior que el que consiguen por la revista (allí solo van a conseguir sus “puntos burocráticos”).
http://www.informatik.uni-trier.de/ también (la pasta aquí de una universidad, supongo).
La wikipedia ya han dicho varios estudios que está al nivel de la enciclopedia británica (pasta de voluntarios). arXiv.org tres cuartos de lo mismo (ni idea de donde sacan la pasta).
Me consta que hay varias bases de datos de biología que son open access y que han sido pagadas vía impuestos.
Yo con este tipo de recursos suelo escapar.

>Conste que no digo que me guste la situación, sólo que
>para cambiar el modelo hay que aportar otro modelo que
> funcione y eso hay que trabajarlo más profundamente
>que repitiendo una historia de buenos y malos muy malos
> malísimos.

Yo no estoy diciendo que no se deba “cobrar” por el acceso a la ciencia, solo estoy diciendo que no debería haber “ánimo de lucro”. O por lo menos no “ánimo de montar un oligopolio y exprimir al personal”. Y lo peor de todo es que con una simple decisión política (que se deje de medir a la gente por el IF y se pase a evaluar el contenido de los CV) se podría terminar con esta situación ridícula a la que estamos llegando.

> Y volviendo al tema del factor de impacto:
> http://scholarlykitchen.sspnet.org/2...act-factor/

Pues muy bien que me parece, pero deberían de ser MUCHO más estrictos. Ahora mismo voy a publicar un artículo en una revista en la que me están “aconsejando” que incluya citas de la propia revista de los últimos dos años… y tendré que pasar por el aro si quiero comer en el futuro. Y esta práctica me consta que es bastante generalizada… ¿es eso ético y/o moral?

martmart

Hola Cruz. Disculpa de antemano el rollo que voy a soltar, pero es una tema apsionante y no me he podido contener…

1- Me dices que nadie ha dicho que tenga que ser gratis: Cito textual de Milú el Bárbaro: “De verdad, siendo el objetivo de las revistas propagar el conocimiento científico lo máximo posible, no entiendo cómo hay que pagar por leer cualquier publicación. Es demencial y totalmente contrario a la ciencia y al método científico.” Y en el siguiente comentario lo repite. Y mucha gente lo repite, porque es fácil decir estas cosas. Yo también las decía antes, parece tan obvio…

2- Yo si que no he dicho que haya que pagar multimillonadas ni bajarse los pantalones ni nada de eso. Sólo que si queremos luchar contra el oligopolio habra que hacerlo con armas mejores que con la queja lastimosa de que no es justo y tal y cuál. Lo de hacer revistas libres y baratas y de éxito sería fantástico. Pero resulta que la ciencia, como actividad humana que es, está sometida a distribuciones que se alejan mucho del concepto de justicia, pero se acercan en cambio a la eficiencia. Y tú mismo, seguro que antes lees o escuchas a gente que ya conoces porque no puedes dedicar tu precioso tiempo a descubrir talentos. Con la diferencia de que en ciencia, al final, los hechos se abren camino. Y la mala ciencia publicada en Nature etc. acaba finalmente en retractaciones, a diferencia de lo que ocurre en muchas fuentes abiertas sin responsables detrás. Eso de los pasos atrás SÍ que es inherente al método científico. Y sabemos que el argumento de autoridad es una falacia, pero también sabemos, aunque muchos no lo reconozcan, que necesitamos de él (nadie puede comprobar todo).

3- Sobre que se utilice el factor de impacto.. estoy totalmente de acuerdo con el post, y lo haría extensivo a otros indicadores bibliométricos, como el índice h o los ránkings de universidades. Pero que alguien utilice un martillo para dar martillazos en la cabeza a la gente no invalida al martillo como herramienta.

4- Las nuevas tecnologías representan una oportunidad de cara a lograr una acceso más abierto y democrático a la ciencia. De hecho a nadie se le impide publicar nada, ni siquiera las magufadas, ni los malos trabajos de investigación. Pero de alguna manera hay que cribar en función de la calidad. Ese sistema alternativo que se propugna, existe. Las universidades tienen sus repositorios, se está haciendo “altmetrics”, hay miles de blogs científicos, constantemente se generan nuevos indicadores alternativos al factor de impacto. Pero de momento el sistema alternativo no ha superado en fiabilidad al antiguo, y por eso el antiguo persiste.

5- Lo de medir a la gente por el CV… piensalo 2 veces… sería con seguridad muucho peor. Es mucho más subjetivo y sería inviable para cada investigador comprobar la calidad de cada publicación en sí misma. El FI se inventó para facilitar la evaluación, asumiendo que se perdía información. Por cierto… la falta de ética ¿es de los evaluadores por utilizar herramientas tan “zafias” o de los investigadores que trampean con las autocitas, partiendo artículos y firmando otros que no han escrito?.
Y estoy de acuerdo en que es bastante triste tener que fijarse en el “prestigio” de una publicación pero… ¿qué propones? que el señor del cneai se mire todas las revistas en las que has publicado y decida si son buenas o malas? estás seguro de que eso sería mejor?

6- Sobre lo de Google Scholar: se trata en efecto de un excelente buscador, pero por el momento no puede sustituir a las bases de datos académicas. Sería largo darte aquí todo el detalle pero, para abrir boca: las opciones de la pantalla de búsqueda son muuyy escasas (en comparación), no puedes ordenar los resultados y las fuentes que incorpora o deja de incorporar son secretas. Lo cuál no es muy científico tampoco. Eso como fuente de información. Como herramienta para calcular el impacto, te lo explican mejor aquí: http://ec3noticias.blogspot.com.es/2...ions-y.html
Por otro lado, en absoluto es gratis el texto completo de todo lo que se encuentra a través de Google Scholar. Resulta que aquellos que emprenden el “marronazo” de montar una revista y lograr que en ella escriba más gente aparte de sus amiguitos, al final quieren algo a cambio … Igual que los autores.. “…difusión universal de la ciencia, sí, sí… pero quiero mis sexenios y mis aplausos!”. No lo critico, al contrario, lo entiendo.

El sistema de publicación y reconocimiento que hay no es justo ni perfecto, pero es el que hay en un mundo con recursos limitados, y la ciencia se abre camino por él. Por otro camino tal vez fuera más fácil, pero también lo sería para la pseudociencia y la mala ciencia, y eso tampoco lo queremos, ¿no?

0 (0 Votos)
Juan Carlos

Curioso el caso del científico que trabajaba -no se si lo sigue haciendo, en Doñana y se inventaba las investigaciones e incluso sus colaboradores… y todo por llegar lo más deprisa posible arriba. Saludos.

JuanJuan

Estoy completamente de acuerdo que si la ciencia fuera un bien publico, su divulgación y masificación  serian mas fáciles, el problema es que en el sistema actual, urge las ansias de publicar lo que sea y como sea y no el buscar descubrimientos científicos que en verdad aporten algo nuevo y útil.

Daniel

El factor de impacto, como las citas, es sencillamente el único criterio objetivo y cuantitativo para evaluar revistas (o investigadores). Quien tenga otro que lo proponga. Entretanto, úsese con criterio.

Daniel

Los tiempos en los que no se tenía en cuenta el impacto de las revistas en las que publicábamos están muy cerca, en España. Y creedme, no queremos volver a esos tiempos.

LuisLuis

“Serias dudas se han generado a partir de todo esto…”, ” Algunos estudios se han realizado sobre este problema…”: ¿escribes en inglés o en español?

ElsevierElsevier

Creo recordar que en Elsevier pueden encontrarse los artículos de una revista sobre homeopatía… eso deja muy claro los zarpazos que se pueden meter en estos temas.

MarcosMarcos

Como reciente doctor, con cierta experiencia en el tema de las publicaciones científicas, quiero hacer una serie de comentarios sobre el tema del índice de impacto y la política lucrativa de las revistas científicas.
El sistema de publicación científica, tal y como es hoy en día, es un negocio. Las revistas, o bien cobran a los suscriptores (forma normal de publicación), o bien cobran a los autores (forma Open Access). Por esa razón, las editoriales quieren hacer el máximo negocio posible, y utilizan para ello toda herramienta posible. El índice de impacto es una herramienta de promoción demasiado jugosa como para no corromperla.
De mis experiencias personales, puedo decir que las revistas quieren más artículos que vendan mucho a artículos buenos. En un paper mío llevado a revisar por tres personas, una de ellas vio que era bueno, aunque con correcciones; un segundo dijo que por qué había malgastado su tiempo en leer esa basura, y un tercero dijo que estaba bien pero que no llegaba a la calidad elitista de la revista a la que lo envié. Éste es el cáncer de muchas revistas: si el paper no es elitista, para los editores no vale nada.
La consecuencia es que el índice de impacto crea castas entre los journals y una competencia feroz entre los investigadores. Para conseguir becas y financiación, hay que publicar en revistas de alto impacto. Eso hace que las revistas con un índice de impacto ligeramente superior que otras reciban más papers para publicar que las revistas con un índice de impacto ligeramente más pequeño. Tras varias iteraciones de este proceso, al final hay sólo cinco o seis revistas en cada rama de la ciencia que reciben la mayor parte de los papers, y una masa de revistas cuasianónimas que nadie conoce y que reciben los restos y migajas que dejan las grandes.

4 Trackbacks

Información Bitacoras.com…

Valora en Bitacoras.com: Desde los inicios de la ciencia, el ser humano ha sentido la necesidad de transmitir los conocimientos adquiridos al colectivo, partiendo de esa necesidad apareció la publicación científica como el resumen de los resultado……

Deja un comentario

Tu email nunca será mostrado o compartido. No olvides rellenar los campos obligatorios.

Obligatorio
Obligatorio

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <p> <q cite=""> <strike> <strong>