El índice Kardashian

La foto que "rompió" internet - Kim Kardashian
Kim Kardashian en la foto que “rompió” internet

Kim Kardashian es eso tan curioso que se conoce como «una famosa». A pesar de que no se sabe que haya hecho nada relevante en ningún tema relevante (ciencia, política, arte, música, crimen), es una de las personas con más seguidores en twitter (26,6 millones) y su nombre está entre los más buscados en google. Al parecer su fama inicial proviene de un encuentro privado entre ella y un amigo, que fue grabado en video en 2003 y esa particular película amateur acabó en ese conventillo virtual que es internet en 2007. La demanda que presentó a la distribuidora Vivid Entertainment se zanjó con un acuerdo por 5 millones de dólares y pasó a ser lo que en el mundo anglosajón se denomina una «celebrity», el salto a la fama.

Es cierto que su entrada en Wikipedia la define como actriz, diseñadora de moda, personaje social, personalidad de los medios sociales y la televisión, modelo y mujer de negocios pero no es menos cierto que esos negocios se basan en unir su nombre y su perfil público a una marca determinada o un evento. Recibe «royalties» de lápices de labios, zapatos, ropa, alimentos dietéticos, videos de gimnasia, videojuegos y hasta pastelitos. A lo largo de los años ha tenido cameos en distintas series, ha participado en concursos estilo Mira quien baila, ha actuado en distintas películas, ha sido tertuliana —en 2010 se le consideró el personaje mejor pagado de televisión, con unos ingresos estimados en 6 millones de dólares anuales— y ha tenido su propia serie de televisión. En invierno de 2014 ella, o mejor su culo, fue protagonista de la portada de la revista Paper. Hubo muchas críticas tanto en los medios tradicionales como en internet a lo que era considerado un importante retroceso en la defensa de una imagen digna de la mujer y también es cierto que la página web de Paper pasó de las 25.000 visitas que tenía de media, a 15,9 millones en un solo día.

La fama y la popularidad entre los investigadores es un asunto resbaladizo. Neil Hall recuerda el caso de Mary Anning, una fosilista, como se llamaba en su tiempo a los paleontólogos, cuya recolección meticulosa y prolífica de fósiles fue clave en el avance de la Historia Natural en el siglo XIX, en particular en el conocimiento de la extinción de las especies. Otro ejemplo es el Ada Lovelace, la hija de Lord Byron que ha sido reconocida, también mucho después de su muerte, como la escritora del primer programa informático o Rosalind Franklin, cuya investigación fue decisiva para elucidar la estructura del ADN y tuvo muy poco reconocimiento en vida. A eso sumo yo el caso de Marthe Gautier, probable descubridora de que el síndrome de Down es una trisomía. No es casualidad que las cuatro sean mujeres.

La fundación de la Royal Society de Londres en 1660 creó un nuevo tipo de ciencia. Hubo el primer científico a sueldo (Robert Hooke, descubridor de la célula y comisario de experimentos), la primera reunión periódica de especialistas (congresos, simposia y encuentros, como los que ellos realizaban en el Gresham College), la comunicación internacional (como las cartas que Leeuwenhoek mandaba desde Holanda con sus descubrimientos) y la publicación de los resultados de la investigación no solo en libros sino también en revistas especializadas (Philosophical Transactions of the Royal Society, fundada en 1665 )

Este modelo ha llegado con bastante uniformidad hasta nuestros días. Voy a hacer una serie de afirmaciones que creo tienen un respaldo mayoritario entre los investigadores pero también, en mi opinión, un apoyo que es decreciente en el orden en que las presento:

1.- La investigación debe ser publicada. Algunos llegan a decir que la investigación no publicada, no existe. Una investigación no publicada no puede ser juzgada, ni puede ser confirmada o continuada y corre el riesgo de ser repetida, con el consiguiente dispendio de tiempo, esfuerzo y dinero.

2.- La publicación de una investigación debe buscar la máxima difusión, por lo que debe hacerse en inglés. Aquí existen críticas tanto desde un punto de vista nacionalista —nuestro idioma debe ser una lengua científica— o justificaciones por una supuesta especificidad de la investigación —yo estudio los orígenes etnológicos de la sardana, por lo que mis lectores va a ser mayoritariamente catalanes y debo dirigirme a ellos en su lengua aunque mi investigación sea tan interesante e importante como lo mejor publicado en inglés.

3.- La mayor difusión la tienen las revistas que llamamos «de impacto» por lo que debemos intentar publicar en ellas. Algunos investigadores que no publican en estas revistas siempre utilizan el argumento de artículos malos publicados en buenas revistas o artículos excelentes publicados en revistas desconocidas, pero parece claro que se trata de excepciones a una regla general que podemos definir como que la mejor investigación se publica normalmente en las revistas mejor valoradas.

4.- El impacto de una publicación determinada se puede medir con indicadores bibliométricos como el número de citas por otros autores. Asumido esto, es también cierto que un tipo determinado de artículo como los metodológicos o las revisiones tiene comparativamente muchas citas y un articulo especialmente malo, como un plagio o un supuesto avance que luego resulta ser falso, recibirá un numero alto de citas, aunque sea para vilipendiarlo. Como regla general, en los artículos «normales» la investigación más novedosa será normalmente más citada, siempre por supuesto comparando dentro de la misma disciplina.

5.- La calidad relativa de un investigador es difícil de medir pero se puede conseguir una aproximación razonable con sus publicaciones (cantidad, calidad de las revistas y citas específicas de sus artículos). Estos criterios son los usados en muchas de las evaluaciones tanto para la financiación de un proyecto como para una promoción en la universidad o en el CSIC. La prueba de que no es fácil es que no se usa un algoritmo que permitiera una valoración automática ni tampoco es un trabajo mecánico que pueda ser hecho por personal administrativo sino que se requiere siempre la participación de especialistas del mismo área de conocimiento y nivel similar o superior al solicitante que puedan hacer una evaluación razonada.

6.- Hay que complementar la publicación especializada con una difusión más amplia de las investigaciones. Un artículo en una revista especializada tiene por definición una audiencia reducida, los especialistas que trabajan en el mismo tema o un tema relacionado. Las agencias de financiación de la investigación requieren frecuentemente un plan de difusión de la investigación. Se piensa que es parte de un retorno: como la investigación es financiada por la sociedad con sus impuestos hay que darle cuentas de lo realizado y conseguido. Bastantes investigadores reniegan de esta exigencia y la consideran una pérdida de tiempo, un requisito molesto, una degradación. Personalmente creo que es algo necesario y adecuado, imprescindible para aumentar la cultura científica de la sociedad y aumentar el respaldo a la investigación.

7.- Los investigadores deben usar las redes sociales. No sé siquiera si en una encuesta el respaldo a esta afirmación sería mayoritario e imagino que hay también un componente generacional. Quizá es necesario distinguir entre medios de comunicación tradicional (redes sociales clásicas) y los medios digitales (redes sociales modernas). Muchos investigadores usamos redes sociales pero es posible que la mayoría lo hagan más para aspectos personales que profesionales. Por otro lado, hay muchos divulgadores que utilizan con fruición las redes sociales para contar investigación aunque no sean ellos los que la han hecho. El número de científicos que usan twitter, Facebook, pinterest u otros para difundir su investigación creo que va creciendo pero es aún minoritario.

En julio de 2014 Neil Hall ha publicado un estudio en la revista Genome Biology donde establece un nuevo índice que ha denominado índice Kardashian.

Índice Kardashian
Índice Kardashian

Medio en broma, medio en serio, Hall compara el impacto especializado de un investigador (medido mediante el número de citas de sus publicaciones) con el impacto social del mismo investigador (medido mediante el número de seguidores en twitter). Ha seleccionado una muestra de 40 investigadores que llevan un tiempo en twitter, ha eliminado aquellas referencias iniciales de la Genómica que se han convertido en «clásicos» y por eso son citados reiteradamente y ha establecido una correlación. Por encima de un valor de 5 estarían los científicos «kardashians», aquellos que son famosos, tienen mucha presencia social, salen en programas de televisión o medios de comunicación pero luego no tienen apenas investigación relevante propia. Aquí lógicamente no encajan los divulgadores, periodistas y otros profesionales que hacen una magnífica labor pero no hacen investigación. Valores de índice Kardashian (K-index) muy bajos significan —según Hall— científicos infravalorados, cuya investigación es reconocida por sus colegas pero no por el público en general o que simplemente no trabajan las redes sociales.

El índice Kardashian se puede definir como la razón entre el número de seguidores en twitter (S) y el número de seguidores esperable (Se) según el número de citas de sus trabajos (C)

Se=43,3.C0,32

IK= S/Se

La revista Science exploró el índice Kardashian y resulta

1)     Solo un quinto de los científicos con más impacto (con más citas) tenían una cuenta de twitter identificable.

2)     Los tres científicos con más seguidores en twitter tienen índices K muy altos, lo que les convertiría según Hall en científicos kardashians pero todos reconocemos un alto valor a su trabajo, para la ciencia y para la sociedad.

Neil deGrasse Tyson, astrofísico tiene más de 2,4 millones de seguidores en su cuenta de twitter (@neiltyson) pero solo 151 citas, así que su K-index es de 11.129.

Brian Cox, físico, tiene 1,4 millones de seguidores en twitter (@ProfBrianCox) y 33.301 citas, por lo que su K-index es de 1.188.

Richard Dawkins, biólogo, tiene 1.02 millones de seguidores en twitter (@RichardDawkins), 49.631 citas, por lo que su K-index es de 740.

En mi caso, en el momento en que escribo esto, mis seguidores en twitter (@jralonso3) son 1.513 y las citas a mis artículos científicos 2.540, por lo que mi K-index es 2,8.

Me parece una propuesta provocadora y divertida pero creo que tiene muchos flancos débiles:

  • Igual que los mejores científicos a veces son malos profesores, pueden ser un desastre en las redes sociales y viceversa.
  • Las redes sociales priman ciertos perfiles (provocativos, exhibicionistas, conflictivos, divertidos, etc.) No son perfiles particularmente relacionados con la actividad científica.
  • El perfil público y el número de seguidores se multiplica por la presencia en medios tradicionales, en particular la televisión, que a su vez busca a la gente popular. Kim Kardashian es un buen ejemplo. Es un factor enorme de distorsión.
  • La mayoría de los científicos que estamos en twitter no tuiteamos exclusivamente ni siquiera mayoritariamente sobre nuestra propia investigación. Son las mismas personas pero dudo que sean actividades paralelas. ¿A mayor investigación, mayor presencia en twitter, más seguidores? No lo creo.
  • Sería interesante ver los seguidores de los investigadores que además somos profesores ¿Son nuestros alumnos? ¿Sumamos una nueva cohorte cada año?

El análisis por Science de los 50 científicos (anglosajones, aunque ellos no lo indiquen) con más seguidores en twitter muestra otro aspecto deprimente: solo cuatro son mujeres. El análisis por Mètode de los científicos tuiteros en España tuvo el mismo problema, las mejores no aparecían inicialmente aunque fueron detalladas en los comentarios. El porqué es complejo. La astrónoma Pamela Gay (@starstryder), cuyos 17.000 seguidores la ponen en el puesto 33º dice que es algo que no le sorprende porque a la sociedad todavía le cuesta reconocer a mujeres como líderes en ciencia. Las científicas también tienen más probabilidades de sufrir comentarios sexistas de los típicos imbéciles que se esconden en el anonimato. Según ella decía «En algún momento te hartas con todos los comentarios del tipo “porque eres fea” o “porque estás buena”».

Algunos académicos son muy críticos sobre el tiempo dedicado a las redes sociales mientras que otros pensamos que es una herramienta útil y un tiempo bien invertido. En este post puedes leer cómo usar twitter como una herramienta para la docencia y la investigación.

En junio de 2014, Kim Kardashian sacó un juego para móviles (iPhone y Android) titulado Kim Kardashian: Hollywood. El objetivo del juego es convertirte en una estrella de Hollywood o una starlet. Como muchos otros juegos para móviles, tiene una versión gratuita y luego pequeños cargos para nuevas prestaciones. El juego fue un éxito ganando 1,6 millones de dólares en sus primeros cinco días. En julio, la empresa desarrolladora, Glu Mobile, anunció que era el 5º juego según beneficios en la Apple Store. ¡Esto sí que es otro tipo de ránking y factor de impacto!

Para leer más:

Hall N (2014) The Kardashian index: a measure of discrepant social media profile for scientists. Genome Biol 15(7): 424. http://genomebiology.com/content/pdf/s13059-014-0424-0.pdf

You J (2014) The top 50 science stars of Twitter. Science http://news.sciencemag.org/scientific-community/2014/09/top-50-science-stars-twitter

http://en.wikipedia.org/wiki/Kim_Kardashian

26 Comentarios

Participa Suscríbete

AlbertAlbert

El número absoluto de citas no es necesariamente representativo de la calidad de tu investigación. Si produces un volumen mayor (no necesariamente mejor), también tendrás un número mayor de citas. Si trabajas en un área oscura (en ingeniería se tienen menos citas y casi cualquier área tiene un volumen de citas muy inferior a la biología, por ejemplo), poco fructífera (donde se producen muy pocas publicaciones al año) o que resulta fundamentalmente incorrecta (a veces trabajas en ciertas ideas, publicas y, poco tiempo después, la base sobre la que se sustenta tu trabajo se reconoce errónea), también tendrás muchísimas menos citas. Por estas cosas no se debería evaluar a un científico por términos absolutos, su trabajo debería evaluarse de manera individualizada. Esto, para los que tengan curiosidad, no ocurre. En general, cuantas más publicaciones tengas más fácil lo tendrás para seguir en la carrera investigadora. Aunque publiques, como ocurre casi en el 100% de los casos, pura mierda.

Dicho esto, 151 citas no es un volumen despreciable de citas. Muy probablemente la mayoría de tus profesores en la universidad no tuviesen más de 20 en todos sus artículos (con suerte). Tampoco son un mogollonazo de citas, pero Neil Tyson no es famoso por su producción científica sino por su trabajo en el planetario Hayden y su increíble labor divulgativa.

José Ramón

Buenos días, Albert
El artículo ya indica que la evolución de los científicos se hace de forma individualizada. No sé porqué dices que no ocurre. Participo en evaluaciones para Aneca y otros organismos de currículos individuales y siempre es de manera individualizada.
Tampoco sé de dónde sacas eso de que casi en el 100% se publica pura mierda. Es injusto y un insulto para todo el que hace un trabajo honesto y quiere avanzar en la carrera científica.
Tampoco creo que sea cierto que la mayoría de los profesores de una universidad no tengan más de 20 en todos sus artículos. Yo no creo ser el mejor de mi universidad (sí estoy entre los buenos 😉 ) y tengo más de 2.000.
Por último, a mí también me ha chocado que Tyson, que me encanta, no tenga más citas. Pero viendo su agenda para el comienzo de año: http://www.haydenplanetarium.org/tys...appearances
Si casi cada día tienes que dar una conferencia en un estado diferente, no suele ser lo mejor para investigar.
¡Salud!

AlbertAlbert

Hombre, no lo digo por decir, hablo desde la experiencia. Yo no he evaluado en la ANECA (aunque sí tengo varios compañeros que están y me he cansado de leer y revisar artículos), pero estoy por ver a una persona con 20 artículos mierdosos en JCR quedar por detrás de algunos de los que conozco con 5 genialidades en JCR. Al final el volumen pesa mucho más que la calidad de la investigación. Si fuese cierto que lo que cuentan es la calidad, no habría ningún problema con que una de esas personas que publica un JCR excelente cada año/dos años quedase por delante de la masa de investigadores que sacan, mágicamente, 10-15 al año.

Es que yo lo siento mucho por el que se sienta ofendido por mi generalización, pero he visto una y otra vez (especialmente en esta situación de crisis) quedarse fuera (como en: se acabó tu carrera investigadora/docente) a gente buena mientras hordas de inútiles que no investigan porque están demasiado ocupados publicando en 10 revistas a la vez (no, no exagero) llevan carreras meteóricas.

Tengo compañeros que tienen plazas de titular o contratado doctor y, si eliminamos las autocitas, no suman 10 citas en 20 artículos. Tal cual.

Tampoco quiero echar más mierda sobre el sistema de evaluación de la ciencia en España (y aquí va una referencia obligada a los resultados), pero tengo suficientes amigos bien arriba en la agencia como para hacerme una idea bastante precisa de qué se valora y cómo se valora. Al final tienes dos opciones: calidad o volumen. Los que han (hemos) optado por lo primero nos hemos llevado algún susto gordo; algunos, como he comentado, definitivo. Los que han optado (nos hemos resignado) por lo segundo son los que sobreviven.

José Ramón

Se valora cantidad y calidad, las dos cosas. Eso de que hay una masa de investigadores que sacan 10-15 artículos indexados al año, simplemente no es cierto. Pocos, por no decir poquísimos, consiguen esa “productividad”. Al evaluar te fijas en más cosas, revista, puesto de la revista en su área de conocimiento, puesto del evaluado entre los firmantes y la propia calidad del artículo. Para ver que se prima calidad frente a cantidad, un detalle es que en los tramos de investigación debes reseñar en primer lugar (aunque luego incluyas todo el cv) 5 aportaciones de un período de 6 años, ni siquiera una al año. No sería muy buena estrategia hacer 10-15 artículos de medio pelo al año.
Eso que dices de la gente buena que se queda fuera mientras “hordas de inútiles que no investigan porque están demasiado ocupados publicando en 10 revistas a la vez”. No sé cómo demonios se puede publicar tanto en revistas de investigación sin hacer investigación, del tipo que sea, del nivel que sea. Ya me lo explicarás y me dirás si es la norma o es una excepción.
El que tengas compañeros sin citas en sus artículos no sé en qué sentido te permite sacar una conclusión general. En todas las profesiones hay personas que se adocenan, o tienen suerte, o son vagos pero eso no es ni mucho menos la norma en el mundo de la investigación.
Lo de que hay que elegir entre calidad o volumen tiene su punto de razón (puedes juntar muchos resultados en un artículo muy potente o sacarlo en varios más pequeños) pero no es cierto que se prime el volumen. En muchos currículum normalizados te piden ya una selección de artículos (los diez mejores) por lo que sería un error dedicarse a hacer artículos de medio pelo.
Por último, la evaluación de la investigación no la hacen marcianos, la hacen otros investigadores de un área de conocimiento cercana a la tuya. Como todo, es mejorable, pero en mi opinión es mucho más que aceptable. ¿O no hay que evaluar a los investigadores? Y si hay que hacerlo, ¿cuál es tu propuesta? ¿O quieres científicos Kardashian?

RobacterioRobacterio

El hecho de que incluyas “revista” entre las cosas que se tienen en cuenta (por no hablar de que lo menciones en primer lugar) deja muy claro lo perdidos que estais los que tomas decisiones, y el sistema cientifico con vosotros, me temo.
Que habria que evaluar? Calidad de la investigacion (rigor, avance en conocimientos, originalidad, etc.). Y punto.
El rollo de las revistas resulta muy conveniente a segun quien, claro…

0 (0 Votos)
vicentevicente

Discúlpeme si “ensucio” este post con mi comentario y le agradecería que lo borrase en ese caso. Tan solo quería comentar que por el título del post uno se espera encontrar un índice sobre la relación ancho de caderas/ancho de cintura, sobre todo teniendo en cuenta la foto que lo ilustra…

José Ramón

Ningún comentario educado ensucia un post. La leyenda dice que Kim Kardashian colocó las células de grasa extraídas en una liposucción en su trasero, lo que favorecería ese segundo “índice Kardashian” que usted menciona.
En realidad, el post quiere hablar de la celebridad científica de los investigadores (que supuestamente podemos medir en el número de citas de sus artículos científicos) frente a la celebridad social (uno de cuyos posibles indicadores sería el de seguidores en twitter). Al final, intentaba incidir en la diferencia entre lo que haces y lo que pareces, la investigación pura y su difusión, con un poco de humor.

GerardoGerardo

El dr Jose Ramon está cumpliendo con su cuota de articulos para el #lunesTetas.

Felicitaciones, sigan así!

Amc^2Amc^2

¿Que numero de citas tiene Albert Einstein y cual es su numero de publicaciones?

José Ramón

Google Scholar da para Einstein un total de 87.526 citas. El número de publicaciones es de varios cientos pero se incluyen traducciones, libros no científicos, etc. por lo que es más difícil dar una cifra exacta. El artículo más citado, con 12.921 citas es “Can quantum-mechanical description of physical reality be considered complete?” publicado en Physical Review. La cuenta de twitter Albert Einstein @EinsteinDaily tiene 63.900 seguidores pero evidentemente no nos vale para calcular su índice kardashian.

Francisco R. Villatoro

Según Web of Science, buscando artículos de “Einstein A” hasta 1960, aparecen 173 artículos, 27691 citas (27653 sin autocitas), un índice-h de 58.

Como bien dice JR, su artículo más citado es el artículo EPR “Can quantum-mechanical description of physical reality be considered complete?” Por: Einstein, A; Podolsky, B; Rosen, N (1935) con 6189 citas y un promedio de 76.42 citas por año (que está creciendo, fueron 370 citas en 2012, 389 en 2013 y 294 en 2014).

Su segundo artículo más citado es el del movimiento browniano en su annus mirabilis “The motion of elements suspended in static liquids as claimed in the molecular kinetic theory of heat” Por: Einstein, A (1905) con citas 3294 y un promedio de 29.69 citas/año (en crecimiento, fueron 204 en 2012, 243 en 2013 y 228 en 2014).

Su tercer artículo más citado es el de su tesis doctoral y el número de Avogadro “A new determination of the molecular dimensions” Por: Einstein, A (1906) con 2556 citas.

Y el cuarto, su artículo sobre la relatividad especial “On the electrodynamics of moving bodies” Por: Einstein, A (1905) con 1430 citas y un promedio de 12.88.

Einstein ha recibido pocas citas porque sus grandes contribuciones se incorporaron muy rápido a los libros de texto. La gente ya no cita a Einstein, salvo contadas excepciones. Se prefiere citar libros de texto y monografías que nos cuentan sus avances.

Saludos
Francis

José Ramón

Google Scholar, como decía, da 87.663 citas y un índice h de 103 (57 desde 2010) . (http://scholar.google.es/citations?u...&hl=es)
Sería interesante, ahora que hay tanto interés por los índices, ver el porqué de esa discrepancia que seguro es algo sencillo.
Tampoco coincide el segundo más citado que en mi búsqueda es:
Uber einen die Erzeugung und Verwandlung des Lichtes betreffenden heurischen Gesichtpunkt
A Einstein
Ann. Phys. 17, 132-148
Lo más divertido es que aunque pone correctamente su dirección: Institute of Advanced Studies, Princeton
dice que no se dispone de una dirección de correo electrónico verificada. 😉
Saludos, amigo

Amc^2Amc^2

¿Hizo el doctorado después de publicar la teoria de la relatividad?

José Ramón

Recibió el doctorado el 15 de enero de 1906 (el famoso annus mirabilis con sus cuatro publicaciones espectaculares incluida la de la teoría de la relatividad fue el 1905). Eso sí, la tesis la había presentado en abril de 1905. Todo bastante a la par.

RobacterioRobacterio

Me ha encantado el indice Kardashian, pero el punto 3 de la exposicion me parece lamentable (y muy significativo de la peligrosa deriva del establishment cientifico ultimamente). Recomiendo que lean la interesante serie de articulos alojados en el portal de DORA (San Francisco Declaration on Research Assessment: http://am.ascb.org/dora/ ) que explica claramente por que continuar confiando en el indice de impacto (y en las revistas con uno alto) significa ser un completo iletrado estadistico.

P.S: Perdon por la ausencia de tildes, teclado extranjero…

José Ramón

Es curioso que los científicos de más renombre (no por los seguidores de twitter sino por los reconocimientos por otros investigadores, como por ejemplo, los premios Nobel) deben ser todos iletrados estadísticos pues todos publican, sin excepción, en las revistas de más impacto. Pero claro es probable que todos sean parte del establishment científico. ¿Y quién forma parte de ese establishment? ¿Y quién define la mejor investigación? ¿O es una justificación para lo justificable? ¿O es que mezclamos aspectos políticos con calidad científica?

Amc^2Amc^2

Yo creo sinceramente que el nobel es una mamarrachada politica igual que la mayoria de los premios que se dan, lo que de verdad juzga la calidad de un trabajo cientifico es el tiempo.

José Ramón

Cualquier premio es discutible y en la ya larga historia de los Nobel hay candidatos que con la información de hoy en día no serían elegidos pero en general pienso que es una buena representación de la mejor ciencia de una década. Tengo más dudas con el de Literatura y no digamos ya con el de la Paz pero los premios científicos son, en mi opinión, bastante sólidos. La mayoría de los científicos creemos que es bueno que existan aunque no tengamos ninguna oportunidad personalmente y en mi caso es simplemente porque sé que mi investigación no está a ese nivel, ni de lejos, no por ser español o esas chorradas que a veces se aducen. Pero ¿mamarrachada política? para mí no.

RobacterioRobacterio

Es logico que los cientificos queramos que nuestro trabajo tenga la maxima difusion. No he dicho que publicar en esas revistas sea de iletrado estadistico. Relacionar calidad e indice de impacto si lo es. Recomiendo varias lecturas al respecto que resume bastante bien el profesor Curry, como esta:
http://occamstypewriter.org/scurry/2...ct-factors/
Forman parte de ese establishment quienes tienen mayor facilidad para publicar en esas revistas por procedencia, peso politico o lobbying. Y obtienen su compensacion con proyectos aprobados y posiciones conseguidas.
La investigacion la juzga gente competente en el campo (como tu haces), y deberia hacerlo sin tener en cuenta un factor tan peregrino como el de impacto. Calidad sin mas.
Precisamente un premio Nobel (Brenner) realizaba algunas reflexiones interesantes al respecto, poniendo como ejemplo a un doble Nobel (Sanger) que no hubiera poddido sobrevivir en investigacion en un sistema como el actual:
http://kingsreview.co.uk/magazine/bl...ey-brenner/

José Ramón

Aunque creo que tienes una parte de razón creo que haces una descalificación a todo el sistema con la que no estoy de acuerdo. Está claro que lo ideal sería juzgar calidad pero no es tan fácil. A nivel nacional, normalmente no me mandan para evaluar cv de mi propia área sino de dos áreas próximas. Sin algún referente, sin algo que puedas utilizar como criterio, creo que la mayoría de los evaluadores tendrían problemas. Si nos mandasen de algo muy cercano a nuestro campo creo que es lógico que habríamos tenido relaciones previas, colaboraciones, “divorcios científicos” que podrían sesgar una evaluación. Cierto, no debería suceder.
A nivel internacional, cuando te mandan por ejemplo de una revista a evaluar un artículo, creo que la procedencia, el peso político o el lobbying del interesado me trae al pairo. Creo que la gran mayoría de la gente es honesta, hace una evaluación lo mejor que sabe y el sistema, con sus errores, funciona razonablemente bien.
Tengo la sensación de que nos movemos como en la definición de democracia, el sistema menos malo.
Y es cierto que con nuestras normas actuales no solo habría premios Nobel que no conseguirían financiación sino que Napoleón no sería admitido en el ejército por corto de estatura. Buscamos siempre sistemas objetivos, justos, transparentes y eso lleva sus problemas también.
Y los ejemplos que pones son buenos.

RobacterioRobacterio

Hay un problema en tu planteamiento. Primero, para que lleguemos a evaluar un trabajo para una revista, primero tiene que pasar el filtro del editor. Ahi esta el primer sesgo donde la procedencia, etc. importan. Posteriormente, una vez que evaluamos el trabajo, realizamos una recomendacion, pero la decision final esta en manos del editor. Asi que, aunque la evaluacion sea honesta, el sesgo sigue presente (podriamos discutir si la frecuencia con la que las revistas famosas ignoran esas recomendaciones es mayor o menor que la de otras).
Si estas en paneles tan alejados de tu campo que tienes que apoyarte en el indice de impacto para evaluar la calidad cientifica de un trabajo, no deberias realizar esa evaluacion; simplemente no estas cualificado. Por otra parte, tampoco es necesario estar trabajando exactamente en el mismo tema para tener conocimientos suficientes para evaluar la calidad de un estudio, su innovacion, etc. Requiere tiempo, eso si. Pero es plausible y, en mi opinion, lo unico justo.
Mi critica no tiene nada que ver con el sistema en general, sino con la estupidez de pensar que el indice de impacto es buen indicativo de nada, porque:
1. Se negocia, y no refleja el numero real de citaciones.
2. No es reoproducible, incluso si reflejase el numero de citaciones.
3. No tiene sentido estadistico.
4. Correlaciona mejor con las retracciones que con las citaciones.
5. Esta incluso empeorando progresivamente como indicador de las citaciones.
6. Enfatiza la media de una revista como “marca” por encima del contenido cientifico de un articulo individual.

http://journals.plos.org/plosmedicin...med.0030291

http://arxiv.org/abs/1205.4328

http://www.scielo.br/scielo.php?scri...038;tlng=en

http://www.bmj.com/content/314/7079/497.1

Respecto a tu comentario del mejor de los sistemas, estoy de acuerdo; pero eso no significa que no existan errores o se acepten como validas autenticas estupideces, y que no haya que corregir ambos. Por justicia, y para no dejar fuera a ningun Sanger.

Amc^2Amc^2

Yo también considero que son muy solidos a la hora de elegir a los premiados, pero las formas en que se dan los premios creo que no benefician a la ciencia, ya que se ven como algo elitista, y los premios pueden llevar a que a veces los cientificos piensen mas en ganarlos que en que su trabajo sirva para que la sociedad avanze.
Ademas la vision que se da de esos premios a la sociedad es como si fuese algo alejado de ellos, ademas de que la mayoria de estos premios casi nunca son retransmitidos por television o algo parecido.
En definitiva, creo que los premios son algo superficial y a veces se les da mas importancia que a los propios trabajos de los investigadores.

José Ramón

Creo que en muchos aspectos es comparable a ganar una medalla en las Olimpiadas. Desde luego son elitistas y muchos deportistas profesionales pueden estar más interesados en ganar una que en que su esfuerzo sirva para que la sociedad haga más ejercicio y sea más sana.
La visión de las medallas olímpicas es algo alejado para la mayoría de los deportistas aunque es cierto que los Juegos Olímpicos sí son retransmitidos intensamente por televisión.
Por tanto, siguiendo tu razonamiento, las propias olimpiadas son algo superficial y a veces se le da más importancia que al propio entrenamiento de los deportistas.
Por supuesto, es una reducción al absurdo. La mayoría de los investigadores no tienen la menor esperanza de obtener el Nobel pero es una ocasión para hablar de ciencia, para premiar a los mejores, para dar cuenta de los grandes avances conseguidos, para fomentar la competitividad y la ambición… Vamos, igual que las Olimpiadas.

Amc^2Amc^2

Si, las olimpiadas son algo superficial para entretener a la sociedad y que tengan sus cabezas alejadas de la realidad. Los nobel para mi son algo igual, por desgracia.

1 Trackback

Deja un comentario

Tu email nunca será mostrado o compartido. No olvides rellenar los campos obligatorios.

Obligatorio
Obligatorio

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>