lunes, 29 de junio de 2009

Revistas con factor de impacto "astronómico"

Según el JCR 2008, *Nature* [de MacMillan] tiene un
FI 2008 de 31,434 (el de 2007 fue de 28,751). Está por delante
de su gran competidora *Science*(28,103) [publicada por la
American Association for the Advancement of the Science]
en la misma categoría "Multidisciplinar", y de *Cell* (31,253)
–que está en la categoría "Cell biology"-.
*Nature* también ostenta el mayor Eigenfactor, una medida
alternativa del impacto de las revistas, de las 6.598 revistas
incluidas en el JCR de 2008.
Sin embargo hay 7 revistas que todavía tienen mayor FI:
1. CA-A Cancer journal for clinicians FI = 74,575
(editor: Lippincot Williams & Wilkins, PA)
2. New England journal of medicine FI = 50,017
(editor: Massachusetts Medical Society, MA)
3. Annual review of immunology FI = 41,059
(editor: Annual Reviews, CA)
4. Nature reviews - Molecular cell biology FI = 35,423
(editor: Nature Publishing Group, MacMillan, UK)
5. Physiological reviews FI = 35,000
(editor: American Physiological Society, MD)
6. Reviews of modern physics FI = 33,985
(editor: American Physical Society, MD)
7. JAMA-Journal of the American Medical Assoc FI = 31,718
(editor: American Medical Association, IL)

-¡Ah!, ¿pero existían esos FI?
-¡Sí! Y no se han equivocado al poner la coma, no.
-Uf...
-Me temo que a EPI todavía le falta un poco...
-Ejem..., hemos programado un número sobre "Información bio-médica" para
mayo de 2010 (v. 19, n. 3). Igual la bio-medicina nos ayuda a subir... :-)

Tomàs Baiget
http://elprofesionaldelainformacion.com

miércoles, 24 de junio de 2009

PNAS, FACTOR DE IMPACTO Y EIGENFACTOR (E.Ortiz-Jaureguizar)

La revista "Proceedings of the National Academy
of Sciences of the United States of America" (PNAS),
una de las más prestigiosas revistas científicas
mundiales en el área de las ciencias exactas,
naturales y biomédicas, ha publicado el 18 de
abril último [PNAS, 106 (17): 6883?6884] un
editorial firmado por Alan Fersht (Medical
Research Council Centre for Protein Engineering,
Cambridge, United Kingdom) titulado "The most
influential journals: Impact Factor and
Eigenfactor". Allí, el autor reflexiona acerca
del uso de un índice estadístico simple para
apreciar la influencia de una determinada revista
científica, su incorrecto (aunque frecuente) empleo
para evaluar científicos, la existencia (y bondades)
de otros estadísticos como el "Eigenfactor" y el "h",
y la excelente ubicación de PNAS a la luz de índices
como el IF y el "Eigenfactor". A modo de conclusión,
Fersht escribe que "While new and emerging measures
of scientific impact are developed, it is important
not to rely solely on one standard. After all,
science is about progress, which is ultimately
assessed by human judgment".
Sin que se trate de un trabajo con una visión muy
novedosa, es bueno ver que una revista "top ten"
(por utilizar una terminología tenística tan en boga
en estos días en los que se juega Wimbledon) se
permite reflexionar en su editorial, no sin cierta
mirada crítica, sobre del uso y abuso que hacen de
los índices los burócratas de la ciencia y, lo que
es aun peor, los propios científicos devenidos en
jueces de sus pares.
Bueno amigos, esto es todo por ahora. Un cordial
saludo desde la gélida Argentina y hasta la próxima.

Edgardo Ortiz-Jaureguizar
El artículo de Fersht pueden hallarlo en
http://www.pnas.org/content/106/17/6883

martes, 23 de junio de 2009

Informe RIN - Cuidadosos con la bibliometría (T.Baiget)

Un informe de la RIN examina la participación de Reino Unido en
los resultados de la investigación mundial

RESUMEN
La Research Information Network (RIN) (Red de información
sobre investigación) http://www.rin.ac.uk/ ha publicado un
informe donde pone de manifiesto cuestiones problemáticas
tanto para los que producen análisis bibliométricos sobre el
rendimiento de la investigación como para los que los encargan
y hacen uso de ese tipo de trabajos.
Titulado 'The UK's share of world research outputs: an
investigation of different data sources and time trends'
(Cuota del Reino Unido en los resultados de la investigación
mundial: una investigación de las
diferentes fuentes de datos y tendencias en el tiempo), el informe
es el resultado de la labor realizada por Grant Lewison y sus
colegas del grupo CIBER de la University College de Londres.
Hace un llamamiento a los responsables políticos de la
investigación y a todos los interesados en la situación de la
investigación en el Reino Unido para que pongan una mayor atención
al examinar las cifras que usan y para que las presenten con
precisión.
7. Conclusión del informe (pág. 19)
La bibliometría están desempeñando un papel cada vez más
importante en la evaluación del rendimiento de la
investigación, tanto en el plano nacional como internacional,
así como a nivel institucional e individual. Como hemos
demostrado, sin embargo, las decisiones que se toman en la
elección de las fuentes de las que contar, y los métodos
de conteo, hacen que los resultados sean muy diferentes.
Es críticamente importante que las decisiones estén
registradas con transparencia en los informes que se publican,
y que éstos estén abiertos a un debate razonado.
No es aceptable que queden sin explicación diferencias del
40% en los valores publicados del porcentaje de participación
del Reino Unido en las publicaciones científicas mundiales
de un solo año.
No estamos sugiriendo que exista un único enfoque correcto
para abordar las cuestiones planteadas en este informe, y
no hay una única cifra definitiva que represente el
porcentaje de presencia del Reino Unido en la ciencia mundial.
Depende de lo que se quiere contar, y cómo, y (más importante)
por qué. Un primer requisito es ser claro en cuanto a la
cuestión que se quiere responder a la hora de emprender, o
encargar, un informe utilizando datos bibliométricos del tipo
considerado en este informe.
Porque hay riesgos importantes en el uso de indicadores
bibliométricos de las medidas para evaluar el desempeño e
informar a los políticos si no se hace suficiente esfuerzo
para registrar y comprender las implicaciones de las opciones
metodológicas. Esto se convierte en lo más importante a medida
que aparecen nuevas fuentes de datos y nuevas herramientas
para tratarlos.
-----------------
Bajarse el informe (23 pp., pdf 290 KB)
http://www.rin.ac.uk/uk_presence_research

Traducido por Tomàs Baiget
http://elprofesionaldelainformacion.com

viernes, 19 de junio de 2009

Péter Jacsó revisa Scopus (TBaiget)

Péter Jacsó hace una revisión crítica de la base de datos Scopus en Gale Cengage Learning,

Péter's Digital Reference shelf
June 2009
http://www.gale.cengage.com/reference/peter/200906/scopus.html

Traduzco el inicio de su artículo:

"Scopus ha ido mejorando continuamente desde su debut en noviembre de 2004, tanto en contenido como en software. Ahora ofrece más de 38 millones de registros, de los cuales casi 15 millones contienen referencias citadas. Hay que aplaudir los enormes esfuerzos realizados para llenar las lagunas de cobertura de muchas revistas, pero todavía hay publicaciones con importantes lagunas en la cobertura, incluso en el segmento más preciado 1996-2009 de la base de datos, a las que se debería haber dado la máxima
prioridad.

La excesiva falta de información sobre el país de afiliación en más de 13 millones de registros se debe considerar seriamente antes de involucrarse en hacer análisis bibliométricos a nivel de países sobre la base de datos Scopus, tal como la OCDE tiene previsto hacer en el futuro. El software es excelente y es un placer usarlo ya desde el principio (a excepción de una característica que refleja una idea mal concebida, no un error de software, en el cálculo automático del h-index) y sólo se necesitarían unas
pocas mejoras adicionales para mejor conveniencia de algunos usuarios concretos".
[...]

Y final del artículo:

"A pesar de las limitaciones y de los molestos contenidos inexactos y engañosos de sus materiales promocionales, Scopus es un sistema atractivo. Las lagunas y la ausencia de elementos de datos tienen influencia no sólo en las búsquedas por temas, sino también en los cálculos de productividad y de impacto. Éstos serán discutidos en la próxima revisión del Web of Science que haré en la siguiente columna, contrastando sus resultados con los de Scopus".

Tomàs Baiget
http://elprofesionaldelainformacion.com

viernes, 12 de junio de 2009

Scopus amplía su cobertura europea en Arte y Humanidades (T Baiget)

Elsevier (www.elsevier.com) anunció hoy que su producto
insignia Scopus (www.info.scopus.com), la base de datos
bibliográfica con resúmenes y citas de artículos revisados
por pares, casi ha duplicado el número de títulos de
revistas en Arte y Humanidades (A&H), teniendo ahora
3.500. Para ello se ha basado en el European Reference
Index for Humanities (ERIH) de la European Science Foundation.

Fundado en 2001 por la Fundación Europea de la Ciencia
(www.esf.org), ERIH proporciona listas de revistas
seleccionadas por su calidad.

Para adquirir los contenidos de los números antiguos
de muchas de las revistas, Scopus se asoció con el
Proyecto MUSE (http://muse.jhu.edu), una plataforma
sin fines de lucro fundada por The Johns Hopkins
University Press y The Milton S. Eisenhower Library (MSEL) de
la Universidad Johns Hopkins
http://newsbreaks.infotoday.com:80/Digest/Scopus-Expands-European-Arts--Humanities-Coverage-54615.asp

Tomàs Baiget
http://elprofesionaldelainformacion.com

Revista de acceso abierto publica un artículo falso (JA Frias)

Puede verse la información que acaba de salir en Nature, en la
URL: http://www.the-scientist.com/blog/print/55756/
The Scientist: NewsBlog:
OA publisher accepts fake paper. Posted by Bob Grant
[Entry posted at 10th June 2009 11:13 AM GMT]
View comments(6) | Comment on this news story

An open access journal has agreed to publish a nonsensical article
written by a computer program, claiming that the manuscript
was peer reviewed and requesting that the "authors" pay $800
in "open access fees."

Philip Davis, a PhD student in scientific communications at
Cornell University, and Kent Anderson, executive director
of international business and product development at the
New England Journal of Medicine, submitted the fake manuscript
to The Open Information Science Journal (TOISCIJ) at the
end of January.

Davis generated the paper, which was titled "Deconstructing
Access Points," using a computer program -- called SCIgen --
created at the Massachusetts Institute of Technology. He and
Anderson signed the work using pseudonyms (David Phillips
and Andrew Kent). The two listed the "Center for Research
in Applied Phrenology" (CRAP) as their home institution on
the paper, which featured fictitious tables, figures and references.

"I wanted to really see whether this article would be peer
reviewed," said Davis. "[Our paper] has the look of an article,
but it makes no sense."

Davis told The Scientist that he got the idea for this "little
experiment" after receiving scores of spam emails soliciting
article submissions and invitations to serve on editorial boards
of open access journals from Bentham Science Publishers,
TOISCIJ's publisher. According to its website, Bentham
publishes "200 plus open access journals" that cover d
isciplines from bioinformatics and pharmacology to
engineering and neuroscience. "One of the things that made
Bentham catch our eye," Anderson said, "was that they were
so aggressively soliciting manuscripts."

The two wrote about the incident today on the Scholarly
Kitchen, the Society for Scholarly Publishing blog that they run.

Davis said that last week the journal notified him that it
had accepted the manuscript, which contained absolutely
meaningless statements typified by the first few lines of
its introduction: "Compact symmetries and compilers have
garnered tremendous interest from both futurists and biologists
in the last several years. The flaw of this type of solution,
however, is that DHTs can be made empathic, large-scale,
and extensible. Along these same lines, the drawback of
this type of approach, however, is that active networks and
SMPs can agree to fix this riddle."

He received an email from Ms. Sana Mokarram, assistant
manager of publication at Bentham, that the manuscript
"has been accepted for publication after peer-reviewing
process in TOISCIJ." But Davis said that he received no
reviewer comments in reference to the sham manuscript.

"The publisher said that it went through peer review,"
Davis said. "That looks very suspect. [Bentham says]
that they're a scientific publication that does peer review,
but at least in one case they did not do peer review, and
they said that they did."

I called Richard Morrissy, who's listed as the US contact
for Bentham Science Publishers on the company's website,
but he declined to answer my questions and instead directed
me to his supervisor, Matthew Honan, who works in Bentham's
France office. Honan does not have a phone number, according
to Morrissy, and he did not reply to an email (which was
CC'ed to Bentham's marketing team in Pakistan) by the time
this article was posted.

Earlier this year, Davis submitted another fake SCIgen-generated
manuscript to a Bentham journal, The Open Software Engineering
Journal, and it was rejected after what appeared to be an actual
peer review process.

Mokarram's acceptance email for the TOISCIJ article had a fee
form attached, asking Davis to submit an $800 payment to a
post office box in the SAIF Zone, a tax-free complex in the
United Arab Emirates. Davis wrote back and retracted the
manuscript. "We have discovered several errors in the
manuscript which question both the validity of the study
and the results," he wrote in an email to Mokarram.

Davis said that he considered scraping together the $800 to
see if Bentham would actually publish the fake paper, but
considered that taking the hoax further would be "unethical."

"I think that the point has been made," he said. "And, I mean,
it's $800, and I'm a graduate student."

All joking aside, Davis and Andrews say the episode points
out potentially serious flaws in the open-access, author-pay
model being adopted by an increasing number of publishers.
"What happens to be going on is that some publishers see
this as a lucrative opportunity," Davis said. "This open access
environment may set up the condition under which publishers
could use the good will of academics and their institutions
for profit motives."

Open access journals generally charge authors fees to publish
research papers. For example, BioMed Central journals charge
up to $2265 in "article processing fees," and publishing in
the PloS family of journals costs authors between $1300 - $2850.
With institutional libraries, including Cornell's, and granting
institutions, such as the Wellcome Trust and the Howard Hughes
Medical Institute, offering to pay open access publication fees
for faculty authors and grantees, the potential for abuse may
be increasing. "It's almost an inevitability that you might
have several publishers tempted to take advantage of this
relatively easy money," said Anderson.

But open access advocate Peter Suber from Earlham College
in Richmond, Indiana, told The Scientist that the problem is
not the open access business model, per se. "If it were intrinsically
suspect, we would have to level that criticism at a much
wider swath of subscription journals," many of which also
charge page fees when manuscripts are accepted for publication,
Suber said.

As for Bentham, Suber noted that "many questions about their
business" have been circulating for more than a year. "There's a
whole range of quality in open access journals," Suber said, "in
the same way that there is a whole range of quality in
subscription journals."

Correction (June 10): The original version of this story incorrectly
gave Peter Suber's affiliation as Earlham University in Richland,
Virginia. Suber is actually at Earlham College in Richmond, Indiana. T
he Scientist regrets the error.