domingo, 4 de marzo de 2012

Pagar por entrar en el ISI (TBaiget 1 marzo)

Parece bastante increíble pero las revistas miembros de SciELO están recibiendo este mensaje que os copio debajo: se les ofrece entrar en la WoS a cambio del pago de 1.500 US$ (una sola vez) más 230 US$ de mantenimiento anual.
Carlos A. Agudelo es presidente de SciELO Colombia.
A primera vista, y a falta de más datos, esto chocaría frontalmente tanto con la política de acceso abierto de SciELO como con la política de aceptación de revistas únicamente por su calidad por parte de Thomson Reuters.
 
A ver si se aclara el asunto...
 ---------------------------------------------------------
Apreciado (a) Señor (a)  Editor (a)
Me complace informarle que luego de dos años de negociación hemos llegado a un acuerdo entre SciELO y Thomson Reuters Scientific Inc (TRSI), para indexar las colecciones SciELO certificadas en la plataforma Web of Knowledge (WoK), lo cual incluye el Journal Citation Index (antiguo ISI). Esto, desde luego significará un paso monumental en la visibilidad científica de las colecciones y las revistas que están incluidas en el indice SciELO.
El proyecto de integración se iniciará este año 2012 e incluye las revistas que fueron previamente acpetadas en el ISI. El ingreso a la WoK tiene un costo de 1 millón de dólares, valor que será pagado solamente una vez en el curso de los tres próximos años. El mantenimiento anual, considerando actualizaciones semanales, está estimado en cerca de 150 mil dólares que serán pagados una vez por año. Si ingresan todas las revistas que hacen parte de las colecciones actualmente en SciELO, con un estimativo de 650 revistas, cada una de ellas debería pagar 1500 dolares por el ingreso y 230 dolares por el mantenimiento anual. Las revistas de la colección SciELO Colombia pagarían la parte proporcional que les corresponde.
Cordialmente,
CARLOS ALBERTO AGUDELO CALDERON*
Decano facultad de Medicina. Universidad Nacional de Colombia 

IC-ININFO 2012 : 2nd International Conference on Integrated Information (Budapest) (JTramullas 2 marzo)

It is our pleasure to circulate the 1st announcement of the 2nd International Conference on Integrated Information, IC-ININFO 2012 ( http://www.icininfo.net ).  Topics:
 • Library Science
• Information Science
• Digital Libraries
• Electronic Archives
• Information Management
• Records / Document Management
• Knowledge Management
• Cultural Heritage Management
• Conservation Management
• E-research
• E-science
• Electronic publishing
• Human resources management
• Information and Knowledge Services
• Information retrieval
• Open Access and Open Source
• Operational information systems
• Re-engineering change in higher education
• Resource development policy
• Semantics Web
• Software
• Strategic management
• Technology in the Communication: an interactive tool for development
• Technology transfer and Innovation in library management

 Important dates:
• 4 May 2012, Abstract submission deadline
• 18 May 2012, Notification of acceptance
• 1 June 2012, Early registration deadline
• 30 August 2012, Conference paper submission deadline and Conference opening
• 30 September 2012, Full paper review submission deadline

Elsevier se retira de la RWA (TBaiget 27 feb)

Elsevier ha publicado hoy un comunicado en su web indicando que ya no apoya la Research Works Act (RWA) (Ley de Trabajos de Investigación).
La noticia llega tras una protesta contra la editorial por apoyar el proyecto de ley, y la puesta en marcha de una web que alentaba a los investigadores a que boicotearan a Elsevier. El número de investigadores que han firmado el boicot se acercaba a 7500.
La RWA pretende eliminar la actual obligatoriedad de depositar los artículos que dan a conocer resultados de investigación subvencionada con fondos públicos.
Nota de Elsevier:

SCImago presenta ranking de universidades españolas basado en Scopus (TBaiget 22 feb)

SCImago ha publicado un ranking de instituciones de educación superior españolas (93 centros), basado en los datos de Scopus 2006-2010. http://www.scimagolab.com/blog
El ranking (una tabla en formato PDF) http://www.scimagolab.com/blog/wp-content/uploads/2012/02/Spanish-HEIs-06-10.pdf presenta varios indicadores cienciométricos: nº de documentos publicados, colaboración internacional, impacto normalizado, % de documentos en revistas del 1er cuartil según el SCImago Journal Rank, y número de obras de excelencia  (entre las 10% más citadas) publicadas por cada institución (éste último es el criterio de ordenación de la tabla).
Los indicadores son:
Documentos publicados (=resultados de la investigación)
El número de artículos científicos publicados en revistas especializadas pone de manifiesto la capacidad de una institución para generar conocimiento científico. Las cifras dependen de su tamaño y de sus perfiles de investigación, entre otros factores. Este indicador constituye la base de métricas más complejas. En las publicaciones con varios autores se asigna puntuación a cada institución que consta en la afiliación de cada autor.
Colaboración internacional
Mide la capacidad de las instituciones para crear vínculos de investigación internacionales. Se buscan las afiliaciones en las que aparece más de un país y se mide la proporción de trabajos producidos en colaboración con instituciones extranjeras.
Impacto normalizado
El impacto normalizado mide el impacto científico que las instituciones tienen sobre la comunidad científica. Con el fin de obtener una medición equitativa del impacto, en su cálculo se elimina la influencia del tamaño de la institución y su perfil de investigación, lo cual lo hace ideal para comparar el rendimiento de la investigación. El impacto normalizado es una relación entre el impacto promedio de una institución científica y el impacto promedio mundial de las publicaciones en los mismos período de tiempo, tipo de documento, y tema. Los valores se expresan en porcentajes y muestran la relación de impacto promedio de la institución con el promedio mundial, que es 1. Es decir una puntuación de 0,8 significa que la institución se cita un 20% por debajo del promedio mundial y 1,3 que se cita a la institución un 30% por encima del promedio mundial. El impacto normalizado se calcula utilizando el método establecido por el Karolinska Institutet en Suecia, donde se denomina "Item oriented field normalized citation score average". El largo nombre utilizado se debe a que la normalización de los valores de citación se hace a nivel de cada artículo individual. Más información sobre este método en el Bibliometric Handbook for Karolinska Institutet:
Publicaciones de alta calidad Q1
Relación de publicaciones en las revistas científicas más influyentes del mundo. Para este indicador se tienen en cuenta las revistas ubicadas en el primer cuartil (25%) en sus categorías, ordenadas según su SCImago Journal Rank (SJR).
Excelencia
Indica el número de documentos de una entidad que figuran en el 10% de los artículos más citados en los respectivos campos de la ciencia. Es una medida del nivel de alta calidad de las instituciones de investigación.

Los primeros 20 puestos están ocupados por:
  1 Universitat de Barcelona
  2 Universitat Autònoma de Barcelona
  3 Universitat de València
  4 Universidad Complutense de Madrid
  5 Universidad Autónoma de Madrid
  6 Universitat Politècnica de Catalunya
  7 Universidad de Granada
  8 Universidad Politécnica de Valencia
  9 Universidad de Zaragoza
10 Universidad de Sevilla
11 Universidade de Santiago de Compostela
12 Universidad del País Vasco
13 Universidad Politécnica de Madrid
14 Universidad de Oviedo
15 Universidad de Castilla-La Mancha
16 Universitat Pompeu Fabra
17 Universitat Rovira i Virgili
18 Universidad de Navarra
19 Universidade de Vigo
20 Universidad de Murcia

jueves, 16 de febrero de 2012

MetaRanking EC3 de las Universidades Españolas (NRobinson EC3)

El motivo de este correo es informaros de la reciente publicación de "MetaRanking EC3 de las Universidades Españolas" en la siguiente página web:

http://ec3.ugr.es/metaranking/metaranking.html

 Dada la proliferación de rankings de universidades durante la última década, desde el grupo de investigación EC3 de la Universidad de Granada, hemos considerado necesaria la elaboración de una herramienta que nos permita sintetizar toda esta información, permitiéndonos conocer la evolución de las universidades españolas. Así pues, os presentamos este sitio web en el que se muestra la situación de las universidades españolas en los principales rankings internacionales y nacionales.

Nicolas Robinson-Garcia

-------------------------------------------------
Grupo de Inv. EC3 - Evaluación de la Ciencia y de la Comunicación Científica

Google Public Data (CGGuitian 15 feb)

Las nuevas herramientas de Google no dejan de sorprendernos.

Recientemente han incorporado Google Public Data, que permite acceder a
una amplia gama de datos estadísticos internacionales procedentes  de
diversos organismos e instituciones nacionales e internacionales:
http://www.google.com/publicdata/directory#

La Salud también está presente: esperanza de vida, tasa de natalidad y
mortalidad, gasto en salud, aunque los datos principales son económicos,
indicadores de desarrollo, datos estadísticos etc… Permite comparar
países, regiones y distintos conjuntos de datos que podemos convertir en
gráficos.

Carlos González Guitián
http://bibliosaude.sergas.es

jueves, 9 de febrero de 2012

China no alcanzará a EUA hasta pasado 2020 (TBaiget EPI)

En la revista El profesional de la información hemos publicado un artículo del famoso bibliómetra Loet Leydesdorff (índice h=53), profesor de comunicación e innovación en dinámica de la ciencia y la tecnología en la Universidad de Amsterdam:  
Leydesdorff, Loet. "World shares of publications of the USA, EU-27, and China compared and predicted using the new Web of Science interface versus Scopus". El profesional de la información, 2012, enero-febrero, v. 21, n. 1, pp. 43-49.
Resumen:
La nueva interfaz de la Web of science (de Thomson Reuters) permite ahora recuperar conjuntos de más de 100.000 documentos en una sola búsqueda. Esto hace posible comparar las tendencias de publicación de los EUA, UE-27 y China –y evidentemente también de los países más pequeños–, cosa que ya se podía hacer con los datos de la base de datos Scopus de Elsevier. China ya no creció de manera exponencial durante la década de 2000, sino de forma lineal. Contrariamente a las predicciones anteriores basadas en un crecimiento exponencial, el cruce de las líneas de China y de EUA se ha pospuesto a la próxima década (después de 2020). Sin embargo estas extrapolaciones a largo plazo sólo deben utilizarse como indicadores y no como predicciones. La incertidumbre en las tendencias se puede especificar utilizando el coeficiente de determinación de la regresión (R2) e intervalos de confianza. Junto a la dinámica de las propias tendencias de publicación científica, también hay que tener en cuenta la dinámica de las bases de datos utilizadas para la medición.
El artículo está en acceso abierto en web de EPI, y dado su interés lo hemos traducido el español. Podéis bajar ambas versiones de este url:

viernes, 3 de febrero de 2012

The costs and benefits of library site licenses to academic journals (CBenito Ingenio-UPV)

Un trabajo que pasó casi desapercibido viene al caso en la discusión anterior:
http://dx.doi.org/10.1073/pnas.0305628101

Boicot a Elsevier (RSoriano Unizar)

Acabo de leer en Blogs madri+d:

http://www.madrimasd.org/blogs/matematicas/2012/02/02/133626

que Timothy Gowers, matemático de la Universidad de Cambridge, y medallista Fields, está organizando un boicot a Elsevier:

http://gowers.wordpress.com/2012/01/21/elsevier-my-part-in-its-downfall/

y que más de 3000 investigadores de diferentes áreas de conocimiento han firmado por ahora el manifiesto que pide que no se publique, revise o se haga ningún trabajo editorial de ningún tipo para Elsevier:

http://thecostofknowledge.com/

No sé si esto tiene visos de prosperar, porque la inercia de este negocio de pescadilla que se muerde la cola, montado en parte en torno al prestigio y el factor de impacto de las revistas científicas, y fomentado por la propia comunidad investigadora, es dificil de desmontar, pero también es verdad que torres más altas han caído. Por lo menos parece que la gente se conciencia y empieza a moverse.

Re-skilling for research - Informe de RLUK (Research Libraries UK) (TBaiget)

RLUK (Research Libraries UK)
ha publicado un informe realizado Mary Auckland, sobre las nuevas necesidades de los investigadores y consecuencias para el papel de las bibliotecas.
 
Como las actividades de investigación evolucionan, el apoyo a la investigación también debe evolucionar. RLUK se ha esforzado en determinar cuáles son las nuevas necesidades de los investigadores, y la mejor forma en que éstas pueden ser satisfechas por la biblioteca.
 
La bibliotecas quieren adaptar sus servicios a las necesidades de los investigadores con los medios con que cuentan actualmente, y también desean saber cómo cambiar para cumplir con las futuras nuevas demandas.
 
Este informe, Re-skilling for research (Recapacitación para la investigación), permite identificar los requisitos. Se analizan en detalle las necesidades de información de los investigadores y se esbozan las habilidades y conocimientos que se requieren para satisfacerlas. Ofrece una comparación de diferentes modelos de apoyo de la biblioteca a los investigadores, con interesantes comparaciones de descripciones de puestos de trabajo actuales. Por último se exploran oportunidades de capacitación para que los bibliotecarios temáticos adquieran las habilidades y conocimientos adicionales que necesitan para cumplir con sus nuevas funciones.
 
El informe no proporciona respuestas definidas, pero inicia un valioso proceso de análisis, destacando actividades que pueden realizar las instituciones, asociaciones tales como RLUK, bibliotecas escolares, etc.
 
Nota original:
 
Descargar el informe, 115 pp. (1,3 MB)
 
Un abrazo,
 
Tomàs Baiget
 

European Commission releases survey report on scientific information in the digital age

Survey report "Online Survey on Scientific Information in the Digital Age''

31 january 2012 - The European Commission (EC) issued online the survey report "Online Survey on Scientific Information in the Digital Age(pdf)".

The EC held the survey late 2011 in the context of obtaining ideas to adopt a Communication and Recommendation on access to and preservation of scientific information.

Objective of survey

The objective of the open consultation was to gather information from as many sources as possible, including governments, research institutes and universities, libraries, scientific publishers, research funding organizations, businesses, individual researchers, and other interested parties on their views on scientific information in the digital age. The consultation will feed into the development of possible policy options to be considered, and will contribute to the ex-ante impact assessment that will be carried out.

The consultation was set-up as follows:

1. The respondent
2. What role for Europe?
3. Access to digital scientific information (including open access): scientific publications
4. Preservation of digital scientific information
5. Comments


Sistema de open peer review usando una red social: Peerage of Science (TBaiget 24 enero)

De Vrieze, Jop. "Online social network seeks to overhaul peer review in scientific publishing". Science online, 23 January 2012.

[Una red social pretende cambiar el peer review en la publicación científica]
Tres investigadores finlandeses han creado un servicio en línea que eventualmente podría reemplazar o complementar el actual sistema de peer review de las revistas científicas para aprobar los manuscritos presentados a revisión. Ya trabaja con la revista Ecography, publicada por Wiley.
 Peerage of Science es una innovadora red social de científicos a la que los investigadores presentan sus manuscritos; otros miembros con conocimientos pertinentes, alertados por las palabras clave de los artículos, hacen revisiones que las revistas científicas utilizan para decidir sobre la publicación del trabajo. La Universidad de Jyväskylä y la Universidad de Finlandia Oriental, donde trabajan los tres creadores del servicio, han patrocinado la empresa que esperan vaya en aumento este año.
 El sistema de revisión actual en el que los editores de revistas envían manuscritos potencialmente publicables a expertos para su examen es objeto de acalorados debates. Muchos científicos se quejan de que el sistema es lento, ineficiente, de calidad variable, y con tendencia al favoritismo. Por otra parte, hay un creciente resentimiento en algunos sectores sobre que el hecho de que se pida a los revisores un tiempo muy valioso para ofrecer revisiones gratuitas a las revistas que son publicadas por editoriales comerciales o que no ponen sus documentos en libre acceso. Varias sugerencias se han hecho para mejorar el sistema de revisión por pares, como la introducción de créditos para los revisores, utilizando los medios de comunicación social, y hacer más transparente el proceso.
 Peerage of Science tiene como objetivo combinar estas ideas, explica el co-fundador Mikko Mönkkönen, ecologista en la Universidad de Jyväskylä: Un investigador inicialmente sube un manuscrito a Peerage of Science. A continuación, es anonimizado y publicado en un sitio web que es accesible exclusivamente a los demás miembros, que actualmente son alrededor de 500. Junto con el manuscrito, los autores pueden agregar un campo corto que explica por qué los pares deben opinar sobre el manuscrito.
 
Los revisores potenciales reciben un e-mail si las palabras clave del manuscrito etiquetado son de su especialidad. Después de revisar el documento, a los evaluadores se les permite calificar la calidad de las otras críticas, adjudicándoles un grado entre uno y cinco. Si un manuscrito recibe un cierto número de revisiones positivas, será enviado a los editores de las revistas relacionadas con Peerage of Science, que entonces pueden decidir ponerse en contacto con los autores solicitando cambios o su publicación. Los autores son libres de aceptar o rechazar sus ofertas.
 
Los científicos reciben 1 crédito por cada revisión terminada. Estos créditos son necesarios para subir un manuscrito, que cuesta sólo medio crédito. Un autor que quiera subir un manuscrito está obligado a tener un saldo positivo. "Esto formaliza una regla no escrita: el que quiera que sus manuscritos sean revisados, debe revisar otros manuscritos a cambio", explica Janne-Tuomas Seppänen, un post-doctorado en la Universidad de Jyväskylä, a quien se le ocurrió la idea inicial del servicio Peerage of Science en febrero de 2010.
 
Para evitar el favoritismo, a los pares no se les permite revisar los manuscritos presentados por colegas de la misma universidad o investigadores que cooperaron en los últimos 3 años. Sin embargo, esto excluye a muchos revisores potencialmente adecuados, por lo que los fundadores del servicio monitorizarán si esta norma es necesaria: "Queremos crear un sistema en el que la gente pueda confiar. Pero si esta regla resulta ser demasiado estricta, estamos dispuestos a cambiarla", dice Mönkkönen.
 
La transparencia es otro objetivo de Peerage of Science para evitar la discrecionalidad y los sesgos. Si los evaluadores están de acuerdo, sus opiniones serán publicadas en una revista online llamada Proceedings of Peerage of Science. Los fundadores esperan que esto sea un incentivo para la carrera profesional, de modo que los científicos hagan revisiones de mejor calidad: pueden aumentar su reputación. "Uno no puede simplemente salir del paso con una revisión poco realista, positiva o negativa sin justificación", dice Seppänen:
 
Este es el incentivo que a Carsten Rahbek, editor jefe de Ecography, le gustaba más del sistema. "Debido a una explosión en el número de trabajos presentados, tenemos grandes problemas para encontrar gente para revisar, y la calidad de las revisiones ha bajado", dice.
 
Peerage of Science en la actualidad ofrece pruebas gratuitas a una selección de revistas. En una etapa posterior, los editores tendrán que pagar una cuota. Esta tarifa puede variar, pero los fundadores calculan que será más baja que los costos de los editores para organizar y coordinar el sistema de revisión actual. Desde noviembre de 2011 se han presentado 4 manuscritos, de los cuales sólo 1 aún no ha recibido una revisión. "Eso es una señal de que los autores deben mejorar su manuscrito", dice Seppänen. Rahbek ha encontrado hasta ahora un artículo en su campo de interés. Decidió no publicarlo, "pero me gustó el procedimiento y la calidad de las revisiones".
 
Los fundadores de Peerage of Science, entre los cuales está el ecologista evolutivo Janne Kotiaho de la Universidad de Jyväskylä, en un principio apuntaron su servicio a su propio campo, ecología. Pero ahora su meta es extenderlo a todas las áreas científicas. Están negociando con varias publicaciones más. "Algunos jefes de redacción están ansiosos por empezar a utilizar el servicio", dice Mönkkönen, "pero la mayoría no se atreve. He experimentado que la comunidad científica es más bien conservadora y reacia al cambio. La mayoría de editores primero quieren saber si funciona el servicio y permitir que otros hagan de pioneros".
 
Es un poco de círculo vicioso: Hasta que muchas revistas empiecen a participar, los científicos dudarán en utilizar activamente el servicio. Y las revistas vacilarán en recurrir a Peerage of Science si no se han inscrito suficientes científicos. "Todo depende de la calidad de los manuscritos enviados", dice Rahbek.
 
Traducción rápida de Tomàs Baiget

Duro ataque de The Guardian contra editores que promueven la Research Works Act (TBaiget 17 enero)

De aprobarse, la RWA eliminaría la actual obligación de depositar los artículos financinados con fondos públicos en los EUA.
 "Academic publishers have become the enemies of science"
Por Mike Taylor
 The US Research Works Act would allow publishers to line their pockets by locking publicly funded research behind paywalls
 Los dos senadores que la llevan recibieron donaciones de Elsevier:
The RWA is co-sponsored by Darrell Issa (Republican, California) and Carolyn B. Maloney (Democrat, New York). In the 2012 election cycle, Elsevier and its senior executives made 31 donations to representatives: of these, two went to Issa and 12 to Maloney, including the largest individual contribution.

LiquidPUB, Liquid Journals (TSaorin 18 enero)

En el último número de CSIC Abierto se reseña el proyecto LIQUIDPUB
Hay un buen paquete de informes e investigaciones a considerar, unas sólidas y otras líquidas.
Por ejemplo ...

Liquid Journals

Liquid Journals: Knowledge Dissemination in the Web Era Marcos Baez, Fabio Casati.

In this position paper we redefine the notion of "scientific journal" to update it to the age of the Web. We explore the historical reasons behind the current journal model, we show that this model is essentially the same today, even if the Web has made dissemination essentially free. We propose a notion of liquid and personal journals that evolve continuously in time and that are targeted to serve individuals or communities of arbitrarily small or large scales. The liquid journals provide "interesting" content, in the form of "scientific contributions" that are "related" to a certain paper, topic, or area, and that are posted (on their web site, repositories, traditional journals) by "inspiring" researchers. As such, the liquid journal separates the notion of "publishing" (which can be achieved by just posting content on the Web) from the appearance of contributions into the journals, which are essentially collections of content. In this paper we describe the notion of liquid journals, we define the notions of scientific contribution, of "interesting", "related", and "inspiring", we show how it can be implemented, and we demonstrate the value to individuals and communities.

Liquid Journals: Overcoming Information Overload in the Scientific Community. Marcos Baez, Aliaksandr Birukou, Fabio Casati, Maurizio Marchese, Daniil Mirylenka

In this paper we present a dissemination model that extends from the notion of scientific journal to overcome the problem of information overload in the scientific community. We focus on the issues related to having access to interesting scientific content, and to narrowing down the discovery process only to known sources (venues, authors) when dealing with vasts amounts of information. In this paper we present the liquid journal model, concepts, methods, and the supporting platform.

Google Scholar Citations. Nota Thinkepi (DSalinas 20 dic 11)

 Google Scholar Citations y la emergencia de nuevos actores en la evaluación de la investigación

Álvaro Cabezas Clavijo y Daniel Torres-Salinas

Grupo EC3 Evaluación de la Ciencia y la Comunicación Científica

 

El lanzamiento hace escasos meses de Google Scholar Citations [1], la herramienta para medir el impacto de los investigadores en las publicaciones indizadas por el popular buscador, nos da pie a revisar ésta y otras aplicaciones de índole bibliométrica encaminadas a medir la visibilidad de académicos e investigadores en la web. Este impacto no sólo se limita a los medios tradicionales (citas recibidas desde otros trabajos científicos) sino que abarca a las nuevas vías de comunicación científica y a sus indicadores asociados, como el número de descargas de un  trabajo, las personas que lo almacenan en su gestor de referencias o las veces que una presentación es visionada online. Asimismo se discute brevemente en qué medida puede afectar la emergencia de estas nuevas herramientas a las bases de datos tradicionales para la evaluación de la ciencia, Thomson Reuters-Web of Science [2], y Scopus-Elsevier [3].


La joven estrella: Google Scholar Citations.

Google Scholar Citations fue oficialmente lanzado en pruebas en julio de 2011, generando de inmediato un importante eco en la web. Su propuesta es muy sencilla, recopila la producción científica de un investigador y la muestra agregada en una página personal, con información del número de citas de cada ítem. El investigador, una vez dado de alta, puede editar los registros de Google Scholar, corrigiendo (normalizando) la información del buscador, unir registros duplicados, e incluso añadir de forma manual otros trabajos que hayan escapado a las garras de Google. Además presenta tres indicadores bibliométricos; el número total de citas de los trabajos, el índice h del investigador, y el índice i10, esto es el número de trabajos con más de diez citas, tanto para toda la carrera académica como para el periodo más reciente. En este apartado hay que mencionar que Google ha prescindido de la métrica más sencilla: el número total de trabajos de un investigador; así como de otras medidas como el promedio de citas por trabajo, o indicadores relativos al impacto de las revistas. Pero quizá lo más interesante es que la información sobre las citas recibidas y la producción se actualizan de forma automática a medida que va siendo indexada por Google, sin necesidad de concurso por parte del académico, que encuentra siempre su información al día. Las posibilidades que abre este producto son enormes, tanto en la medición del impacto personal como de cara a la visibilidad del investigador en la web.


En cuanto a lo primero, y pese a que no es aconsejable el uso de Google Scholar como herramienta para la evaluación científica [4] cada vez es más usado especialmente en áreas de Ciencias Sociales y Humanidades como medio para recuperar las citas de un trabajo, datos tenidos muy en cuenta tanto en los procesos de solicitud de sexenios de investigación como en las acreditaciones a los cuerpos docentes universitarios. Respecto a la visibilidad académica, el investigador se vincula a las materias en las que es especialista, de manera que se va generando un directorio temático de expertos, ordenados en función del número total de citas de sus trabajos. Además de esta función para localizar expertos en un área determinada, los perfiles de los investigadores dados de alta aparecen integrados en los resultados de las búsquedas por autores, por lo que se puede acceder de forma rápida a toda la producción científica de un investigador. Sin embargo, algunos autores como la creadora del software Publish or Perish [5] Anne-Wil Harzing expresan sus temores acerca de la honestidad de los autores, y si estos no serán capaces de falsear sus datos en busca de un ascenso académico o como manera de aumentar su visibilidad en la web [6].


Desde noviembre de 2011 el servicio está abierto a todos los investigadores, y en los primeros días de libre acceso al producto comienzan a verse ya un buen número de profesores y profesionales de la Documentación, muchos de ellos españoles [7]. Sin embargo cabe preguntarse si llegará a ser significativo el número de los que se creen su perfil, requisito indispensable para aparecer en estos directorios. Otra duda acerca del producto es la manera de ordenar a los investigadores en el directorio por materias. Actualmente esta ordenación se hace en función  del número total de citas, una clasificación demasiado tosca ya que favorece a los investigadores de disciplinas grandes, así como a los de mayor recorrido y con mayor número de trabajos publicados. De facto, Google Scholar Citations está estableciendo rankings de investigadores por materias en función de un único criterio (fácilmente manipulable, además), lo cual es un arma de doble filo. Como señalaba Harzing cualquiera puede falsear sus datos para aparecer en posiciones prominentes, sin embargo parece poco probable ya que sería rápidamente detectado por el resto de usuarios, cayendo en el descrédito científico. Otra duda que nos asalta es si los investigadores con escaso impacto académico crearán su perfil, ya que podrían quedar en evidencia respecto a otros compañeros de disciplina o de departamento, con currículos mucho más lucidos. Al final, se corre el riesgo de crear un directorio de científicos altamente citados, que no sea representativo de la investigación que se da en un campo. Pese a la juventud del producto, ya surgen los primeros análisis en algunos blogs, como el que realiza Brian Kelly de las más destacadas universidades británicas [8], o el del bibliotecario holandés Wouter Gerritsma, que presagia que en cinco años Google habrá cambiado completamente el mercado de las bases de datos científicas [9].


El actor secundario: Microsoft Academic Search.

Este producto de Google viene precedido por los movimientos que otros de los gigantes de la web, Microsoft ha venido realizando en los últimos meses con su buscador Microsoft Academic Search [10]. Este producto, heredero de Windows Live Academic y de Live Search Academic, surgió en su actual denominación en 2009, sólo para el campo de la Informática,  pero cubre desde septiembre de 2011 todos los ámbitos del conocimiento. También permite la creación de perfiles personales a partir de la información recogida por el buscador, proporcionando hasta el momento más indicadores y funcionalidades de las que ofrece Google. Asimismo admite la edición y modificación de registros, subir pdfs con el texto completo de los trabajos, insertar el listado de publicaciones en otra página web, o incluso ver el contexto en el que un trabajo ha sido citado, un viejo sueño de la bibliometría evaluativa. Además el producto de Microsoft no se ciñe a la escala personal sino que permite seguir la pista a la producción científica de una institución e incluso efectuar comparaciones entre ellas, tomando los parámetros habituales de producción y citas como términos de la ecuación. Otra de sus fortalezas es la posibilidad de explorar la red de colaboraciones de un investigador, así como las relaciones a través de las citas. Además, se pueden encontrar los perfiles de cualquier investigador, no sólo de los registrados, ya que esto no es imprescindible.


Sin embargo, en comparación con Google Scholar Citations, el proceso de actualización del cv es más pesado, tarda unos días ya que debe ser revisado por el equipo del producto, y además la cobertura parece bastante menor que la de Google, si bien no disponemos de un listado de las fuentes que cubre ninguno de los dos productos. En este pequeño estudio de la producción de siete investigadores británicos [11] se observa la gran diferencia entre los resultados que ofrece Academic Search y los que arroja Google Scholar Citations [11]. Además se aprecian importantes problemas de normalización, una de las críticas principales que también cabe hacer a Google.


En cuanto a aplicaciones que permiten la confección de currículos vitae personales, también es necesario reseñar ResercherID [12], producto impulsado por Thomson Reuters que trabaja únicamente sobre la información recogida en la Web of Science. Al contrario que Google Scholar Citations o MS Academic Search, la actualización de la producción no es automática, es decir cada vez que un nuevo artículo nuestro sea recogido en Web of Science, deberemos actualizar manualmente nuestro perfil en ResearcherID. Herramientas como la red social científica ResearchGate [13] o el gestor de referencias Mendeley [14] también proporcionan espacio para que el investigador incluya sus publicaciones en una página personal.


Los actores alternativos: las iniciativas alt-metrics.

Aprovechando las diferentes aplicaciones para investigadores surgidas en los últimos años en el entorno de la ciencia 2.0 [15] son varias las iniciativas dirigidas a medir el impacto de los materiales publicados on-line, de forma más amplia que con el recuento de citas. Dentro de estas iniciativas conocidas genéricamente como alt-metrics o métricas alternativas [16] han aparecido aplicaciones como ScienceCard [17], un metaproducto que hace uso de apis externas para ofrecer para cada investigador además de su producción indizada en MS Academic Search, o el número de citas según Scopus, las veces que un trabajo ha sido marcado como favorito en citeulike [18], o las personas que lo han alacenado en el gestor de referencias bibliográficas Mendeley. La idea que subyace es que hay múltiples maneras de medir la influencia de los investigadores en  la web y que el número de citas es sólo una de ellas. Otra iniciativa reciente es Total Impact [19] donde, en la misma línea, podemos descubrir métricas de las presentaciones colgadas en Slideshare [20], las veces que se ha compartido un artículo científico en Facebook [21], o el número de grupos en Mendeley donde se ha recopilado un determinado trabajo. Estas iniciativas siguen el camino trazado por las estadísticas a nivel de artículo [22]  implementadas por la editorial Public Library of Science (PLoS) que lleva tiempo ofreciendo, además de las citas que un artículo atrae, datos sobre el número de descargas de un trabajo, el número de comentarios que genera o el número de blogs que lo enlazan [23].


Los actores consolidados: ISI Web of Science y Scopus.

En este sentido hay que mencionar que los  actores tradicionales en el campo de la evaluación de la ciencia no se han quedado de brazos cruzados. Thomson Reuters, además de incrementar en los últimos años considerablemente su cobertura de revistas científicas de alcance regional, acaba de lanzar el Book Citation Index [24], su índice de citas con información de libros, dirigido principalmente a las Humanidades y las Ciencias Sociales, áreas donde estos vehículos de difusión juegan un papel importante. Por su parte, Scopus ha incorporado las métricas SNIP y SJR [25] a su base de datos para ayudar a los bibliómetras. Además ha sacado al mercado aplicaciones (apps) para dispositivos móviles [26] y ofrece asimismo conexiones con su base de datos mediante apis [27], que permite mostrar por ejemplo en repositorios institucionales el número de citas cosechadas por los trabajos recogidos en la fuente de datos de Elsevier.


Consideración final

Desde el plano de la política universitaria y de evaluación de la investigación, la pregunta que cabe realizarse es si alguno de los productos mencionados tanto de Microsoft y de Google principalmente pero también de las iniciativas alt-metrics pueden ser serios competidores en un futuro próximo para las dos grandes bases de datos que proporcionan información bibliométrica, de importante coste económico, especialmente en una época marcada por los recortes presupuestarios. Los productos tradicionales son más solventes y estables que los nuevos, ofreciendo un amplio abanico de posibilidades y de métricas asociadas, no sólo a los trabajos sino también a las revistas en que éstos se publican. Además su uso está extendido y existen unas métricas validadas por los profesionales de la bibliometría así como por parte de las agencias con responsabilidad en materia investigadora. Sin embargo es legítimo el debate acerca de si dichas bases de datos son imprescindibles en los procesos de evaluación investigadora. En nuestra opinión, en la actualidad estas bases de datos (ISI Web of Science o Scopus, no son necesarias las dos) son imprescindibles para la evaluación, sin embargo la nueva generación de Sistemas de Información Científica (CRIS) [28] junto a buscadores científicos de acceso gratuito como Google Scholar, y las métricas basadas en el uso de la información pueden aportar nuevas soluciones a la evaluación de la ciencia, haciendo a medio plazo quizá menos necesarios los costosos índices de citas. Haciendo prospectiva-ficción cabría pensar cómo cambiaría el mercado de la información y evaluación científica si Google decidiera lanzar su propio "índice de impacto" a partir de la información que indiza, lo cual no parece descabellado ya que su popular sistema de ordenación de búsqueda PageRank se basa en un principio que ya aplican otros índices bibliométricos. En cualquier caso lo que es indudable es que los nuevos productos y herramientas a disposición de investigadores y evaluadores facilitan tanto la difusión como la recuperación de información científica y abren nuevas posibilidades para el intercambio de la información científica y su evaluación.


Notas

[1] Google Scholar Citations http://scholar.google.com/intl/en/scholar/citations.html

[2] Thomson Reuters-Web of Science http://www.accesowok.fecyt.es/

[3] Scopus-Elsevier http://www.scopus.com/

[4] Torres-Salinas, D., Ruiz-Pérez, R., y Delgado-López-Cózar, E. (2009). Google Scholar como herramienta para la evaluación científica. El profesional de la Información, 18(5), 501-510. http://ec3.ugr.es/publicaciones/d700h04j123154rr.pdf

[5] Publish or Perish. http://www.harzing.com/pop.htm

[6] Scholar Citations—Google Moves into the Domain of Web of Science and Scopus. http://newsbreaks.infotoday.com/NewsBreaks/Scholar-CitationsGoogle-Moves-into-the-Domain-of-Web-of-Science--Scopus-76917.asp

[7] Directorio de investigadores listados bajo la materia "Information Science" en Google Scholar Citations http://scholar.google.com/citations?view_op=search_authors&hl=en&mauthors=label:information_science

[8] Surveying Russell Group University Use of Google Scholar Citations. http://ukwebfocus.wordpress.com/2011/11/24/surveying-russell-group-university-use-of-google-scholar-citations/

[9] How Google Scholar Citations passes the competition left and right. http://wowter.net/2011/11/21/how-google-scholar-citations-passes-the-competition-left-and-right/

[10] Microsoft Academic Search. http://academic.research.microsoft.com/

[11] Thoughts on Google Scholar Citations. http://ukwebfocus.wordpress.com/2011/11/22/thoughts-on-google-scholar-citations/

[12] ResercherID. http://www.researcherid.com/

[13] ResearchGate. http://www.researchgate.net

 [14] Mendeley. http://www.mendeley.com/

 [15] Cabezas-Clavijo, Á., Torres-Salinas, D., y Delgado-López-Cózar, E. (2009). Ciencia 2.0: catálogo de herramientas e implicaciones para la actividad investigadora. El Profesional de la Informacion, 18(1), 72-79. http://www.elprofesionaldelainformacion.com/contenidos/2009/enero/09.pdf

[16] Alt-metrics. http://altmetrics.org/

[17] ScienceCard. http://sciencecard.org/

[18] Citeulike. http://www.citeulike.org/

[19] Total Impact. http://total-impact.org/

[20] Slideshare. http://www.slideshare.net/

[21] Facebook. http://www.facebook.com/

[22] Article-level Metrics - Public Library of Science. http://article-level-metrics.plos.org/

[23] Cabezas-Clavijo, Á., y Torres-Salinas, D. (2010). Indicadores de uso y participación en las revistas científicas 2.0: el caso de PLoS One. El profesional de la información, 19(4), 431-434. http://ec3.ugr.es/publicaciones/2010-Cabezas_Torres_Indicadores_de_uso_participacion_revistas_cientificas_2.0_el_caso_plos_one.pdf

[24] Book Citation Index. http://wokinfo.com/products_tools/multidisciplinary/bookcitationindex/

[25] Journal metrics: SNIP, SJR. http://info.scopus.com/journalmetrics/

[26] SciVerse Mobile Applications. http://www.info.sciverse.com/sciverse-mobile-applications/

[27]Scopus API http://www.info.sciverse.com/scopus/scopus-services/integration/solutions/api

[28] Torres-Salinas, D. y Cabezas-Clavijo, Á (2012). Herramientas para la evaluación de la ciencia en universidades y centros I+D: descripción y usos. Anuario Thinkepi, 6. http://ec3noticias.blogspot.com/2011/12/herramientas-para-la-evaluacion-de-la.html

--
Álvaro Cabezas
-------------------------------------
EC3. Grupo Inv. Evaluación de la Ciencia
y de la Comunicación Científica.
Universidad de Granada
Tlf:958 243939
http://ec3.ugr.es

La revista EPI miembro de ORCID (TBaiget 14 dic 2011)

La revista El profesional de la información ha sido aceptada como miembro de ORCID, la plataforma que busca acordar un identificador personal universal para los investigadores.
 Se une así a las otras organizaciones españolas que ya son miembros: IraLIS (http://iralis.org), Dialnet (http://dialnet.unirioja.es), Colegio de Psicólogos de Madrid (http://www.copmadrid.org), iMedPub (http://www.imedpub.com), y la Biblioteca de la UPC (http://bibliotecnica.upc.edu/BCBL/).
--
ORCID tiene como objetivo resolver el problema de las ambigüedades en los nombres de autor en la comunicación académica mediante la creación de un registro central de identificadores únicos de investigadores individuales.
 También creará un mecanismo abierto y transparente de enlace entre ORCID y otros esquemas actuales de identificación de autores, como ResearcherID o IraLIS.
Estos identificadores, y las relaciones entre ellos, se enlazarán con los artículos y demás producciones científicas de los investigadores para mejorar el proceso de descubrimiento científico, la eficiencia de la financiación de la investigación y la colaboración dentro de la comunidad investigadora.