lunes, 25 de octubre de 2010

Asunto: [OS-REPOSITORIOS] De la burbuja financiera a la burbuja científica (NRobinson 25 oct.)

el objeto de este mensaje es informarles de la reciente publicación “Rankings ISI de las Universidades Españolas según Campos Científicos” en la siguiente página web:

http://www.rankinguniversidades.es

Este ranking se diferencia de otros en cuatro aspectos fundamentales:

Se organiza por campos científicos (12) y no por grandes ramas de conocimiento que diluyen los distintos perfiles de investigación que exhiben las universidades, de manera que pueda captarse mejor en qué especialidades son más activas e influyentes.

Propone un método de ordenación que sintetiza 6 indicadores bibliométricos de producción e impacto que miden los aspectos cualitativos y cuantitativos de la producción científica de las universidades españolas.

Emplea como fuente de información las bases de datos de Thomson-Reuters (antiguo ISI) Web of Science y Journal Citation Reports. Dichos productos son una selección de las mejores revistas a nivel mundial y referencia básica de las agencias de evaluación nacionales como CNEAI y ANECA.

Se utilizan series temporales amplias: un período de diez años (2000-2009) y un período de cinco años (2005-2009). Se intenta con ello dotar de estabilidad a los resultados y de detectar posibles cambios en la actividad científica.

En definitiva, el objetivo principal de estos rankings es descubrir las fortalezas y debilidades del sistema universitario español de investigación en diferentes ámbitos del conocimiento. Por ello “Rankings ISI de las Universidades Españolas según Campos Científicos” es un producto de interés para los responsables de la política científica y gestores de la investigación vinculados al mundo universitario.

Metodológicamente se utilizan 6 indicadores bibliométricos consolidados y de amplio uso en la evaluación de la actividad científica: Nº Documentos, Nº Citas, H-Index, % Documentos en 1Q, Promedio de Citas y % Documentos Altamente Citados. Estas medidas una vez normalizadas quedan sintetizadas en dos indicadores que representan dos dimensiones: una cuantitativa (volumen) y otra cualitativa (impacto). Asimismo a partir de dichas dimensiones se obtiene el IFQ2A-Index (Institucional Qualitative-Quantitative Analysis Index) por el que finalmente se ordenan las universidades en cada uno de los 12 campos.

Como fuentes de información se han seleccionado las bases de datos de Thomson-Reuters (antiguo ISI) Web of Science (Science Citation Index, Social Science Citation Index y Arts & Humanities Citation Index) y Journal Citation Reports (JCR). En estos productos se indexa la bibliografía científica de mayor difusión y visibilidad internacional ya que el riguroso proceso de selección de revistas de Thomson, junto a la posibilidad de conocer el impacto a partir del recuento de las citas, han transformado a estas fuentes en herramientas imprescindibles para la evaluación de la ciencia deviniendo sus indicadores bibliométricos en estándares de referencia.

Este ranking nace como fruto de la colaboración de los miembros de dos grupos de investigación “Evaluación de la Ciencia y la Comunicación Científica - EC3” de las Universidades de Granada y Navarra (Daniel Torres Salinas y Emilio Delgado López-Cózar) y "Soft Computing and Intelligent Information Systems - SCI2S” de la Universidad de Granada (Francisco Herrera y José García Moreno Torres).

[Fwd: [OS-REPOSITORIOS] De la burbuja financiera a la burbuja científica] (TBaiget 19 oct.)

Asunto: [OS-REPOSITORIOS] De la burbuja financiera a la burbuja científica
De: Alicia López Medina
Fecha: Mar, 19 de Octubre de 2010, 10:46 am
Para: OS-REPOSITORIOS@LISTSERV.REDIRIS.ES
--------------------------------------------------------------------------

Queridos compañeros,

Os mando este post del blog de Juan José Ibáñez, "Un universo invisible
bajo nuestros pies". La comparación de la perversión del actual sistema
de publicación científica con la burbuja financiera me ha parecido
interesante.

http://www.madrimasd.org/blogs/universo/2010/08/28/136537

IN-RECS e IN-RECJ: índices de impacto 2009 (A Cabezas 18 oct.)

IN-RECS e IN-RECJ: índices de impacto 2009
Estimados colegas,

Como es ya habitual en este mes de octubre, queremos anunciaros desde EC3 (Evaluación de la Ciencia y de la Comunicación Científica) la actualización de IN-RECS (Índice de Impacto de Revistas Españolas de Ciencias Sociales) e IN-RECJ (Índice de Impacto de Revistas Españolas de Ciencias Jurídicas) con la publicación de los índices de impacto de 2009.


En el conjunto de la base de datos de ciencias sociales, son ya 780 las revistas que cuentan con índice de impacto calculado, y 159 las revistas fuente. Son más de 200.000 registros los que contiene el índice de citas para las disciplinas de Antropología, Biblioteconomía y Documentación, Ciencia política y de la administración, Comunicación, Economía, Educación, Geografía, Psicología, Sociología y Urbanismo.

En Ciencias Jurídicas son 341 las revistas que cuentan con índice de impacto calculado, totalizando más de 67.000 registros procesados en las disciplinas de Derecho Administrativo, Civil y Mercantil, Constitucional, Eclesiástico, Filosofía del Derecho, Financiero y Tributario, Internacional Público y Privado, Penal y Procesal, Romano e Historia del Derecho, Trabajo y Multidisciplinar.

Podéis consultar los listados de revistas incluidas y las principales estadísticas para INRECS e INRECJ.

Para cada disciplina se pueden consultar los diferentes indicadores por revistas, instituciones e investigadores. Mediante la pestaña Autores se visualizan los investigadores más citados de cada disciplina, mientras que a través de la opción Buscar se puede observar el perfil bibliométrico de cualquier autor que haya producido documentos recogidos en las revistas fuente para el periodo que abarcan los índices de citas (desde 1996 para las Ciencias Sociales, y desde 2001 para el Derecho)

Al igual que en la anterior edición lo que ahora se publica es una versión BETA, a fin de subsanar posibles errores o incidencias en los indicadores, por lo que será en unas semanas cuando se hará pública la versión definitiva.

Finalmente os recordamos que esta actualización es muy esperada por los profesores universitarios en las disciplinas de ciencias sociales y jurídicas, ya que la publicación en las revistas cubiertas por los índices INRECS e INRECJ es valorada por los organismos de política científica en las convocatorias de acreditación y promoción del personal investigador. Por ello rogamos especialmente la máxima difusión entre el personal investigador de las universidades españolas.

Un cordial saludo

Emilio Delgado edelgado@ugr.es

Álvaro Cabezas acabezasclavijo@gmail.com

Sobre EC3

El grupo de investigación EC3 – Evaluación de la Ciencia y la Comunicación Científica de la Universidad de Granada lleva varios años proporcionando herramientas documentales que contribuyen a la visibilidad y mejora de la ciencia española. Elaboramos índices de impacto en ciencias sociales y jurídicas, desarrollamos software para evaluar instituciones e investigadores, vigilamos el entorno tecnológico, y asesoramos a las revistas científicas españolas para ayudarles a aumentar su calidad.


Puedes leer nuestras últimas publicaciones en la web del grupo, y seguir nuestra actividad en el blog ec3noticias, en Facebook, y a través de la etiqueta #ec3 en twitter.

WEB: http://ec3.ugr.es/

BLOG: http://ec3noticias.blogspot.com/

FB:http://www.facebook.com/home.php?filter=lf#!/pages/EC3-Evaluacion-de-la-Ciencia-y-de-la-Comunicacion-Cientifica/149959235018284

TW: http://twitter.com/#search/%23ec3

2a Edición del Informe Mundial SIR 2010 (BGonzalez 14 oct.)

Estimados colegas,
Os envío la Nota de Lanzamiento del Informe Mundial SIR 2010 del grupo SCImago. En su segunda edición, este Ranking de Instituciones de Investigación incluye 4 indicadores que miden el desempeño investigador de 2.833 instituciones de todo el mundo. El informe se puede descargar en:
http://www.scimagoir.com/pdf/sir_2010_world_report.pdf

Borja González Pereira
Grupo SCImago


INFORME MUNDIAL SIR 2010. RANKING DE INSTITUCIONES DE INVESTIGACIÓN

- Segunda edición del ranking, con 2.833 Instituciones de Investigación con producción científica en el año 2008.
- Analiza el tamaño, la colaboración internacional y la calidad de la investigación en las instituciones.
- Herramienta de evaluación de la investigación para responsables de política científica y gestores de recursos de investigación.
- Desarrollado por el Grupo de Investigación SCImago

Madrid, 13 de octubre de 2010. El Grupo de Investigación SCImago publica hoy la segunda edición del Informe Mundial SIR 2010, el Ranking de Instituciones de Investigación de mayor cobertura mundial donde se analizan los resultados de investigación de 2.833 Instituciones de Investigación de todo el mundo.

La edición de este año introduce nuevas características de análisis. Las instituciones incluidas han sido etiquetadas conforme a su Excelencia Investigadora en 3 niveles diferentes según el impacto a nivel mundial de su producción científica. Además se ha incluido la posición a escala mundial, regional y nacional que ocupan las instituciones por producción científica --en número de documentos científicos.

Basándose íntegramente en la dimensión investigadora de las instituciones, el Informe Mundial SIR 2010 combina cuatro indicadores que revelan los niveles de productividad científica, cantidad de conocimiento científico generado y visibilidad internacional de las instituciones. Para facilitar la adecuación del informe a las diferentes necesidades de evaluación de los diferentes usuarios, el ranking agrupa a las instituciones por países, regiones del mundo y sectores institucionales compuestos por universidades, agencias nacionales de investigación, hospitales, empresas y otros.

Los indicadores que se muestran en el informe son:
- Producción Científica o número de artículos publicados por las instituciones,
- Colaboración Internacional medida como el ratio de artículos que publica una institución en colaboración con instituciones de otros países,
- Impacto Normalizado, medido como la ratio entre la citación que recibe una institución y la citación media mundial para documentos del mismo campo científico, el mismo tipo y las misma fecha (según el procedimiento del Instituto Karolinska) y por último
- Porcentaje de Publicaciones en el 25% de las Mejores Revistas del Mundo, ordenadas utilizando el indicador de importancia científica de las revistas SJR desarrollado por el Grupo SCImago.

"En esta nueva edición del SIR hemos centrado nuestros esfuerzos en alcanzar una gran precisión en la depuración de las afiliaciones de los autores" ha apuntado Félix de Moya, investigador líder del Grupo SCImago. "El objetivo ha sido asegurar que los indicadores reflejan adecuadamente los resultados de investigación alcanzados por las instituciones."

Mediante el apuntado riguroso proceso de identificación y desambiguación, el informe reúne aquellas que publicaron más de 100 artículos en revistas científicas en 2008 y analiza su producción durante el periodo 2004-2008 en la mayor base de datos científica del mundo, Scopus del gigante Elsevier. El volumen de producción analizada constituye algo más del 80% de la producción científica mundial en dicho periodo.

Para Félix de Moya "El presente informe constituye un recurso de primer nivel, robusto y riguroso, y de enfoque global para la realización de análisis comparados de las estructuras institucionales de la ciencia en el mundo"

Está prevista la publicación de Cuatro Rankings Temáticos adicionales, correspondientes a las áreas de Ciencias de la Vida, Ciencias de la Salud, Ciencias Físicas y Ciencias Sociales y Humanidades ayudarán a analizar las fortalezas de sectores específicos de las instituciones.

El informe está disponibles para su descarga en la web Ranking de Instituciones SCImago (en inglés) donde también encontrará más información: http://www.scimagoir.com

ACERCA DEL GRUPO DE INVESTIGACIÓN SCIMAGO
SCImago es un grupo de investigación dedicado a la Evaluación de la Ciencia mediante análisis, representación y evaluación de la información contenida en bases de datos. Los miembros del grupo SCImago pertenecen al Consejo Superior de Investigaciones Científicas (CSIC) y a las Universidades de Granada, Alcalá de Henares y Carlos III de Madrid, Extremadura, Oporto (Portugal), Universidad Nacional de la Plata (Argentina) y Pontifica Universidad Católica de Valparaiso (Chile).
El grupo SCImago participa en el desarrollo de varias herramientas de análisis de información científica. Las más destacables son el portal de evaluación de revistas SCImago Journal and Country Rank (http://www.scimagojr.com) que incluye el indicador de prestigio científico de revistas SJR o el proyecto SCImago Insititutions Rankings (http://www.scimagoir.com) para el análisis del desempeño investigador de Universidades y otras Instituciones de Investigación en todo el mundo.

ACERCA DEL PROYECTO SIR
El proyecto SCImago Institutions Rankings es un entorno de evaluación de la actividad investigadora llevada a cabo en universidades y otras instituciones de investigación de todo el mundo. El proyecto está siendo desarrollado por el grupo SCImago sobre la base de datos científica Scopus de Elsevier fruto de un acuerdo de colaboración entre ambas entidades.

Recursos humanos en Ciencia y Tecnología (AFernandez 4 oct.)

El INE ha publicado hoy los resultados de la Encuesta sobre Recursos Humanos en Ciencia y Tecnología para el año 2009.
Esta operación estadística declara tener como objeto “cuantificar el nivel de investigación de los doctores en España, la actividad profesional que desarrollan y la movilidad nacional e internacional de los mismos”

Se trata de la segunda edición, ya que se realizó una primera edición con fecha de referencia 2006.

Aquí van dos datos de la edición 2009

- Los dos motivos más citados por los que se decidieron a trabajar como investigadores fueron: Es un “trabajo creativo e innovador” (74,19 %) y “el mero interés por la investigación y el conocimiento” (68,57 %)

El 96,1% de los doctores estaba empleado a 31 de diciembre de 2009. Seis de cada 10 estaba trabajando en actividades de investigación

Podéis consultarla en: http://www.ine.es/inebmenu/mnu_imasd.htm

Una actitud irresponsable (I Aguillo 27 sept.)

Desde que en 2003 apareciera el primer ranking de universidades de
ámbito auténticamente global, el Academic Ranking of World Universities
(ARWU) de la Universidad Jiao Tong de Shanghai, los rankings se han
convertido un tema de frecuente y a veces áspero debate. El impacto de
esta publicación fue inmediato y de profundas consecuencias, remodelando
sistemas académicos completos incluso en los países europeos (Francia es
un caso paradigmático). A pesar de este indudable efecto, los críticos
señalaban la simplicidad de la herramienta, sus limitaciones a la hora
de reflejar las misiones no relacionadas con la investigación, la
comparación entre diferentes tipos de universidades y en fin los
pequeños y grandes errores en la recolección de datos.
La críticas mas feroces provienen no solo de las universidades en
posiciones retrasadas o de los que se oponen a cualquier tipo de
evaluación sino de un pequeño grupo de expertos en educación superior
que llevaban varios años ejerciendo un monopolio en la disciplina a base
de de publicar generalidades teóricas, algunas evidencias anecdóticas,
describir escenarios incompletos con muestras muy pequeñas (casi siempre
en EEUU o Reino Unido) y cuyos trabajos habían tenido un impacto escaso
o nulo.
Ahora sin embargo estos autores promueven estrategias alternativas. Por
un lado piden una moratoria en la publicación de rankings, tiempo que
emplearían en reconstruir sus lobbies, y por otro exigen transparencia y
libre acceso a los datos sobre los que otros han construido rankings. Es
tremenda desfachatez criticar la labor de otros y reclamar al tiempo el
fruto de su esfuerzo para beneficio propio.

http://globalhighered.wordpress.com/2010/09/21/governing-world-university-rankers-an-agenda-for-much-needed-reform/

Pero quizá la final tengan algo de razón. Uno de los actores principales
en la publicación de rankings es la revista inglesa Times Higher
Education, que desde 2004 viene editando una clasificación tan popular
como la de los chinos (ARWU). Hasta 2009 la parte técnica de recolección
de datos y elaboración del ranking estaba subcontratada a la empresa QS
que obtenía pingües beneficios tanto del contrato con THE como de la
explotación de los datos. En las últimas ediciones los sesgos de este
ranking empezaron a ser clamorosos, no solo porque al parecer las
mejores universidades estaban concentradas en los países de la
Commonwealth británica, sino porque había cierta correlación entre las
posiciones de algunas de las universidades y que estas contrataran
publicidad en las páginas web de QS.
Con mucho bombo y platillo y con evidente amargura entre las partes, THE
rompió el contrato con QS y lo traspasó, a través de la filial Evidence,
a Thomson, la famosa productora de las bases de datos de citas del ISI.
En un largo proceso muy publicitado, THE inició una serie de consultas
con expertos, pidió colaboración a los interesados, y prometió un
ejercicio de elaboración de un nuevo ranking más riguroso, trasparente y
con un mayor volumen de información sobre los que basar los resultados
finales.
A mediados de Septiembre miles de medios en todo el mundo anuncian la
disponibilidad del Top 200 de las universidades del mundo según THE (si
se quieren conocer las 400 primeras hay que pagar una aplicación para
iPhone que cuesta unos 20 dólares). Apenas unos días después comienzan a
aparecer las primeras críticas.

http://rankingwatch.blogspot.com/

Al parecer faltan universidades importantes en las primeras posiciones
(Oslo, Texas, algunas taiwanesas o israelíes entre otras). Rompiendo la
prometida trasparencia, THE no posiciona universidades que no han
proporcionado datos y lo que es más grave no indica cuales son. El
usuario final desconoce este hecho y solo tiene un ranking incompleto.
Poco después algunos rectores informan que no han recibido las
peticiones mientras que otros rechazan suministrar datos muy prolijos
que les requerirían tiempo y dinero sin contrapartida por parte de una
compañía con fines de lucro.
Unos días después un examen cuidadoso de los resultados revela que al
menos uno de los indicadores, el de las citas, ofrece posiciones cuando
menos sorprendentes. La universidad egipcia de Alejandría se convierte
según este criterio en la cuarta del mundo. Un científico de dicha
universidad con ciertas prácticas poco éticas de publicación y auto-cita
parece el responsable directo de este fiasco. En realidad se trata de un
problema científico mas serio pues se ha utilizado un indicador
bibliométrico (el “crown indicator” desarrollado por el equipo CWTS de
la Universidad de Leiden) de manera inadecuada, que trastoca seriamente
toda la secuencia de universidades.
A pesar de que los resultados son insostenibles, THE no ha publicado
ningún tipo de aclaración, no plantea la retirada de su ranking, que
debiera realizarse de forma inmediata, y sigue vendiendo un producto
completamente inútil.

Artículo de Juan Aréchaga en El país (J Arechaga 15 sept.)

Perdón, la lista no admite pdfs.
Artículo publicado en EL PAÍS:
http://www.elpais.com/articulo/sociedad/importan/solo/nos/citan/quienes/hacen/elpepusoc/20100906elpepusoc_10/Tes

-------

Juan Aréchaga Martínez
Catedrático de Biología Celular

Text-mining, Analysis, and Visualization (Antonio Perianes 15 sept.)

1st Global TechMining Conference
"Text-mining, Analysis, and Visualization"
13-14 September, 2011
Atlanta, Georgia

In conjunction with the 2011 Atlanta Conference on Science and
Innovation Policy, VPInstitute along with Georgia Tech's Program in
Science, Technology and Innovation (STIP) and Technology Policy
Assessment Center (TPAC), will sponsor the 1st Global TechMining
Conference. The goal of this conference is to advance the application
of textual information to research occurring in multiple fields.

"Tech mining" tools include bibliometric and text mining software
(e.g., VantagePoint) as well as other visualization applications.
Topics will cover case studies/research results, development of new
indicators, and development of enhanced software tools (e.g., macros).

Within this context, the conference will address a family of themes,
including: o Research profiling (or "landscaping") by researchers to
identify best opportunities, findings in adjacent fields, and
Literature-Based Discovery
o R&D assessment (program evaluation and such)
o Sense-making in the Science, Technology & Innovation domain (i.e.,
public policy analyses)
o Intelligence gathering to support decision-making in the private
sector (e.g., Management of Technology)
o Best practices in VantagePoint software-based text-mining, analysis,
and visualization
This conference is intended for researchers and students across
multiple fields, especially: " Scientometrics
" Public Policy " Management of Technology
" Information Science

For the latest information, and to indicate your interests (e.g.,
presenting), please subscribe to our mailing list by visiting the
conference website at www.gtmconference.org.

Actas del STI 2010 (I Aguillo 15 sept.)

El libro de resúmenes de las comunicaciones presentadas al Congreso:

Eleventh International Conference on Science and Technology Indicators

está disponible gratuitamente en:

http://www.cwts.nl/pdf/BookofAbstracts2010_version_15072010.pdf

El Congreso se celebró la semana pasada y fue muy interesante. Sirvió de
despedida al Prof. Van Raan que se jubila del CWTS y cuyas aportaciones
a la bibliometría han sido reconocidas por la reina de Holanda con el
nombramiento de caballero (!!).

Vuestro turno

Conferencias de Harnad sobre metrica y repositorios (TBaiget 8 sept.)

Este mes de septiembre Stevan Harnad, de la School of Electronics and Computer Science (ECS) de la University of Southampton, uno de los pioneros del acceso abierto (OA), presenta informes sobre métricas para evaluar el impacto de los artículos de investigación revisados por pares, en tres conferencias en Europa.

Copenhage
El 3 de septiembre intervino en una sesión pública con responsables políticos de la universidad y de consejos de financiación de Copenhague, Dinamarca, hablando de "Mandating (green) open access to maximize the usage and impact of Danish research". Harnad presentó los resultados del conocido informe Houghton según el cual si toda la investigación danesa se auto-archivara, Dinamarca se ahorraría más de doscientos millones de coronas, con una relación coste / beneficio de más de 10 a 1. También demostró que el OA aumenta el uso de la investigación y el impacto en 25-250 por ciento.

Leiden
El viernes (10 de septiembre) habla de "Open research metrics and the open access advantage" en la Universiteit Leiden, Holanda. Harnad dice que la llegada del OA trae consigo la de la métrica de la investigación en abierto.
Presentará datos sobre la ventaja en citas con el acceso abierto, y ofrecerá recomendaciones metodológicas para la validación de las métricas.

"La cienciometría también incluirá la semiometría (semiometrics), derivada de la minería de datos de los textos completos, y la cronometría realizará el seguimiento, analizará y proyectará las métricas a través del tiempo", dice. "Las métricas actuales también tendrán que ser utilizadas como incentivo para inducir a los investigadores a proporcionar los contenidos en acceso abierto que todavía faltan".

Bruselas
La semana que viene (13-14 de septiembre), en el seminario euroCRIS (Current Research Information Systems) en Bruselas, Harnad también hablará sobre el análisis del impacto de las investigaciones archivados en repositorios institucionales, un tema que se está convirtiendo cada vez en más importante.

Su presentación se titula "Institutional repositories for open access: mandates deposit policies" y en ella discute por qué si más del 90% de las revistas apoyan el auto-archivo inmediato por parte de sus autores, luego sólo un 20% de los autores deposita su artículo.

"Tal y como demuestran los estudios realizados por Alma Swan y Bo-Christer Björk, aunque los investigadores universitarios conocen y valoran los beneficios del OA, lo mismo que conocen el "publicar o perecer", luego no proporcionan sus papers de manera espontánea; sólo lo hacen si existe un mandato de sus instituciones o de las agencias financiadoras", dijo Harnad. "Una década de evidencia ha demostrado que seguir esperando que el OA provenga espontáneamente por impulso de la gente es esperar en vano".

Nota de prensa original:
http://www.ecs.soton.ac.uk/about/news/3383