sábado, 30 de agosto de 2008
Invitación 53 Congreso Internacional de Americanistas (JA.Frias-USAL 29 agosto)
Presentación: En el contexto de la explosión de la información en la era actual, se hace necesario reflexionar sobre la producción, organización y difusión de la información producida por y para la comunidad científica y académica de América Latina, en el entendido de que no necesariamente la cantidad de información y tecnología por si mismos generan transformaciones importantes en la sociedad.
Latinoamérica consume grandes cantidades de información de los Estados Unidos y Europa, mientras que aquellas regiones consultan, adquieren y difunden muy poca información de la que se produce en esta región geográfica del continente americano, por lo tanto es fundamental tener una discusión entre colegas dedicados al estudio de las ciencias sociales, las ciencias de la información y la bibliotecología sobre la situación de nuestros países a este respecto, ya que para ser parte dela sociedad del conocimiento es necesario valorar el conocimiento que se produce en nuestros países.
Además para considerar que se ha llegado a la sociedad del conocimiento, es necesario dar prioridad al conocimiento teórico y a la información académica y científica por encima de la información comercial, económica, noticiosa, informática o de divulgación, así como, elaborar mediciones cualitativas de la información. En este sentido hay esfuerzos de producción, organización, difusión y consulta de información científica y académica generada en América Latina.
Así, el objetivo de este seminario es intercambiar experiencias a este respecto y reflexionar sobre las posibilidades de que Latinoamérica pueda conformar una sociedad del conocimiento. Asimismo, discutir sobre los retos a que nos enfrentamos y al mismo tiempo, dar a conocer los recursos de información que se generan y difunden en nuestros países, muchas veces con esfuerzos regionales que involucran a diversos países e instituciones, generalmente de carácter no lucrativo.
Temas a tratar:
Conceptualización y caracterización de la sociedad del conocimiento..
Información y conocimiento: diferencias y convergencias.
Organización de la información científica y académica en América Latina.
La revista científica en América Latina como medio de comunicación de avances y aportaciones de investigaciones.
Difusión del conocimiento en América Latina.
Información digital en Latinoamérica
Para mayor informacion puede acceder a la página Web del evento http://www.53ica.com/
Silvia Díaz Escoto-Universidad Nacional Autónoma de México
Orchid Mazurkiewicz-UCLA
Coordinadoras del simposio
Otro artículo sobre alternativas al FI (T.Baiget 26 agosto)
Banks, Marcus A., Dellavalle, Robert. "Emerging alternatives to the impact factor"OCLC systems & services, 2008, v. 24, n. 3, pp. 167-173 ISSN: 1065-075X
http://www.emeraldinsight.com/10.1108/10650750810898200
Se presentan cinco categorías de alternativas al factor de impacto:
- mediciones basadas en los mismos datos que el factor de impacto,
- mediciones que refinan el factor de impacto con índices "page rank" que pesan los recursos electrónicos o sitios web según los enlaces que reciben;
- medición del número de descargas del artículo y de otros factores de uso;
- sistemas de recomendación, en los que los investigadores tasan el valor de los artículos, individualmente y en grupos colectivos; y
- medidas más ambiciosas que intentan tener en cuenta la interacción y la influencia de todos los elementos en el sistema de comunicación académica.
Tomàs Baiget
http://elprofesionaldelainformacion.com
domingo, 24 de agosto de 2008
Proyecto piloto para el OA a los resultados de la investigación_científica financiada por la UE (T.Baiget 22 agosto 2008)
Dará acceso sin restricciones por internet a los resultados de la investigación financiada por la UE, principalmente artículos publicados en revistas revisadas por pares, tras un período de embargo de 6-12 meses.
El piloto cubrirá alrededor del 20% del presupuesto del 7º Programa Marco de Investigación (7PM) en áreas como la salud, energía, medio ambiente, ciencias sociales y las tecnologías de información y comunicación --¿por qué ese miserable 20% solamente, me pregunto?--.
Con esta iniciativa, la CE trata de asegurar que a los resultados de la investigación que financia en el marco del 7º PM (más de 50.000 millones de euros entre 2007-2013) se le dé la difusión más amplia y eficaz posible.
Ahora ya sólo falta que vengan los franceses y lo jodan como siempre.
Tomàs Baiget
http://elprofesionaldelainformacion.com
Resultados de PubMed en forma de caras (T.Baiget 21 agosto 2008)
http://www.postgenomic.com/faces/index.php
Este sitio aplica un sencillo procedimiento fotorrealista, variante de la técnica de visualización de las Caras de Chernoff*, para representar la calidad (o así) de artículos hallados en búsquedas en la base de datos PubMed. Muestra los resultados como un conjunto de rostros humanos.
La teoría es que el mapeo de datos multidimensionales (en este caso la antigüedad del artículo, el factor de impacto de la revista y el número de citas recibidas) en forma de rasgos faciales aprovecha el hecho de que nuestros cerebros están muy bien dotados para reconocer, procesar y diferenciar rostros humanos.
Cada documento se representa como un rostro. La edad del rostro se correlaciona con la fecha de publicación del documento. Una sonrisa significa que el documento ha sido citado más veces de lo esperado (sobre la base de la edad). Sonrisas más grandes significan más citas. Fruncir el ceño significa que el documento se ha citado mucho menos de lo que cabría esperar. Las cejas subidas se correlacionan con el factor de impacto (realmente el Eigenfactor) de la revista en la que el documento fue publicado.
Como curiosidad adicional se puede seleccionar la etnia (europeo, africano, indio, oriental) y el género (masculino, femenino) de la cara (por defecto aparece una mezcla aleatoria).
*http://kspark.kaist.ac.kr/Human%20Engineering.files/Chernoff/Chernoff%20Faces.htm
Tomàs Baiget
http://elprofesionaldelainformacion.com/
Comparación FI de Scopus y JCR (T.Baiget)
The Summer 2008 issue of Issues in Science and Technology Librarianshipis now available at http://www.istl.org/
"Comparison of Journal Citation Reports and Scopus impact factors forecology and environmental sciences journals"by Edward Gray and Sarah Z. Hodkinson, Duke University
El artículo puede bajarse gratuitamente de aquí: http://www.istl.org/08-summer/article1.html
CONCLUSIONES
Los factores de impacto son útiles para clasificar y comparar las revistas científicas, y son uno de los indicadores más utilizados para resaltar la importancia de las revistas dentro de la comunidad académica. Con todo el peso que se da al factor de impacto, es importante que estos valores no varíen significativamente de una base de datos a otra. Este estudio comparativo entre JCR y Scopus en los ámbitos de la ecología y las ciencias del medio ambiente no mostró diferencias estadísticamente significativas, lo que indica que cualquiera de las dos puede ser usada con el propósito de evaluar. Si bien la mayoría de los factores de impacto y rankings de revistas de Web of Science y Scopus fueron bastante similares, algunas revistas obtuvieron factores de impacto bastante diferentes. En algunos casos estas diferencias podrían ser debidas a una indexación incompleta en Scopus. Debido a que nosotros nos basamos en el número de artículos citables en JCR para calcular nuestros factores de impacto Scopus, nuestra metodología podría haber disminuido el factor de impacto Scopus y el ranking de algunos títulos. Nuestro rápido examen de los datos en el Web of Science también mostró que el número de citas utilizado en JCR podría ser incorrecto para algunos títulos. Por último, la colección de títulos indizados por las dos bases de datos pueden afectar las diferencias en ranking y en factores de impacto halladas en JCR y Scopus.
Dado que los factores de impacto del JCR son la norma utilizada por la mayoría de los anunciantes de revistas y por los administradores universitarios, podemos ahora estar seguros de que esos valores están también suficientemente cerca de los factores de impacto de Scopus para justificar el uso de una única base de datos. Esto es importante porque demuestra que no es necesario calcular los factores de impacto de Scopus además de los del JCR. Sin embargo, es todavía importante utilizar el factor de impacto JCR cuidadosamente. Hay muchas variables que pueden afectarle y que deben tenerse en cuenta cuando se utiliza la ratio de Garfield para evaluar la importancia de una revista.
Traducción: Tomàs Baiget
http://elprofesionaldelainformacion.com/
¿Por_qué algunas personas comparten voluntariamente lo que saben? (J.A.Frias-USAL 20 agosto 2008)
* Mergel, I., Lazer, D. andBinz-Scharf, M.C. (2008) 'Lending a helping hand: voluntary engagement in knowledge sharing', Int. J. Learning and Change, Vol. 3, No. 1, pp.5- 22.
http://www.iq.harvard.edu/blog/netgov/Mergel_Lazer_Binz-Scharf_2008.pdf
La respuesta no es fácil. El argumento de los autores es que las personas "expertas" que comparten su conocimiento valoran múltiples factores a partir de tres parámetros: el coste de la respuesta, el grado de influencia que se va a ejercer y la reputación obtenida. Evidentemente, la discusión es más rica, ya que los motivos para contestar no sólo son el altruismo o el buen humor de la persona que responde, sino que también influye el contexto social en el que se produce la pregunta.
Polémica Journal of Cell Biology - ISI por el cálculo del FI (publicado en 2007) (T.Baiget 18 agosto 2008)
Rossner, Mike; Van Epps, Heather; Hill, Emma. "Show me the data" (editorial). The Journal of Cell Biology, v. 179, n. 6, pp. 1091-1092.doi: 10.1083/jcb.200711140The Rockefeller University Press, 0021-9525 rossner@rockefeller.edu
Versión en inglés (html):
http://www.jcb.org/cgi/content/full/179/6/1091
Versión en español (pdf):
http://www.jcb.org/cgi/content/full/jcb.200711140/DC2
Tomàs Baiget
http://elprofesionaldelainformacion.com
Qué hacen luego los investigadores culpables de mala conducta científica (T.Baiget 14 agosto 2008)
Barbara K. Redman; Jon F. Merz. Scientific misconduct: do the punishments fit the crime? What happens to researchers after a finding of misconduct? Science, vol. 321, n. 5890, p. 775.
8 August 2008.
DOI: 10.1126/science.1158052
merz@mail.med.upenn.edu
http://www.sciencemag.org/cgi/content/summary/321/5890/775(el pdf es de pago)
Durante dicho período, la ORI halló 106 científicos culpables de mala conducta (plagio, manipulación de datos, o fabricación de resultados) en las áreas biomédicas, de los cuales excluyendo estudiantes y becarios de investigación quedan 43 científicos. Se constató que 26 de ellos tenían más de una infracción. A partir de las referencias disponibles en PubMed, los expertos vieron que 37 de los científicos [los que les pudieron seguir la pista] habían publicado un promedio de 2,1 documentos en el año anterior a que fueran declarados culpables. Después de haber sido 'atrapados', esos científicos publicaron un promedio de 1,0 artículo anual. 12 de ellos no publicaron nada. Por lo tanto, hubo una considerable disminución de la productividad, aunque una gran parte de los científicos todavía estaban en condiciones de que sus trabajos fueran aceptados para su publicación. En términos de sanciones oficiales, se constató que más de la mitad de ellos tuvieron vetado pedir subvenciones y contratos durante tres años. Los 43 fueron retirados de puestos en juntas consultivas de Servicios de Salud Pública durante un promedio de 3,5 años. A pesar de ello, 16 de los 37 científicos sospechosos aún trabajan en el mundo académico.
Si bien los dos especialistas no pudieron clasificar las penas según el tipo de faltas cometidas, lo que sí observaron es que la falsificación y la fabricación de datos fueron tratadas con mayor severidad que el plagio.
Nota de prensa original:
http://arstechnica.com/journals/science.ars/2008/08/12/what-are-the-consequences-for-scientific-misconduct
Traducción: Tomàs Baiget
http://elprofesionaldelainformacion.com/
miércoles, 13 de agosto de 2008
El Citation Impact Center de Thomson Reuters (TBaiget)
Reuters Thomson Scientific anunció hoy la adición de nuevas características a su Citation Impact Center –una web dedicada a recursos académicos y al debate sobre las múltiples facetas de la evaluación basada en citas. El Citation Impact Center, oficialmente Citation Impact Forum, ahora ofrece entrevistas y comentarios de los líderes de la industria --expertos en bibliometría, investigadores y editores- acerca de la evaluación académica. Además se puede participar en los debates sobre los artículos publicados. Los expertos que lo deseen pueden enviar artículos y comentarios para su publicación en ese sitio. El comentario más reciente, "Preserving the integrity of the Impact factor", analiza unas directrices recomendadas para la interpretación y el uso adecuados del factor de impacto. "El Citation Impact Center promueve un diálogo dinámico dentro de la comunidad de investigación, permitiendo a los usuarios compartir con los colegas las estrategias y herramientas que se utilizan para evaluar a los investigadores, instituciones, publicaciones", dijo James Testa, director editorial de Thomson Reuters Scientific. Thomson Reuters también utilizará el Centro como un lugar para publicar -o para aclarar- el uso adecuado y la interpretación de las cifras de la investigación que circulan entre la comunidad científica y que se publican en revistas, blogs y otros foros. "No hay ninguna forma perfecta de evaluar la investigación -todos los parámetros de investigación tienen sus ventajas y sus limitaciones", dijo Jim Pringle, vicepresidente de desarrollo de productos de Thomson Reuters. "Como socios en la investigación, mediante la promoción de entendimiento y discusión sobre las cifras esperamos alentar a todos a utilizarlas de manera más eficaz".
http://scientific.thomsonreuters.com/citationimpactcenter
Para presentar un artículo para su publicación en el Citation Impact Center, póngase en contacto con:
Sue Besaw
susan.besaw@thomsonreuters.com
Fuente:
http://www.marketwatch.com
Traducción: T. Baiget
http://elprofesionaldelainformacion.com
Uso y mal uso de los índices bibliométricos para evaluar el rendimiento académico (T.Baiget)
Todos los artículos están en acceso abierto y pueden bajarse de este sitio:
http://www.int-res.com/abstracts/esep/v8/n1/
Ethics in science and environmental politics (Esep), vol. 8, n. 1, 2008, Published online January 31, 2008; Printed June, 2008 http://www.int-res.com/abstracts/esep/v8/n1/
Use and misuse of bibliometric indices in evaluating scholarly performance Editors: Howard I. Browman, Konstantinos I. Stergiou
La cuantificación del rendimiento de los académicos, grupos de académicos, departamentos, instituciones, provincias / estados / regiones y países se ha convertido en parte integral de la toma de decisiones de la política de investigación, asignación de fondos, concesión de subvenciones, contrataciones del profesorado, y solicitudes de promoción y mantenimiento del puesto. Para hacer las evaluaciones se tienen en cuenta los índices bibliométricos (basados sobre todo en contar citas) como el índice h y el factor de impacto de las revistas. Existe un consenso cada vez mayor, y una profunda preocupación, de que estos índices -utilizados más y más a menudo como un sustituto del juicio de los compañeros- no se entienden y, por consiguiente, son mal interpretados y usados incorrectamente.
Los artículos de esta revista Esep presentan una gama de perspectivas sobre estas cuestiones. Distintos enfoques, herramientas y métricas que se espera conduzcan a que esos instrumentos se usen de una forma más adecuada
(abstract traducido por Tomàs Baiget)
Ranking Web de Universidades del Mundo: Edición de Julio de 2008] (T.Baiget)
En la clasificación correspondiente a Julio, el Laboratorio de Cibermetría, del Consejo Superior de Investigaciones Científicas (CSIC), ha aumentado la cobertura mundial y presta más atención a los países en vías de desarrollo, en especial a las instituciones iberoamericanas, africanas y del mundo árabe.
Sin embargo, de acuerdo a esta publicación entre las mejores 200 universidades nada menos que 123 son norteamericanas (106 estadounidenses), mientras que los europeos colocan únicamente 61 universidades. Asia-Pacífico tiene 14 universidades en dicho grupo y Latinoamérica únicamente dos completando esta élite.
Las universidades mejor posicionadas apenas cambian, puesto que el Instituto de Tecnología de Massachussets (MIT), encabeza el ranking seguido de las universidades de Harvard y Stanford. Otras importantes universidades como Berkeley, Cornell o Toronto también aparecen entre las primeras. Sin embargo, Caltech o Johns Hopkins quedan ligeramente relegadas por políticas Web inadecuadas.
Entre las universidades europeas destaca el peso de Alemania por número de universidades entre las mejores, pero son las universidades británicas y nórdicas las que copan los primeros lugares. La Universidad de Cambridge continúa siendo la primera universidad europea, situándose en la posición número 26. La sigue el Swiss Federal Institute of Technology en Zurich, que avanza hasta la posición 32 y supera a las universidades de Helsinki y Oxford, en las posiciones 42 y 47 de la clasificación, respectivamente.
Destacan las buenas prestaciones de las universidades de Viena y Praga, pero la también la ausencia de instituciones francesas o la posición retrasada del Imperial College, de nuevo debido a prácticas que penalizan su posición Web. En el caso de España, la primera universidad española es la Universidad Complutense de Madrid, que avanza 33 puestos en la lista, dando un importante salto hasta el puesto número 140 (desde el 173 de la pasada edición). Dentro de Europa, se coloca en la posición número 32. Muy alejadas le siguen las universidades catalanas que no terminan de unificar sus dominios, lo que posiblemente les prive de encabezar el ranking nacional.
Por número de universidades entre las 500 primeras, España (25universidades) se sitúa por delante de países como Italia (14 universidades) o Francia (12 universidades).
En lo que se refiere a Iberoamérica, destaca con dos universidades dentro de las 200 primeras y la Universidad Autónoma de México se sitúa muy cerca de las 50 primeras clasificadas, en el puesto número 51 del Ranking mundial, avanzando 8 puestos con respecto a la edición anterior(número 59). La segunda, es la universidad de Sao Paulo, en la posición número 113.
Las universidades brasileñas copan los primeros puestos, aunque en el grupo de cabeza se sitúan también las Universidades de Chile (214 del mundo) y Buenos Aires (360 global).
En lo que se refiere a los Centros de Investigación, el listado está liderado por instituciones estadounidenses como el National Institutesof Health o la National Aeronautics and Space Administration (NASA).
En cuanto a España, la Agencia Estatal Consejo Superior de Investigaciones Científicas (CSIC) es la institución española mejor posicionada a nivel mundial, en la situación número 28, seguido de RedIris Española de I+D, colocado en la posición 37 de la lista. Por delante de ellas en Europa se encuentran el Max Planck Gesellschaft (Alemania, puesto número 5), seguido del Centre National de la Recherche Scientifique (CNRS) (Francia, puesto número 6).
La mejora en la posición del CSIC es debida al esfuerzo de su repositorio científico Digital.CSIC que se ha colocado cerca de los 100 más importantes de su categoría tal como muestra el Ranking Web de Repositorios (http://repositories.webometrics.info/)
****************************
Isidro F. Aguillo Laboratorio de Cibermetría Cybermetrics LabCCHS - CSIC
Joaquin Costa, 2228002 Madrid. Spain
isidro @ cindoc.csic.es
+34-91-5635482 ext 313
****************************
Más_de_30_españoles en la conf. de indicadores de Viena (T.Baiget)
http://systemsresearch.ac.at/sti-conference/
Según el programa, van a participar con comunicaciones:
Ana Mª Utrilla
Anabel Bonilla-Calero
Benjamín Vargas
Carmen López-Illescas
Clara Calero Medina
Daniel Torres-Salinas
Elías Sanz
Emilio López-Cózar
Evaristo Jiménez-Contreras
Félix de Moya
Isabel Gómez
Isidro F. Aguillo
José Luis Ortega
Juan Gorráiz
María Bordons
Mario Fernández
Mercedes De la Moneda-Corrochano
Rafael Ruiz-Pérez
Rodrigo Costas
y con posters:
Amparo Frías
Àngel Borrego
Adelaida Román-Román
Antonio Perianes-Rodríguez
Candela Ollé
Carlos Olmeda-Gómez
Elba Mauleón
Elea Giménez-Toledo
Esther García-Carpintero
Luis M Plaza
Maite Barrios
Ann Villarroya
Ya nos contaréis vuestras impresiones por esta lista...
Encuesta de Elsevier - Los científicos usan las redes sociales (T.Baiget)
Por Daniel Pollock, vicepresidente de Outsell, Reino Unido http://www.elsevier.com/wps/find/authored_newsitem.cws_home/companynews05_00947
Elsevier publicó el 9 de junio de 2008 los resultados de una encuesta [1] para investigar "el nivel de adopción, la actitud y las percepciones del impacto futuro de los medios de comunicación social [2] en la colaboración y en el desarrollo de la investigación". La encuesta, realizada por 2collab [3], fue contestada por 1894 personas (una muestra seleccionada aleatoriamente de profesores universitarios y contactos de las administraciones públicas) usuarios de Elsevier Science Direct [4].
Los principales resultados sobre el uso de wikis [5], blogs [6], networking social [7], social bookmarking [8] y cosas por el estilo fueron los siguientes:
* Más del 50% de los encuestados creen que las aplicaciones sociales "jugarán un papel clave en la configuración de casi todos los aspectos del flujo de trabajo de la investigación" en los próximos cinco años;
* Más de una cuarta parte utiliza ya aplicaciones sociales;
* 23% cree que las aplicaciones sociales tendrán una 'gran influencia' en la solicitud de subvenciones y financiación en los próximos cinco años, mientras que más de una cuarta parte los ven importantes en el futuro para encontrar puestos de trabajo.
La encuesta concluye que "los científicos e investigadores seguirán dependiendo de las rutas tradicionales para la publicación de los resultados, pero los medios de comunicación social proporcionarán indicadores adicionales de calidad, ayudas para descubrir cosas y ofrecerán nuevas maneras de formar asociaciones de investigación".
Un estudio similar [9] lo llevó a cabo la empresa de investigación de mercados en ciencias de la vida Bioinformatics LLC en noviembre de 2007 para "determinar el papel de los medios de comunicación social en el proceso de compra de materiales para las ciencias de la vida". Estaba destinado a estudiar las decisiones de compra de los científicos de los laboratorios. Se halló que:
* 77% de los biólogos y médicos participan en algún tipo de medio de comunicación social;
* Alrededor del 40% de los científicos utilizan los medios de comunicación social durante una hora o más a la semana;
* Alrededor de un 50% cree que los blogs, grupos de discusión, comunidades en línea y sitios de redes sociales "facilitan el intercambio de ideas con colegas y/o la comunidad".
Descubrimiento de información, resolución de problemas, fuentes de noticias y colaboración profesional fueron citados por los dos estudios como beneficios importantes del uso de aplicaciones sociales. "Contenidos y conexiones online ayudaron a los científicos a descubrir herramientas y técnicas que tal vez nunca hubieran considerado de otra manera, así como para encontrar respuestas a las preguntas y problemas que no estaban en condiciones de resolver".
Además, la encuesta de Elsevier proporciona un ranking "STM Social Media Top Ten", medido según el porcentaje de encuestados que utilizan una aplicación determinada:
1 Nature network [10] - 36%
2 = BioMed Network* - 35%
2 = Facebook [11] - 35%
4 MySpace [12] - 34%
5 LinkedIn [13] - 33%
6 ResearcherID [14] - 19%
7 = CiteULike [15] - 18%
7 = 2collab [16] - 18%
9 Del.icio.us [17] - 15%
10 = Connotea [18] - 14%
10 = Digg [19] - 14%
* Nota: "BioMed Network" fue un error tipográfico en la encuesta de Elsevier: seguramente tenía que ser "BioMed Experts [20]", de Collexis. En nuestro análisis hemos asumido que los encuestados se referían a BioMed Experts, ya que no existe otra cosa de nombre similar en este contexto -aunque sin duda, la familiaridad con "BioMed Central", si bien no es una herramienta de creación de redes sociales, podría haber sesgado los resultados.
Consecuencias: El World Wide Web [21] fue concebido como un medio para la comunicación científica, y muchos científicos y bibliotecarios ya están familiarizados con listas de correo electrónico -servidores de listas [22]- que durante mucho tiempo han sido utilizados para la comunicación online. Por lo tanto, no es de extrañar que los científicos encuentren en internet herramientas útiles de colaboración. En su estudio "Information Markets and User Database 2007", Outsell encuestó a más de 7000 profesionales de la información. De los que respondieron del mundo académico -que son los que más lideran el camino en la adopción de los medios de comunicación social en comparación con las empresas y el gobierno- vimos que el 37% utiliza blogs y wikis y el 26% usa networking social para crear redes de contactos. El 13% usa marcadores sociales.
Puede haber diferencias entre las encuestas, pero hay una cosa clara: los científicos usan los medios de comunicación social.
Los medios de comunicación social reciben una gran cantidad de publicidad -desde los titulares mundiales generados por los principales sitios, hasta la cobertura de los pequeños sitios especializados-. Sin embargo, algunos sitios son mejores que otros y es interesante especular por qué. Si la marca es importante, ¿qué podría explicar por qué Nature Network es el número uno? Pero entonces ¿cómo explicar que BioMed Experts sea el número dos? BioMed Experts se puso en marcha hace sólo seis meses por una compañía de software que -con el debido respeto a Collexis- carece de la visibilidad de la marca Nature, Facebook, MySpace o LinkedIn. El otro medio social de Nature, Connotea, está en la posición 11.
La longevidad también parece que tienen escasa influencia en la popularidad: 2collab, relativamente nuevo, por ejemplo, se usa más que otros ya establecidas como Del.icio.us, Digg, Connotea y CiteUlike. Por último, vemos una mezcla de especialistas y de aplicaciones generales de consumo: ResearcherID, CiteUlike, y Connotea, por ejemplo, son todos ellos dirigidos directamente a los científicos, y están por debajo de los sitios de consumo.
En opinión de Outsell, todo depende de la utilidad para los investigadores. Parece ser que las cinco principales aplicaciones (utilizadas regularmente por más del 30% de los encuestados) son también las que hacen frente al conjunto más amplio de necesidades de flujo de trabajo, ofreciendo características ricas de colaboración y servicios de red -respaldados por extensas redes de contactos. BioMed Experts, por ejemplo, viene como una red totalmente formada, pre-rellena con los datos de más de 1,8 millones de investigadores, cosechados a partir de PubMed, con un completo conjunto de herramientas que permiten a un científico visualizar su red y encontrar expertos.
Collexis dio "el pistoletazo de salida" de su red ofreciendo varias utilidades y su marketing online a 200.000 científicos, cosa que sin duda le ayudó.
Para gestionar el equilibrio entre la necesidad de colaborar entre los científicos y la protección contra el plagio, Nature Network permite grupos de discusión privados y abiertos.
Facebook, MySpace y LinkedIn ofrecen características fijas ya maduras (y demuestran el principio de que las herramientas de los consumidores se desplazan hacia el uso profesional). Después de los 5 primeros puestos en el ranking se produce una caída del 20% para un conjunto más restringido de herramientas. Thomson Reuters' ResearcherID, por ejemplo, se centra en la gestión de la identidad de los investigadores.
En la experimentación con los medios de comunicación social vale la pena tener en cuenta el modelo de Google [23]: primero construir la "killer app", y más tarde sacar el dinero. Parece ser que hay que centrarse en la utilidad -utilidad para el usuario final- para ganar la audiencia. Los dólares ya seguirán. Links contenidos en este artículo:
[1] http://www.elsevier.com/wps/find/authored_newsitem.cws_home/companynews05_00947[2] http://en.wikipedia.org/wiki/Social_media
[3] http://www.2collab.com/
[4] http://www.sciencedirect.com/
[5] http://en.wikipedia.org/wiki/Wikis
[6] http://en.wikipedia.org/wiki/Blogs
[7] http://en.wikipedia.org/wiki/Social_networking
[8] http://en.wikipedia.org/wiki/Social_bookmarking
[9] http://www.gene2drug.com/reports/Default.asp?action=details&report_id=184&criteria=
[10] http://network.nature.com/
[11] http://www.facebook.com/
[12] http://www.myspace.com/
[13] http://www.linkedin.com/
[14] http://www.researcherid.com/
[15] http://www.citeulike.org/
[16] http://www.2collab.com/
[17] http://del.icio.us/
[18] http://www.connotea.org/
[19] http://digg.com/
[20] http://www.biomedexperts.com/
[21] http://en.wikipedia.org/wiki/World_Wide_Web
[22] http://en.wikipedia.org/wiki/Listservs
[23] http://www.wired.com/techbiz/media/magazine/16-07/ff_android?currentPage=2
Traducido por Tomàs Baiget
Revista EPI http://elprofesionaldelainformacion.com/
Re: [INCYT] OA no aumenta las citas (Alberto)
> Las conclusiones del estudio, publicado online en el British Medical> Journal, son especialmente importantes para los investigadores > académicos, debido a que la frecuencia con que se cita al autor de un trabajo puede afectar su situación laboral y su promoción.
En algún lugar he leído recientemente que cada vez se cita menos, prácticamente las citas son del último año y con tendencia a limitar la investigación a lo más reciente. Esto significa que cada vez se lee menos lo que hacen otros, porque lo importante para los científicos es publicar mucho para conseguir acreditaciones, habilitaciones,... Pero sin entrar en más detalles. Esto explica quizá que las universidades españolas sean las mayores exportadoras de doctores a los institutos de secundaria. No es raro ver a los compañeros cambiar la universidad de la LOU actual por una plaza de funcionario, el doble de sueldo y dos meses de vacaciones.
Un ejemplo: <http://www.elpais.com/articulo/sociedad/cerebro/volvera/investigar/elpepisoc/20080720elpepisoc_3/Tes>
OA no aumenta las citas (Cornell Univ.) (T.Baiget)
Las conclusiones del estudio, publicado online en el British MedicalJournal, son especialmente importantes para los investigadores académicos, debido a que la frecuencia con que se cita al autor de un trabajo puede afectar su situación laboral y su promoción. El estudio será publicado en la revista impresa del 9 de agosto de 2008.
Se trata del primer estudio controlado de la publicación en OA.
Algunos artículos de revista fueron distribuidos de forma aleatoria en OA mientras que otros se mantuvieron disponibles sólo por suscripción. Se trataba de determinar si un mayor acceso a los artículos de revistas daba por resultado más descargas y más citas.
Los investigadores pusieron al azar en acceso abierto 247 artículos de 11 revistas científicas. Midieron cuántas veces estos artículos fueron descargados, el número de visitantes únicos a cada artículo y cuántas veces se citó. Se constató que en el año siguiente a su publicación, los artículos en OA se descargaron más, pero no fueron más citados que los que estaban sujetos a suscripción.
**********
Philip M Davis, Bruce V Lewenstein, Daniel H Simon, James G Booth, andMathew J L Connolly. Open access publishing, article downloads, and citations: randomised controlled trial.BMJ 2008;337:a568, doi: 10.1136/bmj.a568 (Published 31 July 2008)
**********
Artículo gratuito en html
http://www.bmj.com/cgi/content/full/337/jul31_1/a568?maxtoshow=&HITS=10&hits=10&RESULTFORMAT=&fulltext=open+access&searchid=1&FIRSTINDEX=0&resourcetype=HWCITEn pdf
http://www.bmj.com/cgi/reprint/337/jul31_1/a568?maxtoshow=&HITS=10&hits=10&RESULTFORMAT=&fulltext=open+access&searchid=1&FIRSTINDEX=0&resourcetype=HWCIT
Tomàs Baiget. Revista EPI. http://elprofesionaldelainformacion.com
Artículo_revisión de Thelwall (T.Baiget)
http://cvu.rediris.es/pub/bscw.cgi/d900397/Biblio-to-webo-Thelwall.pdf
Thelwall, Mike. "Bibliometrics to webometrics". Journal of information science, 2008, vol. 34, n. 4, pp. 606-621.
Tomàs Baiget. EPI. http://www.elprofesionaldelainformacion.com
Re: [INCYT] Herramienta de Microsoft para "ayudar en la investigación" (sic) (Alberto - 31 julio)
> El Research Information Centre, en estrecha colaboración con la British Library, será organizado a través de Microsoft Office SharePoint Server 2007 y permitirá a los investigadores a colaborar en todo el flujo de trabajo del proyecto de investigación: desde la búsqueda de financiación de la investigación hasta la búsqueda y recopilación de información, así como la gestión de datos, documentos y otros objetos de investigación en todo el proceso de investigación.
La idea es buena y permitiría a los investigadores controlar todo el proceso de la investigación. Supongo que alguien se ha percatado de lo imbécil que puede llegar a ser la comunidad científica al poner toda su fe en cosas como el ISI y habrán pensado que para que el poder sobre la investigación y los investigadores lo tenga Thomson, mejor lo tiene Microsoft y controla todo el ciclo. Si además cuenta con la British Library... Otra cosa es llevar la idea a la práctica, otra que funcione y otra que sea gratis de verdad.