lunes, 12 de diciembre de 2011

R1 Semana 4

Rama del conocimiento:

¿Qué sé? (Escribir por lo menos un concepto para cada punto solicitado)
¿Qué me gustaría profundizar?
(Relacionado con el concepto escrito en la columna anterior)
¿Qué fuente de información puedo buscar para aprender?
(Buscar un documento adecuado a la inquietud y anotar el link. Si lo desean, también, pueden guardar el link en su Delicious).
Sobre buscadores, metabuscadores, especializados en su rama del conocimiento.
Conozco Pubmed.
Combinación de palabras clave y filtros
En relación con la pertinencia y confiabilidad
Resultados que me garanticen que se vinculan con lo que estoy buscando, y que dicha info tenga un aval académico.  
Mejorar mi perfomance en búsquedas confiables.
Vinculado con el aprender a buscar
 Conocimiento de búsqueda avanzada
 Combinar búsqueda avanzada con especificidad

Relacionado con enseñar a buscar.
 Enseñar a los alumnos 4 cosas: donde buscar, cómo buscar, cómo filtrar y  cómo usar lo hallado
 Mayor ductilidad docente, realizar una búsqueda en un mismo buscador con diversas estrategias, o en diferentes buscadores y comparar resultados

Ligado a competencias del manejo de la información
 Como elegir los buscadores según el tema a abordar
Cuándo detenerse

domingo, 4 de diciembre de 2011

A2 semana 3

CONVERSACIÓN CON DANIEL BRAILOVSKY 02-12-2011


Los puntos clave de la sesión de chat fueron los siguientes:

Traducir lo que se desea buscar a palabras clave.
Buscadores más confiables: google académico, y otros indexadores de revistas (Redalyc, Dialnet).
A su vez, dentro del google académico (o el que sea), es mejor filtrar el tipo de archivo (por ejemplo pdf) y agregar a las palabras propias de la búsqueda otras que encuadren el texto en un estilo académico: abstract, bibliografía, resultados, discusión, introducción.
Una de las mejores formas de empezar es con la búsqueda avanzada del google académico. Pero hay cosas a las que se llega más fácilmente en espacios que se dedican específicamente a una temática.  
Un buen texto suele indicar quién lo escribió y dónde fue publicado, si hay dudas del origen se puede poner un fragmento del texto en un buscador genérico y ver los datos originales de citación.
En relación a la relevancia, ver en los resultados del google académico si aparece citado por otros y el número de veces que fue citado.
El uso de buscadores académicos hace que no aparezcan páginas que presentan resúmenes (de esos que usan los estudiantes).
Las mejores palabras clave son: de campo temático, frases breves y autores.
Enseñar a los alumnos 4 cosas: donde buscar, cómo buscar, cómo filtrar y  cómo usar lo hallado.
Para otros idiomas usar tesauro, http://www.freethesaurus.info/redined/es/
Los textos son confiables si contienen todo lo que un texto académico debería tener: un autor, un título, una adscripción institucional (revista, repositorio, etc.), una estructura de introducción / desarrollo/ conclusiones / bibliografía.
Evitar "INFOXICACIÓN"es decir, intoxicarse de información. Buscar mucho y leer poco.
Para validar información, usar los mismos criterios que usamos fuera de la web.
Usar la mayor cantidad posible de palabras clave. Una buena búsqueda es la que da la cantidad de resultados que soy capaz de revisar, y no más que eso”.
Buscadores relevantes en educación: google académico, redalyc, red clacso y BNM (Biblioteca Nacional de Maestros).
Cuanto más sabemos de un tema, podemos elegir mejor los descriptores, elegir una palabra o dos que tengan buenas chances de ser bien "universales" respecto del tema y hacer con ellas una búsqueda en TÍTULOS. Nos aseguramos que los resultados sean temáticamente pertinentes.
Una búsqueda inteligente no es aquella que usa un "buscador inteligente", sino la que elige bien las palabras clave y los procedimientos de búsqueda.
Mientras se busca, ir ordenando lo hallado para saber cuánto hemos avanzado en el relevamiento.

Comentario: Hay que tener en cuenta que los buscadores específicos tienen caracteres propios, por ejemplo el Pubmed usa dispositivos que dan mayor sensibilidad o especificidad a las búsquedas (Clinical Queries), que combinan palabras claves con “sub descriptores”, etc.

lunes, 28 de noviembre de 2011

SEMANA 2 - R2: ¡Con esto me conformo!

Es indudable que un buscador (humano) pretende, al usar un buscador SE, hallar en el menor tiempo posible la información que busca, y que la misma sea fiable.  Pero a veces se deben sacrificar uno o dos de los elementos. Puede que tengamos éxito pero nos lleve más tiempo del pensado (asumiendo que la info que se obtiene luego debe ser procesada, en el caso de monografías, si es material de estudio, si forma parte del marco teórico de una investigación, etc.).
Tal vez lo más común es que se obtenga “rápidamente un éxito” pero que la info no sea todo lo confiable que uno espera.
Por eso la combinación de las 3 es muy importante. Es mut probable que la mayoría de los usuarios que realizan búsquedas académicas(inclusive los participantes de este curso, y yo mismo) ya estemos acostumbrados a “velocidad y éxito” en las búsquedas. En ese curso creo que lo que vamos incorporando (yo al menos) es la confiabilidad, la cual deviene del uso de diferentes buscadores SE. Aunque creo que, a decir verdad, nada va a reemplazar a los buscadores específicos de bibliotecas, de instituciones científicas (aunque también deberían revisarse mecanismos de búsqueda en las instituciones, como además debería revisarse la metodología científica de muchas publicaciones, pues el hecho de publicar algo en una revista o sitio de renombre no es garantía per se de metodología apropiada), de metabuscadores académicos, de compiladores y de organismos productores y desarrolladores.

SEMANA 2 - R1 ¿Qué ves cuándo me ves?

El ejemplo a desarrollar es la relación entre obesidad y diabetes. Al buscar información en Google, poniendo obesidad, aparecen cerca de 16 millones de citas.
En realidad, pensando acerca de los buscadores SE, tal vez debería usar otro más específico, ya sea un general de salud o uno orientado a trastornos metabólicos. No he hecho una buena definición con palabras clave o usando trucos).Usé lenguaje de texto científico.
Esa cantidad de sites es poco útil. La búsqueda fue muy sensible y poco específica.
Tengo como opciones: escribir ambas palabras que busco, usar google académico, usar comillas.


obesidad diabetes
“obesidad diabetes”
Google
6300000
564000
Google académico
33000
2590

El google es muy veloz, si bien la confiabilidad es relativa, el hecho de usar el buscador académico mejora los hallazgos. Tal vez las citas recuperadas no sean todas relevantes, pero se saca de encima mucha información irrelevante.
Es indudable que hay que agregar otros buscadores, posiblemente los específicos del tema.

jueves, 24 de noviembre de 2011

Análisis de buscadores y metabuscadores

Revise las recomendaciones para  búsquedas avanzadas

Ask.com

Buenas, muy parecidas a la vanzada de google.



Búsqueda por tags: opinión

Gennio

Es una forma de ordenar cronológicamente (tags más recientes). No es ni bueno ni malo. Es otro criterio.



Qué agrega a Google

Scroogle



Tomado de wikipedia:

Scroogle es un servicio web que oculta la dirección IP de los usuarios que desean realizar búsquedas en Google de manera anónima. Scroogle también ofrece a los usuarios la opción de cifrar toda la comunicación entre su computadora y la página de búsqueda mediante SSL.

La herramienta fue creada por Daniel Brandt, un detractor de Google, quien estaba preocupado con la recopilación de información sobre usuarios de parte de Google, y estableció Scroogle para filtrar las búsquedas a través de sus servidores antes de remitirlas a Google. —No conservo los términos de búsqueda y borro todos mis registros cada semana. Así que aunque los federales vengan a hacerme preguntas, no conozco la respuesta porque ya no tengo los registros— dijo. —No asocio los términos con la dirección del usuario de ninguna manera, pues ni los puedo combinar.—

El tráfico al sitio se ha duplicado todos los años y en diciembre de 2007, Scroogle superó los 100.000 visitantes por día.

Además de búsquedas anónimas, la herramienta permite a los usuarios realizar búsquedas Google sin recibir publicidad de Google. Scroogle tiene soporte por 28 idiomas y la herramienta también está disponible como un complemento para ciertos navegadores





Diferencias entre buscador semántico e indizado

Hakia


Hakia.com es un buscador semántico. ¿Qué es Hakia y qué hace diferente? Los motores de búsqueda actuales como Google dan resultados a través de métodos estadísticos de clasificación, pero una web popular no siempre es creíble y fidedigna, y un sitio web creíbles pueden no ser siempre popular. Como resultado, los usuarios no siempre consiguen la mejor información, y en muchas ocasiones, consiguen aquella mejor posicionada y optimizada. Por supuesto los buscadores como Google dedican muchos recursos a evitar la sobre-optimización y a dar el mejor resultado posible para las búsquedas de los usuarios, pero siempre se encuentran con una limitación, tratan a las palabras como si números se trataran, porque sus “spiders” no con capaces de detectar el contenido semántico de los textos.

La tecnología semántica de Hakia pretende generar una búsqueda que se centra en la calidad, no la popularidad. Hakia dará resultados a las búsquedas buscando cumplir tres criterios simultáneamente: (1) Resultados que proceden de sitios Web creíbles recomendados por bibliotecarios, (2) resultados con la última información disponible. y (3) que sean absolutamente relevante para la consulta. De momento hakia.com sólo está en inglés



Para seguir con el mismo ejemplo del infarto (ver A2):



No dice cuántas son las citas recuperadas, pero las divide en (interesante clasificación):

  • Web
  • News
  • Blogs
  • Twitter
  • Images
  • Videos

Pero reamente no tengo forma de corroborar si las ventajas de hakia son realmente las enunciadas.


Repita búsqueda en buscador y metabuscador

Metacrawler
(comparar con E1)


Volviendo al ejemplo anterior, puse Disease Castleman, y veo que se divide en link y web, pero no hay forma de saber la cantidad de citas recuperadas, por lo cual no puedo establecer comparaciones.
Busca en Google, Yahoo y Bing. Usa por default filtro moderado, pudiendo aumentar la sensibilidad o la especificidad. Probé con mayor especificidad pero el número sigue siendo alto (incontable).
No encuentro ventajas (al menos no se muestran).

Que agregan a la búsqueda
Ixquick

Tomado de wikipedia:
Ixquick es un metabuscador localizado en Nueva York y Holanda, que ha proveído más de 120 millones de búsquedas desde 2004. Ixquick fue fundada por David Bodnick (actualmente líder "tecnológico" de Ixquick) en 1998, en Nueva York. Actualmente, es propiedad de una empresa alemana - Surfboard Holding BV, la que adquirió este motor de búsqueda en 2000.[]
Ixquick da relevancia especial a los primeros diez resultados de múltiples motores de búsqueda. Usa un "sistema de estrellas" ("Star System") para calificar sus resultados - coloca una estrella por cada resultado devuelto dentro de los diez primeros por motor de búsqueda. Por tanto, los resultados destacados son aquellos que han sido devueltos por la mayoría de los motores de búsqueda. Ixquick también puede buscar en 17 idiomas, incluyendo Chino simplificado y tradicional, Danés, Alemán, Inglés, Finés, Francés, Italiano, Japonés, Coreano, Noruego, Polaco, Portugués, Español, Sueco y Turco. Cada version de idioma incluye las correspondientes versiones de los motores de búsqueda utilizados.
Ixquick fue relanzado el 23 de marzo de 2005 con muchas nuevas características, incluyendo un algoritmo de metabúsqueda rediseñado y un directorio telefónico internacional.
El 27 de junio de 2006, Ixquick.com se convirtió en el primer motor de búsqueda que borra la información privada de sus usuarios. Direcciones IP y otra información personal eran borrados dentro de 48 horas desde la búsqueda. Ixquick tampoco comparte la información personal de sus usuarios con otros motores de búsquedas o con sus patrocinadores.
Ixquick obtuvo el primer Sello Europeo de Privacidad (EuroPriSe) por sus políticas de privacidad el 4 de julio de 2008. Esta iniciativa auspiciada por la Unión Europea garantiza la compatibilidad con sus leyes y regulaciones sobre seguridad y privacidad de datos, a través de una serie de auditorías de diseño y técnicas.
A partir del 29 de enero de 2009, Ixquick no registra las direcciones IP de sus usuarios en absoluto.


Kartoo


www.kartoo.com es el primer motor de búsqueda gratuito que personaliza sus resultados en función de los centros de interés del usuario a la vez que le permite gestionar y vigilar la información disponible en la red. Recientemente ha sacado una nueva versión con tres funciones realmente innovadoras:

1) Una personalización de los resultados en función de sus centros de interés y sus búsquedas anteriores

2) Un sistema de gestión de la información a la vez innovador e intuitivo: el Kapitalyser, patentado por KartOO SA.

3) Un sistema de vigilancia eficaz y fácil de usar



El Kapitalyser: cuando está activado, este sistema memoriza los términos buscados, los sitios visitados, las solicitudes satisfechas, con el fin de personalizar los resultados de sus búsquedas posteriores en función del perfil del usuario. El usuario tiene acceso permanente a este historial, lo cual le permite volver a encontrar fácilmente sitios web hallados durante búsquedas anteriores.

KartOO Watch: Se trata de un sistema de vigilancia que permite recibir un aviso cuando: - aparecen nuevos sitios relacionados con uno de sus centros de interés - se utilizan palabras clave en un sitio web (nombre de marcas, de productos, o sencillamente palabras clave) - hay una modificación o una actualización en una página web

KartOO Watch envía entonces un informe por correo electrónico y señala todas las modificaciones en los mapas temáticos: basta con un vistazo para mantener la vigilancia.

Mamma


Realiza metabúsqueda inteligente, cada vez que usted hace una pregunta Mamma muestra una gran variedad de directorios. Es elaborado por Copernic Corporation.

Ofrece una búsqueda por pestañas organizado por 5 pestañas en la parte superior, al igual que Google (web, noticias, imágenes, Twitter y Jobs).



Al hacer la búsqueda de infarto de miocardio, tira más de 6 millones de citas. No me parece útil.



Que puede decir del rastreo, indexación y publicación

dögpile



Utilia varios buscadores (Google, Yahoo, MSN, etc) y toma el universo de todos. Aclara en sus resultados de que buscador extrae el site. Un estudio demostró que la repetición de sites entre buscadores es lo menos frecuente.


Semana 1 - E1: ¡Uno es nada!

La actividad está dirigida a alumnos de Medicina Interna en el módulo Hematología. Una de las enfermedades (poco comunes pero severa) es la enfermedad de Castleman, de la cual hay pocos reportes mundiales.

Se les propone a los alumnos que realicen la búsqueda de dicha enfermedad, estableciendo 3 buscadores generales (Google, Yahoo y, solo a los fines de este ejercicio, Altavista), que además realicen la búsqueda en el Google Académico, y que  luego de buscar Enfermedad Castleman, repitan la búsqueda con comillas.



La clave de corrección (citas recuperadas) es:




Enfermedad Castleman
“Enfermedad Castleman”
Google
Aprox 14000
381
Yahoo
9980
36
Altavista
7090
27
Google académico
924
8



Escriban la actividad en un archivo de texto y  envíenla a sus tutores en el espacio Uno es nada de este mismo bloque.




Semana 1 - A2 Buscando buscadores académicos

Esto no pude subirlo al foro.


Autor de la búsqueda Pascual Valdez

Rama del conocimiento para el que estoy buscando información Ciencias de la Salud


Primer buscador

Nombre del Buscador. Pubmed

Editorial/empresa/ depende de/: Biblioteca Nacional de Medicina de USA

Dirección: http://www.ncbi.nlm.nih.gov/pubmed/

¿Es gratuito? ¿Requiere registrarse? Es gratuito y no requiere registrarse

¿Idioma? Inglés

¿Otro comentario? Acceso a resúmenes; en pocos casos permite enlace al texto completo



Segundo buscador

Nombre del Buscador. Trip Database

Editorial/empresa/ depende de/: BUPA Giving scheme


¿Es gratuito? ¿Requiere registrarse? Es gratuito y SI requiere registrarse

¿Idioma? Inglés

Agrego:
Búsqueda en Pub Med “myocardial infarction” 23/11/2011
Búsqueda en Trip Database “myocardial infarction” 23/11/2011



SEMANA 1 - Complemento A1: CRITERIOS DE EVALUACIÓN DE SITIOS WEB

Me resultó útil la lectura de:

CRITERIOS DE EVALUACIÓN DE SITIOS WEB

dialnet.unirioja.es/servlet/fichero_articulo?codigo=940472&orden...



La calidad de la información de los sitios disponibles en Internet es muy variable, por lo que no existe un control regulado en su publicación.

Aquí detallamos algunos aspectos a tener en cuenta en su evaluación:

  • Calidad de los resultados mostrados: El usuario se centrará casi siempre en los primeros enlaces. Es importante para un buscador Web ofrecer los mejores resultados en las primeras posiciones. Para medir la calidad de estos resultados se analizan los siguientes factores:

    • Número de enlaces relevantes: Número de páginas relacionadas con el tema buscado que aparecen en las primeras posiciones.
    • Número de enlaces duplicados o muertos: Indica el número de enlaces rotos o duplicados, que no aportan ninguna utilidad al usuario.
    • Número de páginas cubiertas por un servidor: Es mayor la probabilidad de contener la página buscada, cuantas más páginas contengan los buscadores en sus bases de dato
  • Tiempo de respuesta : En general, el usuario valora la rapidez con la que el motor de búsqueda obtiene los resultados deseados, pues raramente esperará más de unos segundos hasta tener los primeros resultados de la búsqueda.
  • Estructura de la interfase y accesibilidad a la página de acceso al buscador.
  • Servicios adicionales y tipo de servicios:
    • Posibilidad de búsqueda avanzada
    • Opciones de búsqueda
    • Contadores
    • Monitorización
    • Campos abarcados

De todas las medidas propuestas para evaluar a los SRI, hay dos criterios que son los más utilizados:

  • La exhaustividad o recall:

El valor asociado se obtiene de dividir el número de documentos relevantes que satisfacen una consulta entre el total de documentos relevantes contenidos en la base de datos.

Por ejemplo, suponiendo que en la base de datos existen 40 documentos relevantes para la consulta de un usuario y que el sistema de recuperación obtiene 20 documentos relevantes, por lo tanto la exhaustividad es de 20/40, es decir 50%.

  • La precisión:

La precisión se obtiene de dividir el número de documentos relevantes recuperados entre el número total de documentos recuperados.

Por ejemplo, suponiendo que un SRI contiene 40 documentos relevantes que satisfacen una consulta dada, y el sistema de recuperación solamente obtiene 30 documentos, de los cuales sólo 20 son relevantes; entonces la presición del sistema es de 20/30, es decir 67%.



Otros criterios de evaluación:

Son los relacionados con la estructura de datos y algoritmos de recuperación; éstos son:

  • La eficacia en la ejecución:

La eficacia en la ejecución es medida por el tiempo que toma un SRI para realizar una operación. Este parámetro es importante en un SRI, debido a que un largo tiempo de recuperación, interfiere con la utilidad del sistema, llegando a alejar a los usuarios del mismo si es lento.

  • La eficiencia del almacenamiento.

La eficiencia del almacenamiento es medida por el número de bytes que se precisan para almacenar los datos. El espacio general, una medida común para medir la eficacia del almacenamiento, es la razón del tamaño del índice de los archivos más el tamaño de los archivos del documento sobre el tamaño de los archivos del documento.

Los valores del espacio general que oscilan entre los valores 1,5 y 3 son típicos de los SRI basados en los archivos inversos.

Otros criterios de Evaluación:

Según Lancaster (1973) propuso que los criterios para la evaluación de los SRI deberían estar basados en los siguientes factores:

1) cobertura o alcance

2) exhaustividad

3) precisión

4) tiempo de respuesta

5) esfuerzo del usuario

6) formato de presentación

En todos los casos, la medida se basa en la relevancia de los documentos recuperados, es decir, en qué tanto se ha satisfecho la necesidad de información de los usuarios que hacen la consulta. Y aunque siempre se dice que la relevancia es un criterio subjetivo debido a que diferentes personas asignarían diferentes valores de relevancia a un documento, siempre se toma en cuenta en cualquier método de evaluación de los SRI.

Semana 1- Complemento A1 - Sobre Dogpile

(*) Findings Highlight Value of Metasearch

The overlap research conducted in April 2007, which measured the overlap of first page search results from Google, Yahoo!, Live, and Ask, found that only 0.6 percent of 776,435 first page search results were the same across these Web search engines. The April 2007 overlap study expanded on the April 2005 and July 2005 overlap studies. Here’s where the combined overlap of Google, Yahoo!, Live and Ask stood as of April 2007:

  • The percent of total results unique to one search engine was established to be 88.3%.
  • The percent of total results shared by any two search engines was established to be 8.9%.
  • The percent of total results shared by three search engines was established to be 2.2%.
  • The percent of total results shared by the top four search engines was established to be 0.6%. 
Other findings from the study of overlap across Google, Yahoo!, Live and Ask were: Searching only one Web search engine may impede ability to find what is desired.

  • By searching only Google a searcher can miss 72.7% of the Web’s best first page search results.
  • By searching only Yahoo! a searcher can miss 69.2% of the Web’s best first page search results.
  • By searching only Live a searcher can miss 69.9% of the Web’s best first page search results.
  • By searching only Ask a searcher can miss 73.0% of the Web’s best first page search results.
Majority of all first results page results across top search engines are unique.

  • On average, 69.6% of Google first page search results were unique to Google.
  • On average, 79.4% of Yahoo! first page search results were unique to Yahoo!
  • On average, 80.1% of Live first page search results were unique to Live.
  • On average, 75.0% Ask first page search results were unique to Ask.
Different Engines, Different Results. Web Searchers Not Always Finding What They’re Looking for Online. A Research Study by Dogpile.com   In Collaboration with Researchers from Queensland University of Technology and the Pennsylvania State University
April 2007


SEMANA 1: R2: Asociar nuevos conocimientos a conceptos ya conocidos.

Vincular tres conceptos básicos sobre los buscadores (search engine) y publicar en el blog.



Proceso de recolección de datos de un buscador
Proceso de indización
Proceso de presentación
Es el proceso que cada buscador (con sus mecanismos internos) realiza para “convocar” a todos los sitios que responden a las palabras clave que se han utilizado para el recupero de información.
Son los procesos por los cuales cada buscador organiza los hallazgos, ya sea en forma “natural” para esa lógica interna del buscador, oi según instrucciones de los usuarios (búsquedas sensibles, específicas, por autor, port año, por revista, etc.).
Es a forma en que se presentan los resultados. En algunos casos es simplemente un listado (cuyo orden nunca supe muy bien a que obedece, en algunos casos en salud se habla del “factor impacto”), pero en otras situaciones los resultados están expresados con diferentes solapas, según se trate de (en salud) estudios diagnósticos, pronósticos, terapéuticos o etiológicos, o bien por la calidad metodológica de la investigación.