Recuperación de información científica

Por lo general, la recuperación de información científica está destinada a cubrir todo el problema de recuperar a partir del conocimiento científico y de ingeniería registrado aquellas piezas particulares de información que pueden ser necesarias para propósitos particulares en momentos particulares. En este contexto, generalmente incluye una amplia gama de técnicas y dispositivos utilizados para recopilar, indexar, almacenar, recuperar y difundir información especializada resultante de la investigación y el desarrollo científicos. La información científica puede estar basada en texto o multimedia (por ejemplo, sonido, video o imágenes combinadas con texto). Los sistemas de recuperación de información científica generalmente están automatizados por computadoras y redes de computadoras.

Vannevar Bush es pionero en el desarrollo de sistemas de recuperación automatizados. En su artículo fundamental, "As We May Think", publicado en la edición de julio de 1945 de la Atlántico mensual, propuso el concepto innovador de un almacén de conocimiento automatizado, fácilmente accesible y configurable individualmente, que funcionaría como el cerebro humano. El artículo de Bush inspiró a las generaciones posteriores de investigadores de sistemas de información, incluidos Ted Nelson y Doug Engelbart. A finales de la década de 1950, Nelson investigó métodos mediante los cuales las computadoras podían manipular texto. Esta investigación se denominó "Xanadu", y en un artículo de 1965 sobre Xanadu acuñó el término "hipertexto", un método que permite a los usuarios de computadoras recuperar información contenida en documentos de texto separados. Hoy en día, casi todos los documentos que se encuentran en la World Wide Web son hipertexto. La contribución de Engelbart al campo de la recuperación de información fue el Sistema oN-Line (NLS), que desarrolló en la década de 1960 en la Universidad de Stanford. NLS fue el primer sistema informático en utilizar un mouse. Engelbart inventó el mouse para que los usuarios pudieran apuntar y hacer clic en los enlaces de hipertexto que se muestran en la pantalla de la computadora del sistema. Desde la década de 1960 hasta la de 1990, las computadoras solo podían almacenar y recuperar información en sitios de investigación individuales. Los científicos tenían una capacidad limitada para acceder a la información necesaria almacenada en otra computadora en una instalación diferente o desde una en una ubicación separada dentro de la misma instalación. Superar los límites de la capacidad de los científicos para acceder a toda la información relevante almacenada en sistemas computarizados llevó a Tim Berners-Lee a inventar la World Wide Web. A principios de la década de 1980, Berners-Lee fue contratado como consultor informático por el centro suizo de investigación científica Organización Europea para la Investigación Nuclear (CERN). Para ayudar a los investigadores a acceder al vasto almacén de información del centro, primero inventó el sistema Inquire, que utilizaba hipertexto y podía acceder a los documentos almacenados en todos los diversos sistemas de información del CERN.

Berners-Lee quería ampliar el alcance de las capacidades de Enquire para poder recuperar información almacenada en otras instalaciones de investigación. Conocía Internet y cómo permitía a las universidades de todo el mundo intercambiar información de forma limitada mediante transferencias de archivos de texto y correo electrónico. Al adaptar el sistema Inquire para su uso en Internet, Berners-Lee inventó la World Wide Web, que ha revolucionado algo más que el campo de la recuperación de información científica.

La World Wide Web utiliza hipertexto, hipervínculos y el protocolo de transferencia de hipertexto (HTTP) para recuperar información, y localizadores de registros universales (URL) para identificar de forma única piezas de información. Sus capacidades de recuperación se ven mejoradas por los motores de búsqueda que utilizan palabras clave e índices para almacenar, identificar y recuperar información.

La World Wide Web es muy eficaz para entregar grandes cantidades de información a sus usuarios. Sin embargo, no es tan eficaz para recuperar información específica que solicitan los usuarios. A principios de la década de 2000, Berners-Lee y otros investigadores del World Wide Web Consortium, con sede en el Instituto de Tecnología de Massachusetts, intentaban resolver este problema desarrollando la Web Semántica, que es una versión mejorada de la World Wide Web. En la Web Semántica, un usuario envía una solicitud de información a un programa de búsqueda llamado agente inteligente. Los documentos de la Web Semántica dan a la información contenida en ellos un significado bien definido a partir del cual el agente inteligente tiene la capacidad de determinar la relevancia de la información para la solicitud del usuario. Por lo tanto, la Web Semántica sería más eficiente para recuperar el tipo específico de información que un usuario puede necesitar.

Bibliografía

Berners-Lee, Tim y Mark Fischetti. Weaving the Web: El diseño original y el destino final de la World Wide Web por su inventor. San Francisco: Harper San Francisco, 1999.

Maybury, Mark T., ed. Recuperación inteligente de información multimedia. Cambridge, Mass.: MIT Press, 1997.

Sparck-Jones, Karen y Peter Willets, eds. Lecturas en recuperación de información. San Francisco: Morgan-Kaufman, 1997.

JuanWyzalek