El compromiso entre los humanos y las máquinas


Publicado en: en.red.ando
Sección: en.red.antes
Autora: Karma Peiró
Fecha: 30/10/2001


El compromiso entre los humanos y las máquinas


La II Jornada en.red.ando, titulada “La Web Inteligente”, se celebró en Barcelona en el año 2001. Lo que viene a continuación es un relato subjetivo de cuanto aconteció en el Patronat Flor de Maig (donde tuvo lugar) esta jornada tecnológica, sin más pretensión que dejar un buen gusto en la lectura de todos aquellos que la disfrutaron y el mismo para los que no pudieron asistir.

La II Jornada reunió a investigadores de primera línea procedentes de EE.UU y Europa que están trabajando para conseguir que Internet se convierta en una red inteligente por dos vías diferentes: una, apuesta por un sistema que permita que la búsqueda y recuperación de información sea más intuitiva y precisa a partir de la aplicación de la semántica, de ontologías y de agentes inteligentes (Tim Berners-Lee, Hans-Georg Stork, y James Hendler) ; la otra vía de investigación persigue que los servidores sean capaces de aprender el recorrido virtual que hacen los internautas en su navegación por la Red para que ésta acaba funcionando como un cerebro global (Francis Heylighen, Johan Bollen y Cliff Joslyn). Y mientras todos ellos están en las esferas de lo hipotético, de lo probable si se cumplen ciertos requisitos, Luis Angel Fernández Hermana nos devuelve a la realidad para explicar cómo se trabaja en redes inteligentes desde un Meta-en.medi@, una evolución de la tecnología de encuentro que diseñó en.red.ando en 1999, y que se aplica con éxito en diferentes proyectos.

La Jornada fue un descubrimiento para todos: salimos haciendo juegos malabares con conceptos que nunca antes nos habíamos planteado aplicados a Internet. Fue, además, una ocasión para que estos investigadores se vieran las caras de nuevo (suelen trabajar desde diferentes países), y promocionaran sus respectivos sistemas pero también reconocieran sus carencias a partir de las intervenciones acertadas de una audiencia interesada. Audiencia que no sólo se encontraba en Barcelona, sino también en las Islas Baleares que nos siguieron por videoconferencia a partir de un acuerdo con la Fundación IBIT.

Ordenar el caos

Todos los investigadores partieron de la base de que, actualmente, Internet se entiende como una gran biblioteca pero, en realidad, no es más que una recopilación desordenada de libros, revistas, e información basura, de cuya mezcla resulta complicado y costoso extraer conocimiento alguno. En una biblioteca todo el material está ordenado y clasificado: un grupo de expertos se encargan de estructurar y analizar la información, y de hacer una descripción de los recursos para finalmente prestar servicios a sus usuarios.

“La Web Semántica tiene por objeto ordenar el caos de Internet”, propone Hans-Georg Stork, responsable de la investigación la Web Semántica de la Comisión Europea, matemático y doctor en Informática Teórica. El objetivo es modificar la forma en que se presenta la información de la Web de un modo que facilite el procesamiento de la misma por parte de las máquinas.

Vayamos por partes. Por ‘Web’ entendamos el conjunto global de Internet; y por semántica, el estudio del significado de las palabras. Lo que propone esta línea de investigación es aplicar la semántica a la Web, a partir de agentes inteligentes (o sea, de un software que trabaja con Inteligencia Artificial). Esto significa que las máquinas pueden llegar a entender el contenido que hay en una página, interpretarlo, analizarlo, y clasificarlo bajo unos criterios u ontologías de manera que el usuario, al realizar una búsqueda obtenga una información lo más pertinente posible a su demanda.

¿Qué es una ontología? “Una forma de representar el conocimiento a través de jerarquías elementales”, respondió James Hendler, quién dio su ponencia desde la Universidad de Maryland (EE.UU), a través de videoconferencia. Hasta el 30 de septiembre de 2001, Hendler fue el director científico de la oficina de información de sistemas del DARPA, la agencia de proyecto de investigaciones avanzadas del Ministerio de Defensa estadounidense, donde se creó lo que hoy conocemos como Internet.

Si se consigue que las máquinas entiendan el significado de nuestras palabras, a través de la aplicación de la semántica, de las ontologías y de los agentes inteligentes cuando recurramos a los buscadores éstos nos ofrecerán resultados mucho más precisos. Hasta aquí está casi logrado siempre que se trate de documentos de texto. Sin embargo, el reto mayor para la WS es hacer que las máquinas entiendan también el significado de imágenes, películas, sonidos, información médica, datos comerciales, etc. sin necesidad de un texto. “Por ejemplo, podría darse el caso que una máquina confundiera un cuadro del pintor italiano Bronzino del siglo XVI, donde se muestra unos desnudos de mujeres con la pornografía actual. El material podría ser censurado sin tener en cuenta la cualidad artística de la imagen”.

Georg-Stork afirma que “los profesionales, científicos, estudiantes, profesores, y cuántos trabajen en empresas van a necesitar de la Web Semántica. Hay oportunidades comerciales rentables, y posibilidades de negocio con las aplicaciones y producción de herramientas que se requieren, y la personalización de los contenidos, la creación de nuevos perfiles profesionales, y el suministro de servicios a partir de ellos”. Este investigador, que trabaja mano a mano con el creador de la World Wide Web, Tim Berners-Lee, sostiene que “tiene que aparecer el interés comercial para que todo esto vaya adelante”. Stork comentó que se necesita una mayor inyección de financiación pública y que la UE va a seguir apoyando la WS en el futuro.

Después de años de investigación, todavía quedan muchas incógnitas y retos en el aire. ¿Qué ocurre si al definir ontologías o aplicar la semántica surgen opiniones diferentes y controvertidas sobre el mismo contenido?. Por ejemplo, ¿cómo explicar a una máquina el significado de democracia si ésta puede ser entendida de muchas maneras? “Las ontologías tienen una gran función que es la de dejar claros los significados que las palabras tienen, porque cada una tiene varios”, explicó Stork. “La WS abarcará mucho conocimiento pero no todo. Las técnicas de procesamiento natural serán importantes porque permitirán el significado del texto y del habla, pero si hay palabras ambiguas planteará un problema para el ordenador. Las ontologías serán numerosas y competirán, se limitarán a campos de interés y de práctica. Así, resultará menos complejo tratar el significado de términos como democracia”.

Por otro lado, el mundo actual está en función de los contextos en los que nos movemos. ¿Cómo se representan estos en la WS actual? “Debería representar el contexto para la interpretación correcta”, comentó Cliff Joslyn, director de Sistemas de Conocimiento Distribuido en el Laboratorio Nacional de Los Alamos. “Aquí se plantea la duda de los idiomas”, apuntó Stork, “porque aunque la WS muestre el contexto ideal para la interpretación correcta si no se entiende el idioma que utiliza, será difícil de resolver. En este caso, la ontología debe ser más amplia y utilizar descripciones axiomáticas que una máquina podría entender”.

Hendler comentó que los internautas hemos vivido tres revoluciones: la primera, fue cuando se creó a finales de los años 60 en EE.UU. La segunda, fue cuando Tim Berners-Lee creó la World Wide Web. “Algunos creemos que la tercera revolución viene ahora, con la aparición de los agentes inteligentes aplicados a Internet, que es lo que se conoce como la Web Semántica”. Lo que está por venir son nuevos lenguajes que nos permitan introducir más información, tecnología, y esquemas de forma que pueda haber más comunicación entre máquinas. Stork añadió: “Sólo puedo terminar diciendo que acabamos de empezar. El futuro está aquí”.

El cerebro, el mejor buscador

La segunda vía de investigación apuntada en la Jornada fue dirigida por el belga Francis Heylighen, codirector del Instituto de Investigación Transdiciplinar de la Universidad Leo Apostel, y coeditor del Proyecto Principia Cibernética donde se está desarrollando toda la base conceptual filosófica del Cerebro Global (Global Brain, GB). Su discípulo, Johan Bollen, que trabaja en el Laboratorio Nacional de Los Alamos (EE.UU) vino a aportar la parte más práctica de esta filosofía, explicando un experimento realizado con algoritmos matemáticos, que demuestra cómo se trabaja con las máquinas simulando el funcionamiento del cerebro humano.

¿Y cómo funciona el cerebro humano? El cerebro humano es un órgano flexible y eficiente que contiene una enorme cantidad de datos. No es perfecto pero, comparativamente, funciona muchísimo mejor que un buscador de Internet. El cerebro está organizado como una red de asociaciones, que en realidad son neuronas conectadas unas a otras formando sinapsis, y éstas se desarrollan mediante el aprendizaje. Se aprende cuando encontramos las mismas conexiones repetidas veces: las que se utilizan a menudo se refuerzan y, de esta forma, a base de pensar se resuelven los problemas. Y ¿qué es pensar? Es la activación de las neuronas al concentrarnos en un asunto, y esta activación provoca otra conexión con otras neuronas que, a su vez, activan otros conceptos. Lo que Heylighen está investigando es la manera de aplicar este modelo cerebral a la Web para demostrar que ésta puede ser una red asociativa.

Los buscadores que actualmente utilizamos para recuperar la información son muy imperfectos, porque están basados en el uso de palabras-clave. El inconveniente de este sistema es que éstas pueden ser confusas y, por tanto, los resultados ambiguos o confusos también. Además, sólo permiten describir documentos de texto, no hay nada para recuperar los multimedia. ¿Se puede utilizar la Red prescindiendo de los buscadores? Bollen comenta que hace cinco o seis años éstos no existían, y que nadie los echaba de menos. Lo que proponen es que, a partir de agentes inteligentes, el usuario pueda ir dejando pistas para que en próximas búsquedas obtenga de la Red documentos más afines con sus intereses.

“Los usuarios podrán buscar con mayor eficacia en el futuro”, explicó Francis Heylighen. “Las bases de datos se autoorganizarán a partir de las actuaciones de los usuarios. Se irán marcando las páginas más vistas, y el tiempo dedicado a cada una de ellas, de forma individualizada”. Al interpretar varias páginas el usuario estará dando pistas al agente de lo que le gusta y éste irá anotando sus preferencias. “El usuario sólo tendrá que navegar por la Red, dedicando más tiempo a lo que le interesa. Lo que estamos logrando es extraer el uso intuitivo y aprovecharlo transmitiéndolo a otros”. Y es así como se llega a la navegación colectiva, que proporciona un mayor conocimiento. Los agentes también pueden hacer una exploración de la información paralela de varios usuarios, simultanear los resultados, y aumentar el grado de pertinencia de los documentos obtenidos.

El coeditor del Principia Cibernética, Francis Heyliguen, explicó que “cada acción realizada, cambia la Red y la hace más eficiente e inteligente. Se reestructura y autoorganiza, creando nuevos vínculos, juntando cosas separadas y separando cosas juntas. No sólo entiende las palabras-clave, sino también las intuiciones y las asociaciones”. La variedad de información solicitada no importa. Lo que importa es el tiempo que haya utilizado el usuario consumiendo esa información. Si repite una búsqueda obtendrá más material relacionado con lo que ya había buscado anteriormente. De manera que siempre se avanza, no se parte de cero como ocurre con los buscadores actuales.

La propuesta de Heylighen y Bollen es que la Web Asociativa (el Cerebro Global) realice un análisis del comportamiento global de los usuarios, y del comportamiento individual de cada uno. Pero, ¿cómo se asocia todo? “El denominador común es el que impone la voluntad de la mayoría”, explica Francis. Si el denominador es el que impone, “¿No corre el riesgo el sistema de consagrar errores?”, preguntó Iban García, uno de los asistentes de la Jornada. “Si la mayoría de gente piensa que la ballena es un pez, al buscar ballena como mamífero no me dará resultados. Sería muy problemático, por ejemplo, que la mayoría identificara musulmán con terrorista” concluyó Ibán. Heyliguen respondió que esto también ocurre con el lenguaje humano: se conocen cosas a base de ser repetidas por muchas personas, y en gran medida son errores. “Esto es un complemento que debiera aportar la WS. El usuario debe distinguir lo que es un enlace asociativo y uno semántico. Veo que el enfoque de la Web Semántica y el de Cerebro Global se pueden encontrar para resolver cuestiones como ésta y obtener una explicación más precisa de la palabra”.

El público continuó interrogando a Bollen y Heyliguen y las respuestas cada vez eran más prodigiosas. Los dos investigadores concluyeron que los planteamientos que habían presentado, basados en el Proyecto Principia Cibernética (PCP), era el camino para que la Web del futuro funcionara como un sistema inteligente.

La inyección de inteligencia humana

Una de las cosas que ha cambiado con la introducción de Internet en nuestra sociedad es que, desde el punto de vista de la información y el conocimiento, hemos pasado de una economía de oferta a una de demanda. Y todos nos preguntamos: ¿Dónde está la información y el conocimiento que más nos interesa?. Luis Angel Fernández Hermana explicó en su intervención que es necesario crear redes inteligentes donde la información sea pertinente y, a la vez, nos pertenezca por haberla elaborado nosotros mismos.

en.red.ando viene trabajando en el diseño de entornos capaces de responder a esta pregunta. Desde febrero de 1999, momento en que se estrenó el primer en.medi@ (y que presentamos el año pasado en la I Jornada en.red.ando), hemos evolucionado en la creación de estos espacios, hasta llegar al Meta-en.medi@.

Un Meta-en.medi@ es la unión de diferentes redes inteligentes (en.medi@), dirigidas por un equipo de moderadores y gestores de conocimiento en red, con el objetivo de generar contenidos, organizar trabajos de manera colectiva, construir comunidades de conocimiento, y reducir costos en la producción de la información. En estos momentos, en.red.ando se plantea la posibilidad de integrar agentes inteligentes a un Meta-en.medi@ de forma que sirvan para negociar la información que hay en los archivos, mostrar los resultados allí donde se soliciten, registrar la historia de los usuarios —lo que convertiría el espacio en una red inteligente por la forma en que podría reaccionar—, y algo muy importante para el equipo de moderadores y gestores es que sabrían dónde se está demandando información que no está en ninguna parte de la red inteligente y que se podría buscar, servir, e incluso negociar con el resultado.

Para hacer esto, habría que poner la información de una manera particular. En la I Jornada en.red.ando ya se vieron tecnologías que podrían hacer algo parecido a partir de mapas de visualización de la información. Luis Angel puntualizó que quizás las ontologías puedan ser aplicadas a este sistema de gestión de conocimiento en red, para perfeccionar las búsquedas. “O quizás habría que trabajar una estructura de enlaces actualizados, como las presentadas por Heyliguen y Bollen, que a partir del comportamiento de los usuarios fuera creando un mapa de redes inteligente”.

Para concluir añadió que si estamos hablando de la Sociedad del Conocimiento hay que crear lo más parecido a las fábricas del conocimiento. “Estamos en un mercado laboral de cambio que implica el requerimiento de toda una serie de perfiles profesionales capaces de crear, mantener y dirigir espacios de estas características”.

Contextos globales

Después de oír durante horas las palabras semántica, ontologías, agentes inteligentes, y sistemas de gestión de conocimiento en red, Cliff Joslyn vino a repasar todos los conceptos que se habían barajado. El director de los Sistemas de Conocimiento Distribuido (DKS) del Laboratorio Nacional de los Alamos (EE.UU) es, además, coeditor del Proyecto Principia Cibernética (PCP), donde trabaja desde hace muchos años en estrecha colaboración con Francis Heyliguen y Johan Bollen.

“A finales de los años 80, cuando empezamos Turchin, Heyliguen y yo en el PCP queríamos lograr un entorno colaborativo a largo plazo de los principios de la cibernética. Queríamos utilizar las tecnologías de los DKS y desarrollarlos. Trabajábamos en distintos continentes, pero nos dimos cuenta que este proyecto no podía encerrarse en un libro, sino que era necesario crear una comunidad de científicos de distintos ámbitos. Y esa es la base”.

Los DKS son un término que Joslyn acuñó para referirse a “entornos en los cuales comunidades de agentes (humanos o computacionales) interactúan con recursos de información en red”. Éstos tienen que tomar decisiones y hacer cosas que tengan consecuencias, por ejemplo, para los sistemas de control y mando de los militares, sistemas de infraestructuras, de control de inteligencia, de mercados financieros, etc. La experiencia de Joslyn con las propiedades de los DKS para combinar las máquinas, con el almacenamiento de la información y la comunicación están revolucionado la forma en que se genera conocimiento, se organiza y se transmite.

Este investigador concluyó diciendo
que no hay ninguna magia detrás de todas las tecnologías que se habían mostrado durante la Jornada. “Es pura matemática y se puede lograr. Antes hay que superar las limitaciones de la Web Semántica, los problemas de lingüística que se presentan, y encontrar más sistemas que permitan compartir el conocimiento. Pero, por ejemplo, los sistemas ontológicos van a funcionar muy pronto”.

Cuanto más sabes, más te preguntas

Si todavía siguen bajando el cursor de su navegador, quiere decir que han soportado mejor de lo esperado todo el material que le he inyectado en su cerebro. Un cerebro, no lo olvide, que ya no es el mismo que antes de empezar a leer este repaso rápido (1) de unas tecnologías asombrantes que van a definir el compromiso que, en los próximos años, entablarán los humanos y las máquinas para entenderse.

Quiénes asistieron a esta maratón del conocimiento colectivo a través de sistemas inteligentes acabaron destrozados mentalmente. Esta es la realidad. Algunos como Carmen Pujol, una participante de la Iª edición del Master de Comunicación online en.red.ando, comentó que fue interesante conocer las diferentes investigaciones y perspectivas que hay. “Sin embargo, se hubiera agradecido un glosario previo ya que muchas palabras, sobre todo técnicas”.

El cerebro de David Ruiz interpretó la Jornada de esta otra forma: “He pensado mucho en Borges y los senderos que se bifurcan. Me he acordado de Ernesto Sabato y el libro Hombres y Engranajes. La Red comienza a ser un intérprete de nosotros mismos, y eso es muy fuerte. Será interesante ver cómo nos va a interpretar”.

Manuel Viñas acabó mejor: “La Jornada, genial, muy interesante tanto por su contenido en sí como por la calidad de los conferenciantes. Creo -y seguro que no me equivoco- que es el primer congreso al que asisto en el que no existe esa incómoda barrera de erudición que generalmente el ponente establece entre su espacio mental y el del asistente de la butaca. Fue un clima totalmente distendido, en el que siempre se guardó ese talante que requiere saber trasladar al espectador a una investigación rigurosa como la que estos genios-humanos llevan a cabo”.

Iban García estaba algo confuso: “Después de la segunda ponencia me he dado cuenta que el nivel es bastante alto, lo cual es bueno pero deja esa pequeña frustración de que uno sale con más dudas de las que ha entrado. Cuanto más sabes, más te preguntas. Sería bueno tener algún recurso para saber hacia dónde evolucionan estos temas de investigación que todavía están a la mitad y aún no han desarrollado aplicaciones”.

Y Sergi Miquel sólo acertó a pronunciar que durante la Jornada tuvo la sensación de ser uno de los actores que hacen de primates en la primera parte de la película 2001, una Odisea en el espacio.

El reto de que las máquinas arraiguen en el mundo real y compartan con nosotros lo que saben, a través de la Web Inteligente, es muy atractivo. Sin embargo, no olvidemos que HAL en el 2001 todavía no existe, y que por encima de todo siempre estaremos los seres humanos. O así debería ser.