Inteligencia Colectiva en la web 2.0

por José Luis de Vicente

Por qué 2005 puede ser tan importante para la Red como 1995

Este año, la web celebra un aniversario importante. No el de su creación, ni el de su popularización masiva. En 1995, Netscape se
convirtió en la primera empresa de internet en cotizar en bolsa, abriendo con ello la era de la nueva economía e inaugurando una nueva concepción de la web como un espacio no reservado a los pocos que habían pasado por sus complejos rituales iniciáticos, sino como un medio para los muchos; un medio de masas.

Diez años después, para muchos consultores y bloggers visionarios, 2005 parece ser una especie de segunda oportunidad para la web. O al menos para aquella clase de red que nació en 1995 y parecía morirse de.nitivamente en el 2001, cuando a Silicon Valley se le cerró el grifo del capital riesgo y la famosa «burbuja punto com» explotó, llevándose por delante a decenas de empresarios vestidos informalmente y de oficinas amuebladas con sillas Aeron de precios ridículos. El declive de la era punto.com no fue por supuesto el .nal de nada verdaderamente importante (de hecho, fue el principio de otra web mucho más activa e interesante, la de la blogosfera, los wikis y las multitudes inteligentes). Pero a diferencia de la de 1995, los efectos de la nueva web que se está fraguando ahora puede que sean verdaderamente
trascendentales. Las promesas son emocionantes, las tecnologías
espectacularmente prometedoras. Y los posibles resultados,
en realidad todavía no los conoce nadie realmente.

Los síntomas en la superficie son familiares. Un mercado bursátil
excitable. (Google, la verdadera estrella de la nueva nueva economia,
produciendo muchos más bene.cios tras su salida a bolsa
de los que los agoreros le pronosticaban). Una dinámica familiar:
tres gigantes de la economía de la información compitiendo por ser el primero en hacerse con la pequeña compañía (Flickr y Konfabulato para Yahoo!, Keyhole o Dodgeball para Google) que ha desarrollado un servicio innovador que podría convertirse en la próxima killer app. Una tecnología vistosa y revolucionaria que se presenta como la solución a todos los problemas de la web (entonces se llamaba Flash y todos parecían odiarla; ahora se llama AJAX, y de momento no tiene mala prensa). Todo un léxico flamante estrenado para la ocasión (folksonomías, RSS, tagging, software social, APIs). Y una etiqueta atractiva y fácil de recordar que lo resume todo en una marca vendible. Olvídense de las punto.com; bienvenidos a la web 2.0.

La web 2.0 es el sueño que se ha estado fraguando progresivamente y sin hacer demasiado ruido en las cocinas de la industria de internet durante los últimos dos años. Una profunda reinvención de las estrategias y las arquitecturas sobre las que se implementan los servicios online que promete sentar los cimientos de la web de la próxima década. En la que se habrán quedado obsoletos los símiles con la biblioteca de Babel, porque cada vez habrá menos documentos cerrados que almacenar y distribuir. En la nueva web las metáforas con las que trabajar son el radar en el que seguir la evolución dinámica de los objetos, el cuadro de mandos lleno de potenciómetros, el barómetro que proporciona una lectura en tiempo real del estado de las cosas. Quizás podemos decirlo sin salir de Borges: la nueva web es mucho más El Aleph que la biblioteca infinita o el libro de arena.

Las buenas noticias son que la industria parece haber aprendido mucho de sus errores de la primera vez, y la nueva revolución no se está construyendo de espaldas a los internautas, sino sobre los internautas, con su imprescindible colaboración y presumiendo su complicidad. El desastre del 2000-2001 dejó claro que la estrategia de considerar a los usuarios exclusivamente consumidores pasivos, cuyo grado de intervención en el medio se limita a marcar casillas y rellenar formularios, casi nunca funciona. Sobre todo cuando dotarles de una cierta capacidad de intervención les convierte en consumidores mucho más eficaces (Amazon, Ebay). El digital lifestyle promovido por Apple y las revoluciones autoorganizadas de la blogosfera y el peer-to-peer han convencido a la industria de que a la gente le encanta crear y compartir contenido, y está dispuesta a hacer la mayor parte del trabajo (generarlo, distribuirlo y clasi.carlo) si se le dan las herramientas adecuadas para ello. La ética del remix y lo derivativo, aupadas por el rápido despegue y el amplio apoyo de iniciativas como las licencias Creative Commons, se encontraría con una arquitectura
hasta cierto punto abierta que me permite combinar y reelaborar mis datos con los de otros usuarios en vistosos interfaces flexibles y dinámicos, con.gurables a mi gusto por cortesía de los grandes servicios online. De todas las encarnaciones de internet, el modelo de la web 2.0 es el que más se acerca a implementar de manera efectiva la visión de internet como un sistema nervioso compartido, como una inteligencia global distribuida, donde una estructura de significado emerge de los procesos colaborativos desarrollados por todos sus usuarios. Incluso cuando estos procesos son tan banales como etiquetar millones de fotografías y asignarles palabras claves.

Tres pasos hacía la Web 2.0

Dan Gillmor, experto en periodismo participativo y autor del excelente We Media (Nosotros, el Medio) explica muy bien las distintas etapas históricas de la web y en qué se diferencian de la etapa de transición que se está abriendo en estos momentos.

«La web inicial era relativamente estática, y estaba diseñada prácticamente sólo para la lectura. La mayor parte de nosotros sencillamente se descargaba textos e imágenes de sitios remotos
que eran actualizados periódicamente con nuevos textos e imágenes.»

Gracias a la combinación de diferentes tecnologías que han desembocado en el estándar AJAX (iniciales en inglés de Javascript y
XML asíncrono
), la web 2.0 deja de ser estática hasta el punto de que las páginas que nos descargamos no existen ya en un estado cerrado y fijo. Si antes para actualizar una información era necesario recargar la página para sustituir una versión del archivo por otra, ahora es posible actualizar una página a medida que se va cargando, modificando su estado en tiempo real en función de las decisiones del usuario. Véase Google Suggest, por ejemplo, un servicio del popular buscador en el que a medida que introducimos caracteres en la caja de búsqueda aparecen los términos más populares que empiezan por esa serie de caracteres, y el número de resultados que genera cada búsqueda. O Google Maps, (http://maps.google.com) el servicio de mapas y fotografía por satélite, en el que los paisajes que recorremos se van cargando y componiendo sobre la marcha al desplazarnos en una
dirección concreta.

«(…) La primera gran transición se produjo cuando la web se convirtió en un sistema de lectura y escritura, un gran cambio que está todavía en progreso. La gran revolución en este ámbito tuvo lugar con los weblogs, los diarios personales y los wikis. Ahora no sólo la gente podía crear sus propios sitios web, sino que podía actualizarlos fácil y rápidamente.»

Asumida la revolución de los sistemas de publicación de contenidos como weblogs y wikis, en la web 2.0 la atención se desplaza desde la información hacía la metainformación. La cantidad de datos generados empieza a ser de tal volumen que no sirven para nada si no vienen acompañados de otros que les asignen jerarquía y signi.cado. La estrategía de dotar a los usuarios de instrumentos para clasi.car la información colectivamente se ha definido como folksonomía, y su implementación más popular son los tags o etiquetas. Para el «super blogger» Jason Kottke, si los blogs democratizaron la publicación de contenidos, las folksonomías están democratizando la arquitectura de la información. Los usuarios de Flickr, por ejemplo, no sólo comparten sus fotografías a través del servicio, sino que al asignarles múltiples etiquetas con las que asocian signi.cado a las imágenes, construyen una gran estructura semántica de imágenes que se puede recorrer en todas las direcciones. En el servicio de bookmarks social del.icio.us (http://del.icio.us), los usuarios etiquetan con diferentes conceptos los enlaces de interés que encuentran en la red, generando así una clasi.cación temática muy precisa del crecimiento diario de la web. La comunidad de del.icio.us está llevando a cabo el simulacro más eficaz del viejo sueño de la web semántica, una web que se entienda a sí misma.

«La web que está emergiendo es una en la que las máquinas
hablan entre sí de la misma manera en que antes los humanos
hablaban con las máquinas o entre ellos mismos. Si la red es el
equivalente de un sistema operativo, en esta fase estamos aprendiendo
a programar a la web.»

La más profunda de las transformaciones de la web 2.0 reside en la reinvención de la manera en que la información circula por la red, democratizando y poniendo a disposición de todos los usuarios
la capacidad de programar el comportamiento de diferentes flujos de datos que interactúan entre sí de maneras hasta hace poco inimaginables. En la nueva web se está construyendo toda una arquitectura de canalizaciones de información que permite conducir cualquier dato específico (una fotografía por satélite, un archivo de sonido, el pronóstico del tiempo en cualquier ciudad del mundo para mañana) desde un servidor hasta cualquier tipo de interfaz que el usuario determine; una web en html, un widget, o un programa para la interpretación de música en tiempo real sobre el escenario.

La adopción en masa del estándar de sindicación de contenidos RSS por parte de los blogs ha sido el primer paso importante hacía la web automatizada y programable. El RSS permite, por decirlo de manera gráica, extraer el zumo de una página web (el contenido) y arrojar las cáscaras (el diseño). Una vez que todo el contenido de la página está codificado en este feed (flujo de datos), puede trasladarse periódicamente hacía cualquier otro interfaz en la web designado por otro usuario. Inicialmente, los internautas han utilizado principalmente el RSS para informar sobre cuándo se actualiza un sitio web y cuáles son los nuevos contenidos que se han incorporado a él, pero se pueden hacer muchas más cosas con este estándar: desde informar sobre las
incidencias horarias en la red del metro de Londres, hasta transmitir en directo la evolución de un valor en bolsa.

Tras la popularización del RSS, el siguiente paso importante ha sido la puesta a disposición de los internautas de los «interfaces de programación de aplicación», o APIs, de los servicios más populares. Una API permite extraer la información de la base de datos de un gran servicio online (Google, Amazon, Flickr) e incorporarla a cualquier otra nueva aplicación que hayamos creado.

Es lo que permite que podamos, por ejemplo, incluir una caja de búsqueda de Google en cualquier otra página. Abrir la API del servicio de mapas de Google, por ejemplo, ha permitido que surja toda una comunidad de programadores aficionados que crean aplicaciones en las que se superponen toda clase de datos sobre las imágenes de estos mapas: desde los pisos en alquiler disponibles en este momento en las ciudades de Norteamérica (Housing Maps www.housingmaps.com) hasta el parte de heridos en los últimos San Fermines durante cada encierro.

Folksonomías, AJAX, RSS, APIs…se combinan en las primeras y tempranas aplicaciones que están anticipando el aspecto y la funcionalidad de la web 2.0. Impactantes como Chicago Crime Map (www.chicagocrime.org/map), que proyecta sobre el mapa de Chicago los delitos que se cometen en esta ciudad diariamente; mágicas como Flickr Color Pickr (http://krazydad.com/colrpickr), que permite extraer de la base de datos de Flickr las imágenes de un color especí.co, que representan un tipo de objeto o categoría (flores, por ejemplo); o poéticas, como el Amaztype (http://amaztype.tha.jp) de Yugo Nakamura, una forma completamente diferente de descubrir libros en la red antes de comprarlos.

Viejos sueños y señales inquietantes

Los términos son nuevos y las tecnologías se están empezando a explorar, pero muchas de las ideas subyacentes en el discurso de los que dibujan este escenario las hemos oido antes. La web 2.0 parece la última encarnación de la que ha sido la fantasía más común de la cibercultura, anticipada y anhelada en textos como Out of Control de Kevin Kelly o Emergence de Stephen Johnson. La idea de que la web acabará convirtiéndose en un sistema nervioso global, un cerebro en el que cada internauta constituye una neurona y que acabará generando algún tipo de inteligencia colectiva que produzca pensamientos e ideas por encima de las capacidades de cada una de sus pequeñas partes.

Evaluar el grado de posibilidad de esta teoría o como se ajusta a la tradición de un cierto discurso positivista y utópico trazado en el norte de California desde comienzos de los 90 está por encima de lo que podemos hacer aquí y ahora. Pero el modelo que se está armando emite algunas señales inquietantes.

Todo esto sucederá, cada vez más, dentro del patio de juegos de los gigantes de la red. El grado en el que los grandes conglomerados de intereses permitán que sus APIs se utilicen para aplicaciones concretas que revelen determinadas realidades o faciliten el acceso a información sensible -como Casualty Maps (www.casualty-maps.com), que muestra la procedencia de los soldados americanos muertos en el conflicto de Irak- está por ver, y es evidente que tarde o temprano estas estrategias generarán conflictos de intereses entre los usuarios y los gestores de los servicios.

Nadie pudo controlar realmente la expansión de la blogosfera ni lo que sucedía dentro de ella, ni siquiera cuando Google compró Blogger. Pero lo que puedan hacer los usuarios dentro de Flickr o de Google Maps estará determinado por lo que sus arquitectos permitan. El futuro de la web 2.0 como espacio social y político está vinculado indefectiblemente a la evolución de los «terms of service», esas licencias kilométricas que nos saltamos sin prestarles mucha atención cada vez que instalamos un programa o nos suscribimos a un servicio. Quizás haya que empezar a leerlas.