martes, 12 de agosto de 2008

El valor de los Metados y la Inteligencia colectiva por Xabier Ribes


La nomenclatura “2.0” no es casual y sugiere un cambio significativo en relación al modelo de páginas web disponibles hasta ahora. Esta denominación sigue el símil de los programas informáticos: las versiones de un mismo producto se identifican con dos o más números, separados por puntos. Las variaciones realizadas en el programa se indican incrementando la numeración con la lógica de que cuanto más a la derecha está el número que varía, de menor importancia resulta la mejora o la corrección realizada. Pero si es el primer dígito el que cambia, se está indicando que se han producido modificaciones sustanciales.
La manera de denominar el servicio web también sugiere que nos encontramos ante un producto que estará sometido a una constante revisión. Resulta significativo que los creadores de un servicio 2.0, durante su lanzamiento (que suele alargarse, cuando menos, unos cuantos meses), nunca muestran en sus páginas el socorrido mensaje de "en construcción", sino que identifican su situación como “en fase Beta", tal como se hace con los programas informáticos. Lo cual apunta a que una Web 2.0 no se construye, sino que se prueba. Y se modifica continuamente para dotarla de nuevas prestaciones.Este nuevo modelo nos ha dejado palabras y siglas para definir productos o situaciones comunicativas de reciente aparición, algunas de ellas todavía sin equivalente en nuestro idioma (blogs o bitácoras, vblogs o videoblogs, folkMind, folksonomía, mashup, agregador, permalink, RSS, feed, Redes sociales, tag clouds, trackBack, wiki, AJAX…). No es propósito de este artículo explorar las posibilidades de cada una de estas aplicaciones. Pretendemos acercarnos a la Web 2.0 como concepto general para definirlo, con el fin de aislar los rasgos característicos, identificar los actores que intervienen y ayudar a comprender el cambio de paradigma que plantea. El objetivo es descubrir qué es la Web 2.0.
Aunque parezca increíble, encontrar una respuesta concreta o una definición estricta en la bibliografía actual (incluida la electrónica) es difícil. Más aún si tenemos en cuenta que es un término que desde su aparición, a mediados de 2004, se ha extendido rápidamente entre la comunidad de Internet (a inicios de julio de 2007, Google indexa aproximadamente 332 millones de entradas bajo esa expresión). Los padres del término otorgan al concepto valores y matices abstractos, y plantean la Web 2.0 como un koan ( 1) sólo asequible a los iniciados que, tras invertir largas horas de reflexión y experiencia, se verán recompensados con la iluminación y el conocimiento. Así, por ejemplo, Davis (2005) afirma que la Web 2.0 «no es una tecnología, sino una actitud» y O’Reilly (2005b) expresa que el concepto «no tiene límites definidos, sino [que es] más bien un núcleo gravitatorio».
La dificultad de estos autores para definir el concepto de forma clara radica en su pretensión de abordar todas las variables que rodean al fenómeno de forma simultánea, mezclando entorno, tecnología, aplicaciones, usos... Dado que para poder acercarnos al objeto con propiedad necesitamos disponer de una definición que no lleve a confusión, podemos considerar como Web 2.0 todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando metadatos a la información existente), bien en la forma de presentarlos o en contenido y forma simultáneamente.
Dicho de otra forma, una aplicación on line podrá considerarse como Web 2.0 cuando permita procesos de interactividad de contenidos contributiva ( 2) (cuando el usuario pueda añadir y compartir información con otros usuarios, como en Flickr / http://www.flickr.com/), procesos de interacción de contenidos combinatoria (cuando posibilite la interrelación de contenidos de diferentes bases de datos –como en los denominados purés o Mashups o, por poner un ejemplo concreto, en What’s Up? / www.jeroenwijering.com/whatsup– o procesos de interacción de interficie –como en Netvibes (http://www.netvibes.com/) o iGoogle (www.google.com/ig)–, ya sean de preferencias estéticas o de funciones (cuando el usuario puede ubicar los contenidos en diferentes lugares de la pantalla o decidir qué contenidos aparecen) o generativa (cuando el sistema, a partir del análisis del modo de operar del usuario con la interficie, decida por el usuario cómo o qué datos presentar).
Cabe señalar que esta definición, de forma intencionada, no excluye aquellas aplicaciones on line que estén soportadas en entornos diferentes al servicio web. Se dará, pues, la paradoja de que algunas aplicaciones denominadas Web 2.0 no sean propiamente “web”, esto es, accesibles a través de un navegador, y se requiera de programas o dispositivos específicos para recibir sus contenidos o servicios (como ocurre en las redes peer to peer ( 3)).
El hecho de permitir al interactor la manipulación directa de la fuente de datos que sustenta un servicio on line no tiene, al menos técnicamente, nada de novedoso: los foros (un elemento de comunicación electrónica muy conocido entre los internautas) podrían considerarse como un ejemplo (tal vez, el primero) de la Web 2.0. Igualmente, las aplicaciones de telebanca, al permitir acciones como el traspaso de efectivo de una cuenta a otra, en realidad, están dejando que el usuario modifique los contenidos de la base de datos bancaria. Pero es que la Web 2.0 no es nueva: herramientas tan representativas de la corriente Web 2.0 como los weblogs se remontan a 1993 (Riley, 2005). Y el wiki, por ejemplo, data de 1995 ( 4).
Así, la novedad de las aplicaciones Web 2.0 viene determinada por los nuevos usos y situaciones comunicativas que se derivan de la asociación de nuevos datos a los datos existentes en una base de datos (metadatos) y a la explotación de esos metadatos y de que, además, la asociación pueda realizarse de forma sencilla, ubicua y mancomunada.Los metadatos, esto es, los datos que hablan de otros datos, sirven para identificar, describir, localizar, recuperar, organizar y preservar la información a la que están vinculados. A partir de estas múltiples funciones se están desarrollando aplicaciones web de muy diversa índole. Sin ánimo de ser exhaustivo, encontramos servicios que cumplen con la definición de 2.0 propuesta anteriormente, asociados a categorías tan dispares como buscadores, herramientas de publicación, portales personales, sistemas de distribución del conocimiento, espacios virtuales para almacenar y compartir contenidos, listados de marcadores sociales o utilidades distribuidas de acceso on line (ver tabla ( 1)).
Resulta curioso observar cómo la aparición de las aplicaciones Web 2.0 supone un avance “hacia atrás”. Dicho de otra forma, se evoluciona hacia los sistemas hipertextuales primigenios, como el teórico Memex de Vannebar Bush, el NLS de Douglas Engelbart o el Xanadu de Ted Nelson, los cuales estaban dotados de ciertas características que la Web 1.0 o 1.5 no pudo ofrecer jamás. Nelson, en su web (http://xanadu.com/xuTheModel), menciona defectos del WWW tales como el establecimiento de enlaces en un solo sentido, la existencia de enlaces que apuntan a recursos inexistentes, la imposibilidad de agregar notas o comentarios, la imposibilidad de comparar diferentes versiones de un documento o la inexistencia de un control sobre los derechos de autor y su gestión, entre otros. Estas carencias, en mayor o menor medida, están siendo superadas por la Web 2.0.En esta misma línea, y teniendo en cuenta que Liestøl considera como recurso de documentos hipermedia aquel que permite al interactor «leer, copiar y navegar por una gran base de datos con enlaces hipertextuales, pero la información permanece fija; no pueden añadirse nuevos documentos y la relación estructural del material viene dada» y que el mismo autor se refiere a entorno de hipermedios como aquel donde el interactor «que lee no interacciona desde el exterior sino desde dentro, añadiendo documentos y enlaces, lo que modifica la estructura y los contenidos del sistema» (1997: 135), podemos afirmar que con las aplicaciones Web 2.0, el espacio web ha conseguido la categoría de auténtico entorno hipermedia. Y es que las aplicaciones y servicios Web 2.0 están dotando al interactor de la capacidad para ver, seguir y crear enlaces unidireccionales y bidireccionales, de la posibilidad de comparar diferentes versiones, de trabajar de forma simultánea sobre un mismo documento o de la posibilidad de publicar contenidos de forma ubicua y desde el propio entorno de acceso a los documentos.
Hemos mencionado anteriormente que los metadatos son el rasgo característico de la Web 2.0. Y más concretamente, la posibilidad de crearlos y de explotarlos. Pero su valor no radica en la posibilidad técnica de su existencia y de su manipulación sino en las manifestaciones y fenómenos comunicativos a los que está dando lugar.
Así, nos encontramos ante aplicaciones cuya importancia reside en la clasificación de la información. Las grandes bases de datos multimedia, por ejemplo, deben hacer uso de los metadatos para gestionar los enormes volúmenes de información con los que trabajan y resolver las peticiones que reciben con cierta rapidez. Tal como comenta Fernández Quijada (2006), «la manera fundamental de abordar esta hiperinflación es la indexación y el tratamiento automatizado de los datos de esta indexación».En algunas aplicaciones 2.0 los usuarios se convierten en indexadores de la información. Y lo hacen relacionándola con palabras clave o marcas (tags) que ellos mismos eligen libremente. Esta libertad del usuario para etiquetar la información se ha bautizado con el nombre de “folksonomía” y se opone, en cierta forma, a la taxonomía tradicional, donde las categorías de clasificación están previamente establecidas. Espacios virtuales en los que almacenar y compartir contenidos –como Flickr (http://www.flickr.com/) para imágenes fotográficas, Goear (http://www.goear.com/) para sonidos y canciones o YouTube (http://www.youtube.com/) para contenidos videográficos– utilizan la “folksonomía” como forma de clasificar y, posteriormente, localizar los contenidos. Lo mismo ocurre con los “marcadores sociales” –como del.icio.us (http://del.icio.us/) o simpy (http://www.simpy.com/)–, servidores donde los usuarios almacenan las direcciones de sus enlaces favoritos, los marcan con tags y, si quieren, los hacen públicos. Como adelantábamos, la trascendencia de la “folksonomía” se basa en los resultados obtenidos y no en la mera posibilidad técnica. Si observamos más allá de la anécdota o de la aplicación en concreto, veremos que, en realidad, nos encontramos con gran número de personas trabajando, de forma continua, voluntaria y gratuita, en la clasificación de material, o lo que es lo mismo, dando significado a contenidos de todo tipo (sitios web, imágenes fotográficas, material audiovisual...). Estos usuarios, que crean y mantienen una base de datos de forma manual voluntaria (Bricklin, 2001 ( 5)) están contribuyendo, sin saberlo, a fraguar la idea de la Web semántica (http://www.semanticweb.org/) planteada por Berners-Lee (2001).
Las tecnologías de la información denominadas pull (del inglés, “tirar”) son aquellas en las que el usuario inicia la demanda de información y el sistema sirve los contenidos solicitados. La navegación tradicional funciona de este modo. Con la integración de metadatos a la información es muy fácil invertir el proceso y construir aplicaciones push (del inglés, “empujar”), esto es, herramientas de comunicación en las que el sistema toma la iniciativa y es capaz de enviar contenidos a los usuarios y que dichos contenidos sean acordes a sus intereses. Con las tecnologías push no es el usuario quien va a buscar la información, sino que es la información la que acude al encuentro del receptor. El ejemplo más claro de tecnologías push de la Web 2.0 lo encontramos en la explotación de los documentos RSS asociados a los weblogs.
Un RSS (Rich Site Summary o Really Simple Syndication) ( 6) es un documento que contiene metadatos relacionados con un sitio web en concreto. Los archivos RSS (llamados también feeds RSS o canales RSS) se estructuran en ítems, con el título, el resumen y el enlace de la información que describen y, eventualmente, pueden contener otros datos (fecha de publicación del documento, nombre del autor…).Los weblogs son, como los wikis, otra de las herramientas de publicación rápida del universo 2.0. Los contenidos de los blogs y de sus parientes cercanos, los audioblogs y los videoblogs ( 7), son accesibles mediante tecnologías pull, visitándolos con el programa adecuado. Pero existe otra forma de obtener la información que contienen. Cuando un blogger (persona que mantiene un weblog) escribe una nueva entrada en su bitácora, de forma automática, genera o modifica un documento RSS asociado a ella. Así, los seguidores de un determinado blog, mediante programas denominados “lectores de feeds de RSS”, pueden mantenerse informados sobre las actualizaciones y novedades publicadas en sus blogs favoritos, sin necesidad de visitarlos uno a uno, estableciéndose una comunicación de tipo push. Hasta hace poco, los lectores de feeds de RSS eran herramientas que debían ser instaladas en el ordenador del usuario para funcionar (iTunes / www.apple.com/itunes). La Web 2.0 ha creado lectores de feeds on line –como bloglines (http://www.bloglines.com/) o Google Reader (www.google.com/reader)–. Actualmente ciertos programas navegadores –como Firefox (www.mozilla.com/firefox) o Microsoft Internet Explorer 7 (www.microsoft.com/windows/IE/ie7/default.mspx)– ya los incorporan como opciones de sus menús. De este modo, se está produciendo un acercamiento de las tecnologías push hacia los usuarios.
Una de las grandezas que se atribuyen a Internet es que cualquier usuario, individual o colectivo, puede convertirse en emisor, creando y publicando su propio sitio web. Con las herramientas de publicación 2.0 es extremadamente fácil colocar contenidos en la Red. Pero la Web 2.0 no sólo ofrece herramientas para trabajar en entornos contributivos sino que, además, otorga a la comunidad la posibilidad de ejercer su “inteligencia colectiva” (entendida como la capacidad del grupo para resolver problemas que cada individuo del colectivo, de forma personal, no sería capaz de resolver ni, incluso, de entender). La inteligencia colectiva provocará, por ejemplo, que cierta referencia aparezca mejor o peor situada en Google o será capaz de construir un producto tan monumental como la Wikipedia (http://www.wikipedia.org/).Las actividades de la “inteligencia colectiva” en Internet pueden dividirse en tres grandes grupos: la producción de contenidos, la optimización de recursos y el control ejercido sobre contenidos e individuos.
La inteligencia colectiva, entendida meramente como el trabajo individual de millones de usuarios, produce nada más (y nada menos) que el fruto de la suma de sus partes. Así, nos encontramos ante aplicaciones como los marcadores sociales (del.icio.us) o los almacenes virtuales (flickr) que actúan a modo de repositorios, cuyo valor se corresponde de forma directa y unívoca con la cantidad de referencias disponibles ( 8). Además, como se verá, la producción de la inteligencia colectiva se ejerce sin la figura de una autoridad supervisora central que coordine el trabajo. Esta forma de trabajo fue bautizada por Raymond (2000) como el “modelo bazar” (opuesto al “modelo catedral”, jerarquizado y supervisado por un poder central). El modelo Bazar (o la cooperación sin mando) es el sistema empleado en el diseño de programas de código abierto. El modelo se caracteriza por una constante publicación de resultados, una máxima distribución de responsabilidades y tareas y «ser abierto hasta la promiscuidad para estimular al máximo la cooperación» (Vidal: 2000).
Al observar cómo la inteligencia compartida ejerce funciones para optimizar recursos, nos encontramos ante entornos como el de las redes P2P –como las de eDonkey2000, accesible mediante un programa cliente como emule (http://www.emule–project.net/), o BitTorrent, accesible mediante un programa cliente como uTorrent (http://www.utorrent.com/)–. Estas redes también pueden medir su eficacia de manera directamente proporcional al número de ficheros que comparten. Pero en ellas, además de información, el colectivo aporta al entorno infraestructura propia, necesaria para que el sistema funcione. Así, cada usuario conectado reserva espacio en el disco duro de su ordenador como almacén de los contenidos compartidos y destina algo del ancho de banda de su propia conexión para poder distribuirlos en la red P2P.
Además de los sistemas P2P, han surgido proyectos de sistemas distribuidos ( 9) en los que el usuario participa exclusivamente cediendo recursos, sin obtener ningún beneficio directo a corto plazo. Uno de los más duraderos ha sido el pionero proyecto Search for ExtraTerrestrial Intelligence (SETI / http://setiathome.ssl.berkeley.edu/), orientado a analizar las señales recibidas del espacio exterior con el fin de encontrar patrones de los que se pueda inferir la existencia de vida extraterrestre inteligente. Otro proyecto destacado de procesamiento distribuido ha sido Compute Against Cancer (http://www.computeagainstcancer.org/), orientado a la lucha contra el cáncer.
En estos proyectos es fácil entender una colaboración desinteresada, completamente altruista, debido a la noble finalidad de los objetivos y a que los recursos se ofrecen mientras el propietario no los necesita. En cambio, no es tan fácil comprender por qué funcionan entornos como el P2P, donde la estrategia de beneficios máximos consiste en acceder a recursos y materiales ajenos sin compartir recursos y materiales propios. La respuesta no es sencilla. Pero si se contempla la relación usuario / sistema P2P desde la teoría de los juegos, encontraremos argumentos que nos ayudarán a contestar esa pregunta. Desde ese punto de vista, se puede entender que el uso de un sistema P2P cumple con las características de un «juego de aditividad no nula, con repetición» (10), entorno ampliamente estudiado por esta especialidad de las matemáticas.Para minimizar el abuso por parte de un usuario-jugador, algunos sistemas premian a los participantes que comparten más material. De esta manera la tendencia de los usuarios es la de optar por la estrategia de colaborar compartiendo recursos, sin tener la tentación de dejar de hacerlo (para no ser penalizados por el sistema). O lo que es lo mismo, pero dicho en términos de la teoría de los juegos, el sistema tiende a un punto de equilibrio de Nash (11), cosa que lo hace estable, sólido, permanente. Además, las redes P2P se basan en la cooperación egoísta, estrategia que se ha demostrado como la más eficaz en todo tipo de escenarios (económicos, biológicos, culturales...).
Adelantábamos anteriormente que en el trabajo de la inteligencia colectiva no existe una autoridad central que organice el proyecto, lo cual no es del todo cierto. Es la propia inteligencia colectiva la que, además de producir contenidos y de compartir recursos, se convierte en entidad ubicua, reguladora de la producción, supliendo la existencia de una figura ubicada, jerárquicamente superior, que controle el trabajo del resto. Será, pues, la propia comunidad de usuarios, que hasta ahora no había podido actuar como un ente homogéneo en el entorno web (porque no era entorno, sino simple recurso), quien califique, valore, recomiende o prime ciertos contenidos por encima de otros. Y esa valoración no va a depender de un solo individuo sino del grupo como tal.
El control de la inteligencia colectiva se ejerce de dos maneras: a) en forma plebiscitaria, en la que la opción escogida por mayoría es la que se toma como decisión; y b) en forma de edición permanente, donde cada individuo, en cualquier momento, añade, corrige o elimina los contenidos aportados por otros individuos.
La comunidad puede ejercer un control plebiscitario en el momento que es capaz de otorgar valor, como colectivo, tanto a los usuarios individuales como a los contenidos. Dicho de otra forma, el comportamiento del conjunto de los usuarios influirá de manera determinante en los datos de la aplicación, asignando metadatos “calificadores” a personas o a informaciones. Esto ocurre, como ya hemos mencionado, en buscadores como Google, donde la prioridad de aparición de un enlace depende del número de veces que los usuarios lo incluyen en sus propias páginas (pageRank) o, en otros buscadores, de la cantidad de visitas que los interactores hacen a una determinada página web.
Otro ejemplo de control plebiscitario lo encontramos en el ejercicio de la “folksonomía”, donde las decisiones del individuo formarán parte del todo. La “folksonomía” se convertirá en una fuerza de regulación de contenidos, ya que contribuye «a generar una categorización emergente, donde cada elemento quedaría clasificado bajo la etiqueta ganadora» (Fumero, 2005).
Estos sistemas, que podríamos denominar “de votación”, basados en el reconocimiento, el prestigio, la confianza o la relevancia que otorga el colectivo a contenidos o a otros iguales, suelen ser el fundamento para que ciertas aplicaciones Web 2.0 se sustenten: el servicio de subastas virtuales eBay, por ejemplo, se cimienta en la opinión manifestada por los usuarios al completar una transacción. Aunque cada usuario valora de forma individual cómo se ha desarrollado la operación en la que ha participado personalmente (calificando el tiempo de entrega, el embalaje del producto, el estado del artículo adquirido, la realización del pago en el tiempo y por el importe convenidos…), es el porcentaje final, determinado por la cantidad de transacciones valoradas positivamente, el que configura el índice de confianza asignado a un determinado usuario siendo, finalmente, esa “inteligencia colectiva” la que otorga o niega la honestidad a cada comprador o proveedor y establece su “índice de confiabilidad”.
El otro tipo de control que hemos mencionado, el control de edición permanente, es el que se desarrolla en aplicaciones Wiki, como Citizendium (http://en.citizendium.org/) o la más conocida Wikipedia (12). En Wikipedia (que es, de momento, el entorno que otorga mayor grado de libertad a los usuarios), el control se fundamenta, paradójicamente, en la inexistencia de privilegios o categorías de control: todos los usuarios tienen la misma jerarquía frente al sistema (13). Cualquier visitante de la Wikipedia puede introducir nuevos contenidos, corregir errores o eliminar entradas. Así, cuando Eco (2006), con cierto tono apocalíptico, se pregunta «¿Quién controla en la Wikipedia no sólo los textos sino también sus correcciones? ¿O actúa una suerte de compensación estadística, por la cual una noticia falsa antes o después se localiza?» ya sabe la respuesta: la fuerza de la Wikipedia radica en esa “suerte de compensación estadística” que Eco intuye como una debilidad y que se ha demostrado como una excelente forma de control de revisión por pares. Tal como proclama la denominada Ley de Linus (14), bajo la que se han elaborado los programas de código abierto, «dados suficientes ojos, todos los errores serán evidentes». Así, cualquier internauta (erudito o incompetente, honrado o malintencionado, experto o novel) puede añadir o modificar una entrada, sin registros ni identificaciones previas. El control sobre la información introducida se ejerce a posteriori por todos los usuarios que accederán a esos contenidos ya que, si detectan alguna anomalía, podrán modificarlos nuevamente, sin censura.
Tal como afirma Morville (2005), en el caso de la Wikipedia «la autoridad deriva de la arquitectura de la información, del diseño visual, del control y de la marca ‘Wikipedia’ y de la fe extensa en la honradez intelectual y en el poder de la inteligencia colectiva».Aunque a primera vista puede parecer que el sistema tenderá a desestabilizarse, la experiencia demuestra que no es así: la Wikipedia en lengua inglesa, nacida en 2001, contaba, a inicios de febrero de 2006, con más de 950.000 entradas. ¡Algunas de ellas corregidas por personas de tanto prestigio como el propio Eco!
La Web 2.0 ha permitido el desarrollo y la puesta en práctica de ideas y conceptos teóricos que Internet no soportaba hasta el momento: podemos hablar del servicio web como de un entorno hipermedia, nos acercamos a la Web semántica y las tecnologías push son una realidad accesible.
Además, la inteligencia colectiva se ha erigido como la auténtica protagonista de los entornos de comunicación telemáticos. Y lo ha hecho en tres ámbitos diferentes y con tres funciones: como creadora de contenidos, como socializadora de recursos y como entidad controladora de la producción.
Pero el hecho fundamental que merece la máxima atención es que nos encontramos ante nuevas formas de producción y de edición de contenidos. Y eso nos obliga a desarrollar nuevas formas de acceder a ellos y aprender a consumirlos. O, al menos, a gestionarlos con la cautela que se deriva de las nuevas formas de autoría, caracterizadas por la libertad, el anonimato, la ubicuidad, el trabajo en equipo y la constante revisión de la producción.
El inconveniente que se deriva de ese continuo estado de creación y modificación es el mismo que afecta a otros medios de comunicación electrónicos on line: si atendemos a la clasificación que hace Rolero de los documentos según su conservabilidad (2001, web) observaremos que la información en Internet no es “inalterable” (como ocurre con el libro impreso), sino que se considera “permanente” (no desaparece hasta que alguien, voluntariamente, la borra o la modifica). A pesar de esto, la Web se está utilizando como fuente de citas en todo tipo de artículos y publicaciones científicas, tanto impresas como electrónicas, teniendo la precaución de mencionar la fecha de consulta del documento al que se hace referencia, puesto que el administrador del sitio web podría modificar los contenidos o, incluso, eliminarlos.
La Wikipedia, a pesar de estar sometida a un mayor número de modificaciones y de ser ingente el número de administradores potenciales, también puede utilizarse como herramienta de referencia. Incluso con mayor eficacia que una página web, ya que, aunque a primera vista pudiera parecer lo contrario, el grado de inalterabilidad de sus contenidos es inferior. La libertad, la cantidad y el anonimato de los sujetos capaces de modificarla son algunos de los factores que llevan a una baja permanencia de sus contenidos. Pero la Wikipedia ofrece herramientas para recuperar versiones anteriores y comprobar, por ejemplo, que cierta cita, en una fecha determinada, era exactamente la que aparece en un documento. El entorno web 1.0 no proporciona estos mecanismos de revisión y aun así lo hemos “integrado” al conjunto de posibles fuentes de referencia, sin achacarle defectos “apocalípticos”.En el caso de la Wikipedia, conociendo cómo se construye, el interactor que accede a sus artículos puede asumir el riesgo que comporta que los autores y editores de “La enciclopedia libre” sean múltiples, anónimos y distribuidos y, a cambio, beneficiarse de las virtudes de la inteligencia colectiva. ¿O es que no debemos ser prudentes antes de aceptar como verídicos otros contenidos que se publican en Internet? Igual que debemos cuestionarnos los contenidos que aparecen en televisión y no podemos asumir que todo lo que aparece en forma de libro impreso es la Verdad, así hay que enfrentarse a la Red: siendo críticos. Críticos con los medios. Con todos los medios. Y no sólo con las nuevas formas de producción o de distribución de contenidos on line.
BERNERS-LEE, T.; HENDLER, J. y LASSILA, O.: «The Semantic Web», Scientific American, mayo de 2001.
BRICKLIN, D.: «The Cornucopia of the Commons», en ORAM, A. (ed.): Peer-to-peer, O’Reilly & Associates, Sebastopol, 2001.
DAVIS, I.: «Talis, Web 2.0 and All That», 4 de julio de 2005; en: http://internetalchemy.org/2005/07/talis-web-20-and-all-that (Consulta: 1 de febrero de 2006).
ECO, U.: «Los riesgos de la Wikipedia», La Nación, Buenos Aires, 29 de enero de 2006; en www.lanacion.com.ar/edicionimpresa/suplementos/enfoques/nota.asp?nota_id=775943 (Consulta: 3 de febrero de 2006).
FERNÁNDEZ QUIJADA, D.: «Bases de datos multimedia en la Red global. Un recurso para la localización e indexación de contenidos», Telos, núm. 67, Fundación Telefónica de España, Madrid, 2006.
FUMERO, A.: «Un tutorial sobre blogs. El abecé del universo blog», Telos, núm. 65, Fundación Telefónica de España, Madrid, 2005.
GILES, J.: «Internet encyclopaedias go head to head», Special Report, Nature, 14 de diciembre de 2005; en: www.nature.com/news/2005/051212/full/438900a.html (Consulta: 2 de febrero de 2006).
LIESTØL, G.: «Wittgenstein, Genette y la narrativa del lector», en LANDOW, G. P. (ed.): Teoría del hipertexto, Paidós, Barcelona, 1997; págs. 109-145.
NELSON, T.: «The Xanadu® Model», Xanadu; en: http://xanadu.com/xuTheModel (Consulta: 6 de febrero de 2006).
MORVILLE, P.: «Authority», Semantic Studios, 11 de octubre de 2005; en: http://semanticstudios.com/publications/semantics/000057.php (Consulta: 10 de enero de 2006).
O’REILLY, T.: «Not 2.0?», 5 de agosto de 2005a; en: http://radar.oreilly.com/archives/2005/08/not_20.html (Consulta: 11 de enero de 2006).
----------- : «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», 30 de septiembre de 2005b; en: www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html (Consulta: 30 de octubre de 2005).
RAYMOND, E. S.: «The Cathedral and the Bazaar. V.3.0», 2000; en: www.catb.org/~esr/writings/homesteading/cathedral-bazaar/ ; traducción al castellano en: http://lucas.hispalinux.es/Otros/catedral-bazar/cathedral-es-paper-00.html
RIBES, F. X.: «Las emisoras de radio del estado español en Internet: Las bitcasters», Departamento de Comunicación Audiovisual y Publicidad de la Universidad Autónoma de Barcelona, Bellaterra, 2001; en: www.tdcat.cbuc.es/TESIS_UAB/AVAILABLE/TDX-0114102-161943//fxrg1de1.pdf
RILEY, D.: «A Short History of Blogging», The Blog Herald, 6 de marzo de 2005; en: http://www.blogherald.com/2005/03/06/a-short-history-of-blogging/
ROLERO, G.: «Documento electrónico y firma digital. Necesidad de una legislación específica», 2001; en: www.aaba.org.ar/bi180p30.htm (Consulta: marzo de 2006).VIDAL, M.: «Cooperación sin mando: una introducción al software libre», 2000; en: www.sindominio.net/biblioweb/telematica/softlibre/sl.pdf
Notas :
[1] En la filosofía Zen, un koan es un enigma sin solución aparente –y en ocasiones de planteamiento absurdo– destinado a que el discípulo se ejercite en la meditación.
[2] Utilizamos la clasificación de diferentes tipos de interacción descritos en Ribes (2001: 62-68).
[3] Las redes peer to peer (P2P o “colega a colega”) comunican a usuarios entre sí y se han popularizado debido a la facilidad de acceder a copias privadas de material fonográfico o videográfico.
[4] El primer wiki, llamado “Wiki Wiki Web” y creado por Ward Cunningham, fue publicado el 25 de marzo de 1995 y todavía se encuentra operativo en su ubicación original (http://c2.com/cgi/wiki).
[5] Según este autor, existen tres formas de creación y mantenimiento de bases de datos: manual organizada, automática organizada y manual voluntaria.
[6] En Fumero (2005) se puede encontrar una completa visión de conjunto sobre el fenómeno blog en general y los RSS en particular.
[7] En los blogs se publica material textual y gráfico; en los audioblogs se difunden archivos sonoros; en los videoblogs o Vblogs, el material que se distribuye es audiovisual.
[8] No tenemos en cuenta, en estos ejemplos, el valor añadido que supone la vinculación de tags con los contenidos almacenados.
[9] En ellos se pide al usuario que ceda el trabajo del procesador de su ordenador cuando él no lo utiliza (cuando entra en modo de salvapantallas) para analizar datos relacionados con investigaciones sobre el cáncer, el cambio climático o el análisis del genoma humano. Pueden encontrarse proyectos de sistemas distribuidos en http://boinc.berkeley.edu/.
[10] Entendiendo que en el juego intervienen sólo dos jugadores (el usuario y el sistema P2P) y teniendo en cuenta que el usuario no hace un uso único del entorno P2P, sino que es un usuario habitual.
[11] El punto de equilibrio de Nash define la existencia de una estrategia que aporta beneficios a los jugadores independientemente de las decisiones tomadas por el resto de los jugadores. Por tanto, un jugador no se verá obligado a cambiar sus acciones si otro las cambia y viceversa. De este modo, nadie modifica su estrategia, ya que es buena con independencia de lo que decidan otros jugadores.
[12] En su versión inglesa, cuenta más de 830.000 artículos, frente a los 90.000 de la Encyclopædia Britannica, o los 68.000 de la Enciclopedia Encarta 2006 Premium. Se estima que recibe un total de 2.500 millones de visitas mensuales.
[13] Desde inicios de 2006, los responsables de Wikipedia, para evitar el vandalismo constante, han restringido la edición de ciertas entradas relacionadas con temas sensibles (política, religión, historia, sexualidad…). Así, la Wikipedia dejó de ser un modelo total y completamente abierto. Por su parte, Citizendium obliga a crear una cuenta de usuario y a que éste se identifique para editar información.
[14] Bautizada así por Linus Torvalds, creador del sistema operativo de código abierto GNU/Linux.
Sumarios :
Davis afirma que la Web 2.0 «no es una tecnología, sino una actitud»
La Web 2.0 no es nueva: herramientas tan representativas de la corriente Web 2.0 como los weblogs se remontan a 1993
Con las aplicaciones Web 2.0, el espacio web ha conseguido la categoría de auténtico entorno hipermedia
La trascendencia de la “folksonomía” se basa en los resultados obtenidos y no en la mera posibilidad técnica
La Web 2.0 otorga a la comunidad la posibilidad de ejercer su “inteligencia colectiva”
La producción de la inteligencia colectiva se ejerce sin la figura de una autoridad supervisora central que coordine el trabajo
Hay proyectos de sistemas distribuidos en los que el usuario participa cediendo recursos, sin obtener ningún beneficio directo a corto plazo
El control de la inteligencia colectiva se ejerce de dos maneras: en forma plebiscitaria y en forma de edición permanente
El control de edición permanente, es el que se desarrolla en aplicaciones Wiki, como Citizendium o la más conocida Wikipedia
La inteligencia colectiva se ha erigido como la auténtica protagonista de los entornos de comunicación telemáticos

lunes, 11 de agosto de 2008

Consumo Cultural de los argentinos de 11 a 17 años


Los adolescentes argentinos pasan un promedio de seis horas por día vinculados a los medios
Los chicos de 11 a 17 años ven entre dos y tres horas de TV por día, escuchan música otro tanto, usan la PC de uno a tres días por semana, y por año leen de uno a tres libros y van de una a cuatro veces al cine.
La primera encuesta nacional sobre consumos culturales de adolescentes, cuyos resultados presentó el Ministerio de Educación http://www.me.gov.ar/, mostró que la brecha económica tiene su correlato cultural.
El estudio confirma una hipótesis que los expertos en educación y cultura sostienen desde hace tiempo: la enorme brecha social que padecen los más chicos no es sólo económica, sino también cultural. Mientras el 75 por ciento de los de clase media alta hacia arriba tiene una computadora en la casa, solo uno de cada diez de los más pobres se puede dar ese lujo.
La encuesta, que fue financiada con el aporte de las empresas Arcor, Telecom, Petrobras y el Banco Nación, es una muestra representativa a partir de 3360 entrevistas realizada por la consultora Knack en capitales de provincia y áreas urbanas relevantes de todo el país, además de tres zonas rurales del NOA, NOE y la región pampeana, entre abril y junio de 2006.
Las tres principales conclusiones de la encuesta fueron: la brecha social es también cultural; los chicos argentinos pasan mucho tiempo conectados a los medios pero no es su primera opción: cuando pueden elegir, prefieren la sociabilidad; y que lo que caracteriza a estos jóvenes es el uso simultáneo de los medios, su superposición en variadas combinaciones: TV más internet, música más teléfono, etcétera.
Pero si bien esas tres conclusiones son bastante evidentes, lo que llamó enormemente la atención fue que no existe una relación lineal entre leer y ver TV: los que ven cuatro a seis horas por día de TV leen la misma cantidad de libros por año que los que miran una hora diaria. Y entre los lectores de tres libros por año, el porcentaje de altos consumidores de tele (cuatro horas) es el mismo que el de los que ven poca televisión.
En el caso de la lectura –que se supondría se lleva mal con el uso de la PC– también se comprueba con la encuesta que esa suposición es un mito. El 60 por ciento de los que leen tres libros por año usa su computadora para buscar información y hacer la tarea; los que leen un libro anual, la usan para jugar. Una de las indagaciones del Programa Escuela y Medios a través de 360 encuestas realizadas en el NOA, el NOE y la región pampeana fue el de los consumos culturales en las zonas rurales. Los chicos y chicas de estas zonas ven menos televisión (sólo el 60 por ciento lo hace todos los días y en familia), escuchan más radio (95 por ciento) y tienen casi nulo acceso a una computadora (sólo dos de cada cien). Son estos pibes los que viven la mayor brecha cultural, según la muestra.
Además, el estudio comparó la situación argentina con la de otros países. Una encuesta similar en Francia detectó que cada francés va al cine 12 veces al año, mientras que un argentino lo hace, en promedio, sólo dos. Si es por comparar con el Primer Mundo, queda en evidencia, según el trabajo encargado por Filmus, que en la Argentina sólo el 15 por ciento de estos adolescentes tiene internet, frente a la mitad de los franceses y el 67 por ciento de los ingleses. Donde se parecen más a sus coetáneos del Norte es en el reclamo de lo que dicen no tener y necesitar: espacios y actividades en los lugares donde viven.Como bien dijo el ministro Filmus cuando cerró el acto, lo que motivó la investigación no es mera curiosidad periodística sino la necesidad de saber concretamente qué hacen los chicos con los medios –y mejor aún: qué hacen los medios con los chicos– para desde allí generar políticas. Curiosamente, para los observadores del consumo de medios estos resultados eran más que previsibles. Y sobre todo la falta de linealidad entre consumo mediático y mal rendimiento escolar.
Lo cierto es que la primera generación de nativos digitales no le tiene miedo al libro y frente a sus padres y maestros –que siguen pensando en términos de dualismos y de dicotomías– logran articular mucho mejor el multitasking y el multiprocesamiento preparándose para el mundo que viene, que sólo por nostalgia y por pereza intelectual se puede bautizar como mucho peor que el que ya fue.