jueves, 28 de agosto de 2008

Exclusión digital




La brecha digital, que separa a aquellas personas con usabilidad en las Tecnologías de Informática y Comunicaciones (TICs) con la que no tienen acceso a las mismas, y que por lo tanto aumenta o disminuye el valor país , se va achicando lentamente a escala global.

Un estudio publicado por el Economist Intelligence Unit, el grupo que edita la revista "The Economist", Argentina bajó del puesto 39 al 42 (5.27 puntos frente a 5.05 del año pasado) .
Para el estudio se utilizaron cerca de cien criterios cuantitativos y cualitativos, organizados en seis categorías como la conectividad y la infraestructura tecnológica, el entorno para los negocios, la adopción de las nuevas tecnologías por empresas y particulares, la legislación o los servicios electrónicos de apoyo.
Como se describe en el informe adjunto (picar en Exclusión digital), el Estado Argentino se ha dedicado en los últimos años a realizar compras de computadoras y en algunso casos a conectarla a Internet. Esta pendiente aún, avanzar en la usalidad tecnológica que deben posser los ciudadanos y en la producción de contenidos alternativos que permitan afianzar identidad, conocimiento y diversión.
Se ha invertido mucho dinero en equipamiento, seguramente es el momento de invertir mucho dinero en conocimiento.



martes, 19 de agosto de 2008

La historia circular de las TICs




El “Cloud computing” (tambien conocido con los nombres de grid computing, utility computing, computing on-demand o “Nube de cómputo“) es un término del cual se ha estado hablando en la última década, y ahora está tomando importante auge ya que la empresa Dell trató de patentar el término “Cloud Computing“.
Nube de computo se trata de un modelo donde las tecnologías de la información se prestan cómo un servicio basado en TICs, estos servicios están ubicados en los centros de datos (Cloud), permitiendo a los ciudadanos el acceso a los servicios sin necesidad de que el mismo tenga el conocimiento, la experiencia y la infraestructura para poder mantener este servicio.
Se trata de un concepto general que incorpora al software como un servicio, por ejemplo muchos servicios Web 2.0 recientes, usan esta tendencia, donde lo único que necesitan los usuarios para poder acceder al servicio es una conexión a Internet. Un ejemplo muy claro es Google Apps que proporciona aplicaciones de negocios en línea al que se accede desde un navegador web, mientras que el software y los datos se almacenan en los servidores de Google.
Los artículos del Business Week (BW) “How cloud computing is changing the world“, “Cloud computing: small companies take flight“, “Enter the cloud with caution“ y “It’s 2018: who owns the cloud?“ hablan del cloud computing.
Es una señal inequívoca: el concepto se ha instalado y hasta tal punto es trascendente, la disputa entre las empresas gigantes de Internet (ver hipervínculo Dell trato de patentar) que define como la batalla importante de la escena tecnológica:.
Las compañías que dominen “la nube” de Internet serán los verdaderos protagonistas de la red, con esquemas de concentración muy importantes debido a la misma naturaleza de la actividad, es decir grandes centros de almacenamiento y procesamiento. Una enrome garaje de TICs que permite a dispositivos móviles o fijos conectarse y utilizar los servicios en informática tales como aplicaciones basadas en software.
Para los ciudadanos que están haciendo una experiencia poniendo sus datos, + procesamiento + imágenes y sus relaciones sociales, es decir se comunican apoyados en la red, el cloud computing resulta una opción derivada del hecho de trabajar desde muchos sitios o muchas máquinas con servidores administrados por algunos de los gigantes de Internet.
Para las empresas, la cosa va mucho más allá: se han informatizado en torno a aplicaciones (Sistemas basados en software) instaladas en computadores de escritorio o móviles, que en algunos casos se conectan a servidores para utilizar aplicaciones allí residentes. Un primer tema es que la capacidad computacional sobre os escritorios o mesas de trabajo esta sobredimensionadas por la oferta del mercado tecnológico.
Configuraciones de PCs capaces de hacer más funciones y procesos que lso que se generan en la dinámica cotidiana de la empresa. En este contexto, pensar en un futuro de aplicaciones residentes en la red y accesibles desde cualquier sitio ocupan reflexiones actuales de los Gerentes y Líderes en Tecnología de la Información.
La pregunta que ronda es: ¿qué sentido tiene poner en manos de cada empleado una licencia con un costo de varios cientos de dólares para que pueda formatear documentos de la manera más sofisticada posible, cuando lo único necesario es escribir y compartir fácilmente lo que se escribe con quienes trabajan con él?
Así, las empresas que prueban aplicaciones de este tipo se encuentran de repente con niveles de productividad y satisfacción sorprendentes, y con esquemas de trabajo que pasan a tener mucha más lógica cuanto más se utilizan.
La idea de compañías utilizando infraestructuras de aplicaciones, procesamiento y almacenamiento en manos de especialistas no es nueva, proviene de la idea del utility computing de mediados de 1960, cuando un computador era un recurso de alto costo económico que había que compartir. Aunque los costos ha cambiado, el concepto sigue siendo el mismo, y a la luz de los avances en arquitecturas de virtualización, seguridad, comunicaciones, y escalabilidad, pasa a tener más sentido.
Finalmente la historia es circular pero su repetición muestra configuraciones diferentes aunque el péndulo oscile entre la soberanía y la dependencia.

martes, 12 de agosto de 2008

El valor de los Metados y la Inteligencia colectiva por Xabier Ribes


La nomenclatura “2.0” no es casual y sugiere un cambio significativo en relación al modelo de páginas web disponibles hasta ahora. Esta denominación sigue el símil de los programas informáticos: las versiones de un mismo producto se identifican con dos o más números, separados por puntos. Las variaciones realizadas en el programa se indican incrementando la numeración con la lógica de que cuanto más a la derecha está el número que varía, de menor importancia resulta la mejora o la corrección realizada. Pero si es el primer dígito el que cambia, se está indicando que se han producido modificaciones sustanciales.
La manera de denominar el servicio web también sugiere que nos encontramos ante un producto que estará sometido a una constante revisión. Resulta significativo que los creadores de un servicio 2.0, durante su lanzamiento (que suele alargarse, cuando menos, unos cuantos meses), nunca muestran en sus páginas el socorrido mensaje de "en construcción", sino que identifican su situación como “en fase Beta", tal como se hace con los programas informáticos. Lo cual apunta a que una Web 2.0 no se construye, sino que se prueba. Y se modifica continuamente para dotarla de nuevas prestaciones.Este nuevo modelo nos ha dejado palabras y siglas para definir productos o situaciones comunicativas de reciente aparición, algunas de ellas todavía sin equivalente en nuestro idioma (blogs o bitácoras, vblogs o videoblogs, folkMind, folksonomía, mashup, agregador, permalink, RSS, feed, Redes sociales, tag clouds, trackBack, wiki, AJAX…). No es propósito de este artículo explorar las posibilidades de cada una de estas aplicaciones. Pretendemos acercarnos a la Web 2.0 como concepto general para definirlo, con el fin de aislar los rasgos característicos, identificar los actores que intervienen y ayudar a comprender el cambio de paradigma que plantea. El objetivo es descubrir qué es la Web 2.0.
Aunque parezca increíble, encontrar una respuesta concreta o una definición estricta en la bibliografía actual (incluida la electrónica) es difícil. Más aún si tenemos en cuenta que es un término que desde su aparición, a mediados de 2004, se ha extendido rápidamente entre la comunidad de Internet (a inicios de julio de 2007, Google indexa aproximadamente 332 millones de entradas bajo esa expresión). Los padres del término otorgan al concepto valores y matices abstractos, y plantean la Web 2.0 como un koan ( 1) sólo asequible a los iniciados que, tras invertir largas horas de reflexión y experiencia, se verán recompensados con la iluminación y el conocimiento. Así, por ejemplo, Davis (2005) afirma que la Web 2.0 «no es una tecnología, sino una actitud» y O’Reilly (2005b) expresa que el concepto «no tiene límites definidos, sino [que es] más bien un núcleo gravitatorio».
La dificultad de estos autores para definir el concepto de forma clara radica en su pretensión de abordar todas las variables que rodean al fenómeno de forma simultánea, mezclando entorno, tecnología, aplicaciones, usos... Dado que para poder acercarnos al objeto con propiedad necesitamos disponer de una definición que no lleve a confusión, podemos considerar como Web 2.0 todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando metadatos a la información existente), bien en la forma de presentarlos o en contenido y forma simultáneamente.
Dicho de otra forma, una aplicación on line podrá considerarse como Web 2.0 cuando permita procesos de interactividad de contenidos contributiva ( 2) (cuando el usuario pueda añadir y compartir información con otros usuarios, como en Flickr / http://www.flickr.com/), procesos de interacción de contenidos combinatoria (cuando posibilite la interrelación de contenidos de diferentes bases de datos –como en los denominados purés o Mashups o, por poner un ejemplo concreto, en What’s Up? / www.jeroenwijering.com/whatsup– o procesos de interacción de interficie –como en Netvibes (http://www.netvibes.com/) o iGoogle (www.google.com/ig)–, ya sean de preferencias estéticas o de funciones (cuando el usuario puede ubicar los contenidos en diferentes lugares de la pantalla o decidir qué contenidos aparecen) o generativa (cuando el sistema, a partir del análisis del modo de operar del usuario con la interficie, decida por el usuario cómo o qué datos presentar).
Cabe señalar que esta definición, de forma intencionada, no excluye aquellas aplicaciones on line que estén soportadas en entornos diferentes al servicio web. Se dará, pues, la paradoja de que algunas aplicaciones denominadas Web 2.0 no sean propiamente “web”, esto es, accesibles a través de un navegador, y se requiera de programas o dispositivos específicos para recibir sus contenidos o servicios (como ocurre en las redes peer to peer ( 3)).
El hecho de permitir al interactor la manipulación directa de la fuente de datos que sustenta un servicio on line no tiene, al menos técnicamente, nada de novedoso: los foros (un elemento de comunicación electrónica muy conocido entre los internautas) podrían considerarse como un ejemplo (tal vez, el primero) de la Web 2.0. Igualmente, las aplicaciones de telebanca, al permitir acciones como el traspaso de efectivo de una cuenta a otra, en realidad, están dejando que el usuario modifique los contenidos de la base de datos bancaria. Pero es que la Web 2.0 no es nueva: herramientas tan representativas de la corriente Web 2.0 como los weblogs se remontan a 1993 (Riley, 2005). Y el wiki, por ejemplo, data de 1995 ( 4).
Así, la novedad de las aplicaciones Web 2.0 viene determinada por los nuevos usos y situaciones comunicativas que se derivan de la asociación de nuevos datos a los datos existentes en una base de datos (metadatos) y a la explotación de esos metadatos y de que, además, la asociación pueda realizarse de forma sencilla, ubicua y mancomunada.Los metadatos, esto es, los datos que hablan de otros datos, sirven para identificar, describir, localizar, recuperar, organizar y preservar la información a la que están vinculados. A partir de estas múltiples funciones se están desarrollando aplicaciones web de muy diversa índole. Sin ánimo de ser exhaustivo, encontramos servicios que cumplen con la definición de 2.0 propuesta anteriormente, asociados a categorías tan dispares como buscadores, herramientas de publicación, portales personales, sistemas de distribución del conocimiento, espacios virtuales para almacenar y compartir contenidos, listados de marcadores sociales o utilidades distribuidas de acceso on line (ver tabla ( 1)).
Resulta curioso observar cómo la aparición de las aplicaciones Web 2.0 supone un avance “hacia atrás”. Dicho de otra forma, se evoluciona hacia los sistemas hipertextuales primigenios, como el teórico Memex de Vannebar Bush, el NLS de Douglas Engelbart o el Xanadu de Ted Nelson, los cuales estaban dotados de ciertas características que la Web 1.0 o 1.5 no pudo ofrecer jamás. Nelson, en su web (http://xanadu.com/xuTheModel), menciona defectos del WWW tales como el establecimiento de enlaces en un solo sentido, la existencia de enlaces que apuntan a recursos inexistentes, la imposibilidad de agregar notas o comentarios, la imposibilidad de comparar diferentes versiones de un documento o la inexistencia de un control sobre los derechos de autor y su gestión, entre otros. Estas carencias, en mayor o menor medida, están siendo superadas por la Web 2.0.En esta misma línea, y teniendo en cuenta que Liestøl considera como recurso de documentos hipermedia aquel que permite al interactor «leer, copiar y navegar por una gran base de datos con enlaces hipertextuales, pero la información permanece fija; no pueden añadirse nuevos documentos y la relación estructural del material viene dada» y que el mismo autor se refiere a entorno de hipermedios como aquel donde el interactor «que lee no interacciona desde el exterior sino desde dentro, añadiendo documentos y enlaces, lo que modifica la estructura y los contenidos del sistema» (1997: 135), podemos afirmar que con las aplicaciones Web 2.0, el espacio web ha conseguido la categoría de auténtico entorno hipermedia. Y es que las aplicaciones y servicios Web 2.0 están dotando al interactor de la capacidad para ver, seguir y crear enlaces unidireccionales y bidireccionales, de la posibilidad de comparar diferentes versiones, de trabajar de forma simultánea sobre un mismo documento o de la posibilidad de publicar contenidos de forma ubicua y desde el propio entorno de acceso a los documentos.
Hemos mencionado anteriormente que los metadatos son el rasgo característico de la Web 2.0. Y más concretamente, la posibilidad de crearlos y de explotarlos. Pero su valor no radica en la posibilidad técnica de su existencia y de su manipulación sino en las manifestaciones y fenómenos comunicativos a los que está dando lugar.
Así, nos encontramos ante aplicaciones cuya importancia reside en la clasificación de la información. Las grandes bases de datos multimedia, por ejemplo, deben hacer uso de los metadatos para gestionar los enormes volúmenes de información con los que trabajan y resolver las peticiones que reciben con cierta rapidez. Tal como comenta Fernández Quijada (2006), «la manera fundamental de abordar esta hiperinflación es la indexación y el tratamiento automatizado de los datos de esta indexación».En algunas aplicaciones 2.0 los usuarios se convierten en indexadores de la información. Y lo hacen relacionándola con palabras clave o marcas (tags) que ellos mismos eligen libremente. Esta libertad del usuario para etiquetar la información se ha bautizado con el nombre de “folksonomía” y se opone, en cierta forma, a la taxonomía tradicional, donde las categorías de clasificación están previamente establecidas. Espacios virtuales en los que almacenar y compartir contenidos –como Flickr (http://www.flickr.com/) para imágenes fotográficas, Goear (http://www.goear.com/) para sonidos y canciones o YouTube (http://www.youtube.com/) para contenidos videográficos– utilizan la “folksonomía” como forma de clasificar y, posteriormente, localizar los contenidos. Lo mismo ocurre con los “marcadores sociales” –como del.icio.us (http://del.icio.us/) o simpy (http://www.simpy.com/)–, servidores donde los usuarios almacenan las direcciones de sus enlaces favoritos, los marcan con tags y, si quieren, los hacen públicos. Como adelantábamos, la trascendencia de la “folksonomía” se basa en los resultados obtenidos y no en la mera posibilidad técnica. Si observamos más allá de la anécdota o de la aplicación en concreto, veremos que, en realidad, nos encontramos con gran número de personas trabajando, de forma continua, voluntaria y gratuita, en la clasificación de material, o lo que es lo mismo, dando significado a contenidos de todo tipo (sitios web, imágenes fotográficas, material audiovisual...). Estos usuarios, que crean y mantienen una base de datos de forma manual voluntaria (Bricklin, 2001 ( 5)) están contribuyendo, sin saberlo, a fraguar la idea de la Web semántica (http://www.semanticweb.org/) planteada por Berners-Lee (2001).
Las tecnologías de la información denominadas pull (del inglés, “tirar”) son aquellas en las que el usuario inicia la demanda de información y el sistema sirve los contenidos solicitados. La navegación tradicional funciona de este modo. Con la integración de metadatos a la información es muy fácil invertir el proceso y construir aplicaciones push (del inglés, “empujar”), esto es, herramientas de comunicación en las que el sistema toma la iniciativa y es capaz de enviar contenidos a los usuarios y que dichos contenidos sean acordes a sus intereses. Con las tecnologías push no es el usuario quien va a buscar la información, sino que es la información la que acude al encuentro del receptor. El ejemplo más claro de tecnologías push de la Web 2.0 lo encontramos en la explotación de los documentos RSS asociados a los weblogs.
Un RSS (Rich Site Summary o Really Simple Syndication) ( 6) es un documento que contiene metadatos relacionados con un sitio web en concreto. Los archivos RSS (llamados también feeds RSS o canales RSS) se estructuran en ítems, con el título, el resumen y el enlace de la información que describen y, eventualmente, pueden contener otros datos (fecha de publicación del documento, nombre del autor…).Los weblogs son, como los wikis, otra de las herramientas de publicación rápida del universo 2.0. Los contenidos de los blogs y de sus parientes cercanos, los audioblogs y los videoblogs ( 7), son accesibles mediante tecnologías pull, visitándolos con el programa adecuado. Pero existe otra forma de obtener la información que contienen. Cuando un blogger (persona que mantiene un weblog) escribe una nueva entrada en su bitácora, de forma automática, genera o modifica un documento RSS asociado a ella. Así, los seguidores de un determinado blog, mediante programas denominados “lectores de feeds de RSS”, pueden mantenerse informados sobre las actualizaciones y novedades publicadas en sus blogs favoritos, sin necesidad de visitarlos uno a uno, estableciéndose una comunicación de tipo push. Hasta hace poco, los lectores de feeds de RSS eran herramientas que debían ser instaladas en el ordenador del usuario para funcionar (iTunes / www.apple.com/itunes). La Web 2.0 ha creado lectores de feeds on line –como bloglines (http://www.bloglines.com/) o Google Reader (www.google.com/reader)–. Actualmente ciertos programas navegadores –como Firefox (www.mozilla.com/firefox) o Microsoft Internet Explorer 7 (www.microsoft.com/windows/IE/ie7/default.mspx)– ya los incorporan como opciones de sus menús. De este modo, se está produciendo un acercamiento de las tecnologías push hacia los usuarios.
Una de las grandezas que se atribuyen a Internet es que cualquier usuario, individual o colectivo, puede convertirse en emisor, creando y publicando su propio sitio web. Con las herramientas de publicación 2.0 es extremadamente fácil colocar contenidos en la Red. Pero la Web 2.0 no sólo ofrece herramientas para trabajar en entornos contributivos sino que, además, otorga a la comunidad la posibilidad de ejercer su “inteligencia colectiva” (entendida como la capacidad del grupo para resolver problemas que cada individuo del colectivo, de forma personal, no sería capaz de resolver ni, incluso, de entender). La inteligencia colectiva provocará, por ejemplo, que cierta referencia aparezca mejor o peor situada en Google o será capaz de construir un producto tan monumental como la Wikipedia (http://www.wikipedia.org/).Las actividades de la “inteligencia colectiva” en Internet pueden dividirse en tres grandes grupos: la producción de contenidos, la optimización de recursos y el control ejercido sobre contenidos e individuos.
La inteligencia colectiva, entendida meramente como el trabajo individual de millones de usuarios, produce nada más (y nada menos) que el fruto de la suma de sus partes. Así, nos encontramos ante aplicaciones como los marcadores sociales (del.icio.us) o los almacenes virtuales (flickr) que actúan a modo de repositorios, cuyo valor se corresponde de forma directa y unívoca con la cantidad de referencias disponibles ( 8). Además, como se verá, la producción de la inteligencia colectiva se ejerce sin la figura de una autoridad supervisora central que coordine el trabajo. Esta forma de trabajo fue bautizada por Raymond (2000) como el “modelo bazar” (opuesto al “modelo catedral”, jerarquizado y supervisado por un poder central). El modelo Bazar (o la cooperación sin mando) es el sistema empleado en el diseño de programas de código abierto. El modelo se caracteriza por una constante publicación de resultados, una máxima distribución de responsabilidades y tareas y «ser abierto hasta la promiscuidad para estimular al máximo la cooperación» (Vidal: 2000).
Al observar cómo la inteligencia compartida ejerce funciones para optimizar recursos, nos encontramos ante entornos como el de las redes P2P –como las de eDonkey2000, accesible mediante un programa cliente como emule (http://www.emule–project.net/), o BitTorrent, accesible mediante un programa cliente como uTorrent (http://www.utorrent.com/)–. Estas redes también pueden medir su eficacia de manera directamente proporcional al número de ficheros que comparten. Pero en ellas, además de información, el colectivo aporta al entorno infraestructura propia, necesaria para que el sistema funcione. Así, cada usuario conectado reserva espacio en el disco duro de su ordenador como almacén de los contenidos compartidos y destina algo del ancho de banda de su propia conexión para poder distribuirlos en la red P2P.
Además de los sistemas P2P, han surgido proyectos de sistemas distribuidos ( 9) en los que el usuario participa exclusivamente cediendo recursos, sin obtener ningún beneficio directo a corto plazo. Uno de los más duraderos ha sido el pionero proyecto Search for ExtraTerrestrial Intelligence (SETI / http://setiathome.ssl.berkeley.edu/), orientado a analizar las señales recibidas del espacio exterior con el fin de encontrar patrones de los que se pueda inferir la existencia de vida extraterrestre inteligente. Otro proyecto destacado de procesamiento distribuido ha sido Compute Against Cancer (http://www.computeagainstcancer.org/), orientado a la lucha contra el cáncer.
En estos proyectos es fácil entender una colaboración desinteresada, completamente altruista, debido a la noble finalidad de los objetivos y a que los recursos se ofrecen mientras el propietario no los necesita. En cambio, no es tan fácil comprender por qué funcionan entornos como el P2P, donde la estrategia de beneficios máximos consiste en acceder a recursos y materiales ajenos sin compartir recursos y materiales propios. La respuesta no es sencilla. Pero si se contempla la relación usuario / sistema P2P desde la teoría de los juegos, encontraremos argumentos que nos ayudarán a contestar esa pregunta. Desde ese punto de vista, se puede entender que el uso de un sistema P2P cumple con las características de un «juego de aditividad no nula, con repetición» (10), entorno ampliamente estudiado por esta especialidad de las matemáticas.Para minimizar el abuso por parte de un usuario-jugador, algunos sistemas premian a los participantes que comparten más material. De esta manera la tendencia de los usuarios es la de optar por la estrategia de colaborar compartiendo recursos, sin tener la tentación de dejar de hacerlo (para no ser penalizados por el sistema). O lo que es lo mismo, pero dicho en términos de la teoría de los juegos, el sistema tiende a un punto de equilibrio de Nash (11), cosa que lo hace estable, sólido, permanente. Además, las redes P2P se basan en la cooperación egoísta, estrategia que se ha demostrado como la más eficaz en todo tipo de escenarios (económicos, biológicos, culturales...).
Adelantábamos anteriormente que en el trabajo de la inteligencia colectiva no existe una autoridad central que organice el proyecto, lo cual no es del todo cierto. Es la propia inteligencia colectiva la que, además de producir contenidos y de compartir recursos, se convierte en entidad ubicua, reguladora de la producción, supliendo la existencia de una figura ubicada, jerárquicamente superior, que controle el trabajo del resto. Será, pues, la propia comunidad de usuarios, que hasta ahora no había podido actuar como un ente homogéneo en el entorno web (porque no era entorno, sino simple recurso), quien califique, valore, recomiende o prime ciertos contenidos por encima de otros. Y esa valoración no va a depender de un solo individuo sino del grupo como tal.
El control de la inteligencia colectiva se ejerce de dos maneras: a) en forma plebiscitaria, en la que la opción escogida por mayoría es la que se toma como decisión; y b) en forma de edición permanente, donde cada individuo, en cualquier momento, añade, corrige o elimina los contenidos aportados por otros individuos.
La comunidad puede ejercer un control plebiscitario en el momento que es capaz de otorgar valor, como colectivo, tanto a los usuarios individuales como a los contenidos. Dicho de otra forma, el comportamiento del conjunto de los usuarios influirá de manera determinante en los datos de la aplicación, asignando metadatos “calificadores” a personas o a informaciones. Esto ocurre, como ya hemos mencionado, en buscadores como Google, donde la prioridad de aparición de un enlace depende del número de veces que los usuarios lo incluyen en sus propias páginas (pageRank) o, en otros buscadores, de la cantidad de visitas que los interactores hacen a una determinada página web.
Otro ejemplo de control plebiscitario lo encontramos en el ejercicio de la “folksonomía”, donde las decisiones del individuo formarán parte del todo. La “folksonomía” se convertirá en una fuerza de regulación de contenidos, ya que contribuye «a generar una categorización emergente, donde cada elemento quedaría clasificado bajo la etiqueta ganadora» (Fumero, 2005).
Estos sistemas, que podríamos denominar “de votación”, basados en el reconocimiento, el prestigio, la confianza o la relevancia que otorga el colectivo a contenidos o a otros iguales, suelen ser el fundamento para que ciertas aplicaciones Web 2.0 se sustenten: el servicio de subastas virtuales eBay, por ejemplo, se cimienta en la opinión manifestada por los usuarios al completar una transacción. Aunque cada usuario valora de forma individual cómo se ha desarrollado la operación en la que ha participado personalmente (calificando el tiempo de entrega, el embalaje del producto, el estado del artículo adquirido, la realización del pago en el tiempo y por el importe convenidos…), es el porcentaje final, determinado por la cantidad de transacciones valoradas positivamente, el que configura el índice de confianza asignado a un determinado usuario siendo, finalmente, esa “inteligencia colectiva” la que otorga o niega la honestidad a cada comprador o proveedor y establece su “índice de confiabilidad”.
El otro tipo de control que hemos mencionado, el control de edición permanente, es el que se desarrolla en aplicaciones Wiki, como Citizendium (http://en.citizendium.org/) o la más conocida Wikipedia (12). En Wikipedia (que es, de momento, el entorno que otorga mayor grado de libertad a los usuarios), el control se fundamenta, paradójicamente, en la inexistencia de privilegios o categorías de control: todos los usuarios tienen la misma jerarquía frente al sistema (13). Cualquier visitante de la Wikipedia puede introducir nuevos contenidos, corregir errores o eliminar entradas. Así, cuando Eco (2006), con cierto tono apocalíptico, se pregunta «¿Quién controla en la Wikipedia no sólo los textos sino también sus correcciones? ¿O actúa una suerte de compensación estadística, por la cual una noticia falsa antes o después se localiza?» ya sabe la respuesta: la fuerza de la Wikipedia radica en esa “suerte de compensación estadística” que Eco intuye como una debilidad y que se ha demostrado como una excelente forma de control de revisión por pares. Tal como proclama la denominada Ley de Linus (14), bajo la que se han elaborado los programas de código abierto, «dados suficientes ojos, todos los errores serán evidentes». Así, cualquier internauta (erudito o incompetente, honrado o malintencionado, experto o novel) puede añadir o modificar una entrada, sin registros ni identificaciones previas. El control sobre la información introducida se ejerce a posteriori por todos los usuarios que accederán a esos contenidos ya que, si detectan alguna anomalía, podrán modificarlos nuevamente, sin censura.
Tal como afirma Morville (2005), en el caso de la Wikipedia «la autoridad deriva de la arquitectura de la información, del diseño visual, del control y de la marca ‘Wikipedia’ y de la fe extensa en la honradez intelectual y en el poder de la inteligencia colectiva».Aunque a primera vista puede parecer que el sistema tenderá a desestabilizarse, la experiencia demuestra que no es así: la Wikipedia en lengua inglesa, nacida en 2001, contaba, a inicios de febrero de 2006, con más de 950.000 entradas. ¡Algunas de ellas corregidas por personas de tanto prestigio como el propio Eco!
La Web 2.0 ha permitido el desarrollo y la puesta en práctica de ideas y conceptos teóricos que Internet no soportaba hasta el momento: podemos hablar del servicio web como de un entorno hipermedia, nos acercamos a la Web semántica y las tecnologías push son una realidad accesible.
Además, la inteligencia colectiva se ha erigido como la auténtica protagonista de los entornos de comunicación telemáticos. Y lo ha hecho en tres ámbitos diferentes y con tres funciones: como creadora de contenidos, como socializadora de recursos y como entidad controladora de la producción.
Pero el hecho fundamental que merece la máxima atención es que nos encontramos ante nuevas formas de producción y de edición de contenidos. Y eso nos obliga a desarrollar nuevas formas de acceder a ellos y aprender a consumirlos. O, al menos, a gestionarlos con la cautela que se deriva de las nuevas formas de autoría, caracterizadas por la libertad, el anonimato, la ubicuidad, el trabajo en equipo y la constante revisión de la producción.
El inconveniente que se deriva de ese continuo estado de creación y modificación es el mismo que afecta a otros medios de comunicación electrónicos on line: si atendemos a la clasificación que hace Rolero de los documentos según su conservabilidad (2001, web) observaremos que la información en Internet no es “inalterable” (como ocurre con el libro impreso), sino que se considera “permanente” (no desaparece hasta que alguien, voluntariamente, la borra o la modifica). A pesar de esto, la Web se está utilizando como fuente de citas en todo tipo de artículos y publicaciones científicas, tanto impresas como electrónicas, teniendo la precaución de mencionar la fecha de consulta del documento al que se hace referencia, puesto que el administrador del sitio web podría modificar los contenidos o, incluso, eliminarlos.
La Wikipedia, a pesar de estar sometida a un mayor número de modificaciones y de ser ingente el número de administradores potenciales, también puede utilizarse como herramienta de referencia. Incluso con mayor eficacia que una página web, ya que, aunque a primera vista pudiera parecer lo contrario, el grado de inalterabilidad de sus contenidos es inferior. La libertad, la cantidad y el anonimato de los sujetos capaces de modificarla son algunos de los factores que llevan a una baja permanencia de sus contenidos. Pero la Wikipedia ofrece herramientas para recuperar versiones anteriores y comprobar, por ejemplo, que cierta cita, en una fecha determinada, era exactamente la que aparece en un documento. El entorno web 1.0 no proporciona estos mecanismos de revisión y aun así lo hemos “integrado” al conjunto de posibles fuentes de referencia, sin achacarle defectos “apocalípticos”.En el caso de la Wikipedia, conociendo cómo se construye, el interactor que accede a sus artículos puede asumir el riesgo que comporta que los autores y editores de “La enciclopedia libre” sean múltiples, anónimos y distribuidos y, a cambio, beneficiarse de las virtudes de la inteligencia colectiva. ¿O es que no debemos ser prudentes antes de aceptar como verídicos otros contenidos que se publican en Internet? Igual que debemos cuestionarnos los contenidos que aparecen en televisión y no podemos asumir que todo lo que aparece en forma de libro impreso es la Verdad, así hay que enfrentarse a la Red: siendo críticos. Críticos con los medios. Con todos los medios. Y no sólo con las nuevas formas de producción o de distribución de contenidos on line.
BERNERS-LEE, T.; HENDLER, J. y LASSILA, O.: «The Semantic Web», Scientific American, mayo de 2001.
BRICKLIN, D.: «The Cornucopia of the Commons», en ORAM, A. (ed.): Peer-to-peer, O’Reilly & Associates, Sebastopol, 2001.
DAVIS, I.: «Talis, Web 2.0 and All That», 4 de julio de 2005; en: http://internetalchemy.org/2005/07/talis-web-20-and-all-that (Consulta: 1 de febrero de 2006).
ECO, U.: «Los riesgos de la Wikipedia», La Nación, Buenos Aires, 29 de enero de 2006; en www.lanacion.com.ar/edicionimpresa/suplementos/enfoques/nota.asp?nota_id=775943 (Consulta: 3 de febrero de 2006).
FERNÁNDEZ QUIJADA, D.: «Bases de datos multimedia en la Red global. Un recurso para la localización e indexación de contenidos», Telos, núm. 67, Fundación Telefónica de España, Madrid, 2006.
FUMERO, A.: «Un tutorial sobre blogs. El abecé del universo blog», Telos, núm. 65, Fundación Telefónica de España, Madrid, 2005.
GILES, J.: «Internet encyclopaedias go head to head», Special Report, Nature, 14 de diciembre de 2005; en: www.nature.com/news/2005/051212/full/438900a.html (Consulta: 2 de febrero de 2006).
LIESTØL, G.: «Wittgenstein, Genette y la narrativa del lector», en LANDOW, G. P. (ed.): Teoría del hipertexto, Paidós, Barcelona, 1997; págs. 109-145.
NELSON, T.: «The Xanadu® Model», Xanadu; en: http://xanadu.com/xuTheModel (Consulta: 6 de febrero de 2006).
MORVILLE, P.: «Authority», Semantic Studios, 11 de octubre de 2005; en: http://semanticstudios.com/publications/semantics/000057.php (Consulta: 10 de enero de 2006).
O’REILLY, T.: «Not 2.0?», 5 de agosto de 2005a; en: http://radar.oreilly.com/archives/2005/08/not_20.html (Consulta: 11 de enero de 2006).
----------- : «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», 30 de septiembre de 2005b; en: www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html (Consulta: 30 de octubre de 2005).
RAYMOND, E. S.: «The Cathedral and the Bazaar. V.3.0», 2000; en: www.catb.org/~esr/writings/homesteading/cathedral-bazaar/ ; traducción al castellano en: http://lucas.hispalinux.es/Otros/catedral-bazar/cathedral-es-paper-00.html
RIBES, F. X.: «Las emisoras de radio del estado español en Internet: Las bitcasters», Departamento de Comunicación Audiovisual y Publicidad de la Universidad Autónoma de Barcelona, Bellaterra, 2001; en: www.tdcat.cbuc.es/TESIS_UAB/AVAILABLE/TDX-0114102-161943//fxrg1de1.pdf
RILEY, D.: «A Short History of Blogging», The Blog Herald, 6 de marzo de 2005; en: http://www.blogherald.com/2005/03/06/a-short-history-of-blogging/
ROLERO, G.: «Documento electrónico y firma digital. Necesidad de una legislación específica», 2001; en: www.aaba.org.ar/bi180p30.htm (Consulta: marzo de 2006).VIDAL, M.: «Cooperación sin mando: una introducción al software libre», 2000; en: www.sindominio.net/biblioweb/telematica/softlibre/sl.pdf
Notas :
[1] En la filosofía Zen, un koan es un enigma sin solución aparente –y en ocasiones de planteamiento absurdo– destinado a que el discípulo se ejercite en la meditación.
[2] Utilizamos la clasificación de diferentes tipos de interacción descritos en Ribes (2001: 62-68).
[3] Las redes peer to peer (P2P o “colega a colega”) comunican a usuarios entre sí y se han popularizado debido a la facilidad de acceder a copias privadas de material fonográfico o videográfico.
[4] El primer wiki, llamado “Wiki Wiki Web” y creado por Ward Cunningham, fue publicado el 25 de marzo de 1995 y todavía se encuentra operativo en su ubicación original (http://c2.com/cgi/wiki).
[5] Según este autor, existen tres formas de creación y mantenimiento de bases de datos: manual organizada, automática organizada y manual voluntaria.
[6] En Fumero (2005) se puede encontrar una completa visión de conjunto sobre el fenómeno blog en general y los RSS en particular.
[7] En los blogs se publica material textual y gráfico; en los audioblogs se difunden archivos sonoros; en los videoblogs o Vblogs, el material que se distribuye es audiovisual.
[8] No tenemos en cuenta, en estos ejemplos, el valor añadido que supone la vinculación de tags con los contenidos almacenados.
[9] En ellos se pide al usuario que ceda el trabajo del procesador de su ordenador cuando él no lo utiliza (cuando entra en modo de salvapantallas) para analizar datos relacionados con investigaciones sobre el cáncer, el cambio climático o el análisis del genoma humano. Pueden encontrarse proyectos de sistemas distribuidos en http://boinc.berkeley.edu/.
[10] Entendiendo que en el juego intervienen sólo dos jugadores (el usuario y el sistema P2P) y teniendo en cuenta que el usuario no hace un uso único del entorno P2P, sino que es un usuario habitual.
[11] El punto de equilibrio de Nash define la existencia de una estrategia que aporta beneficios a los jugadores independientemente de las decisiones tomadas por el resto de los jugadores. Por tanto, un jugador no se verá obligado a cambiar sus acciones si otro las cambia y viceversa. De este modo, nadie modifica su estrategia, ya que es buena con independencia de lo que decidan otros jugadores.
[12] En su versión inglesa, cuenta más de 830.000 artículos, frente a los 90.000 de la Encyclopædia Britannica, o los 68.000 de la Enciclopedia Encarta 2006 Premium. Se estima que recibe un total de 2.500 millones de visitas mensuales.
[13] Desde inicios de 2006, los responsables de Wikipedia, para evitar el vandalismo constante, han restringido la edición de ciertas entradas relacionadas con temas sensibles (política, religión, historia, sexualidad…). Así, la Wikipedia dejó de ser un modelo total y completamente abierto. Por su parte, Citizendium obliga a crear una cuenta de usuario y a que éste se identifique para editar información.
[14] Bautizada así por Linus Torvalds, creador del sistema operativo de código abierto GNU/Linux.
Sumarios :
Davis afirma que la Web 2.0 «no es una tecnología, sino una actitud»
La Web 2.0 no es nueva: herramientas tan representativas de la corriente Web 2.0 como los weblogs se remontan a 1993
Con las aplicaciones Web 2.0, el espacio web ha conseguido la categoría de auténtico entorno hipermedia
La trascendencia de la “folksonomía” se basa en los resultados obtenidos y no en la mera posibilidad técnica
La Web 2.0 otorga a la comunidad la posibilidad de ejercer su “inteligencia colectiva”
La producción de la inteligencia colectiva se ejerce sin la figura de una autoridad supervisora central que coordine el trabajo
Hay proyectos de sistemas distribuidos en los que el usuario participa cediendo recursos, sin obtener ningún beneficio directo a corto plazo
El control de la inteligencia colectiva se ejerce de dos maneras: en forma plebiscitaria y en forma de edición permanente
El control de edición permanente, es el que se desarrolla en aplicaciones Wiki, como Citizendium o la más conocida Wikipedia
La inteligencia colectiva se ha erigido como la auténtica protagonista de los entornos de comunicación telemáticos

lunes, 11 de agosto de 2008

Consumo Cultural de los argentinos de 11 a 17 años


Los adolescentes argentinos pasan un promedio de seis horas por día vinculados a los medios
Los chicos de 11 a 17 años ven entre dos y tres horas de TV por día, escuchan música otro tanto, usan la PC de uno a tres días por semana, y por año leen de uno a tres libros y van de una a cuatro veces al cine.
La primera encuesta nacional sobre consumos culturales de adolescentes, cuyos resultados presentó el Ministerio de Educación http://www.me.gov.ar/, mostró que la brecha económica tiene su correlato cultural.
El estudio confirma una hipótesis que los expertos en educación y cultura sostienen desde hace tiempo: la enorme brecha social que padecen los más chicos no es sólo económica, sino también cultural. Mientras el 75 por ciento de los de clase media alta hacia arriba tiene una computadora en la casa, solo uno de cada diez de los más pobres se puede dar ese lujo.
La encuesta, que fue financiada con el aporte de las empresas Arcor, Telecom, Petrobras y el Banco Nación, es una muestra representativa a partir de 3360 entrevistas realizada por la consultora Knack en capitales de provincia y áreas urbanas relevantes de todo el país, además de tres zonas rurales del NOA, NOE y la región pampeana, entre abril y junio de 2006.
Las tres principales conclusiones de la encuesta fueron: la brecha social es también cultural; los chicos argentinos pasan mucho tiempo conectados a los medios pero no es su primera opción: cuando pueden elegir, prefieren la sociabilidad; y que lo que caracteriza a estos jóvenes es el uso simultáneo de los medios, su superposición en variadas combinaciones: TV más internet, música más teléfono, etcétera.
Pero si bien esas tres conclusiones son bastante evidentes, lo que llamó enormemente la atención fue que no existe una relación lineal entre leer y ver TV: los que ven cuatro a seis horas por día de TV leen la misma cantidad de libros por año que los que miran una hora diaria. Y entre los lectores de tres libros por año, el porcentaje de altos consumidores de tele (cuatro horas) es el mismo que el de los que ven poca televisión.
En el caso de la lectura –que se supondría se lleva mal con el uso de la PC– también se comprueba con la encuesta que esa suposición es un mito. El 60 por ciento de los que leen tres libros por año usa su computadora para buscar información y hacer la tarea; los que leen un libro anual, la usan para jugar. Una de las indagaciones del Programa Escuela y Medios a través de 360 encuestas realizadas en el NOA, el NOE y la región pampeana fue el de los consumos culturales en las zonas rurales. Los chicos y chicas de estas zonas ven menos televisión (sólo el 60 por ciento lo hace todos los días y en familia), escuchan más radio (95 por ciento) y tienen casi nulo acceso a una computadora (sólo dos de cada cien). Son estos pibes los que viven la mayor brecha cultural, según la muestra.
Además, el estudio comparó la situación argentina con la de otros países. Una encuesta similar en Francia detectó que cada francés va al cine 12 veces al año, mientras que un argentino lo hace, en promedio, sólo dos. Si es por comparar con el Primer Mundo, queda en evidencia, según el trabajo encargado por Filmus, que en la Argentina sólo el 15 por ciento de estos adolescentes tiene internet, frente a la mitad de los franceses y el 67 por ciento de los ingleses. Donde se parecen más a sus coetáneos del Norte es en el reclamo de lo que dicen no tener y necesitar: espacios y actividades en los lugares donde viven.Como bien dijo el ministro Filmus cuando cerró el acto, lo que motivó la investigación no es mera curiosidad periodística sino la necesidad de saber concretamente qué hacen los chicos con los medios –y mejor aún: qué hacen los medios con los chicos– para desde allí generar políticas. Curiosamente, para los observadores del consumo de medios estos resultados eran más que previsibles. Y sobre todo la falta de linealidad entre consumo mediático y mal rendimiento escolar.
Lo cierto es que la primera generación de nativos digitales no le tiene miedo al libro y frente a sus padres y maestros –que siguen pensando en términos de dualismos y de dicotomías– logran articular mucho mejor el multitasking y el multiprocesamiento preparándose para el mundo que viene, que sólo por nostalgia y por pereza intelectual se puede bautizar como mucho peor que el que ya fue.

miércoles, 6 de agosto de 2008

Contenidos Educativos y Culturales, TICs y Convergencia Digital


A partir de la convergencia digital de las TICs, otro de los parámetros analíticos a tener en cuenta, es el de sus contenidos y servicios, generados y puestos a disposición, tanto por los productores y proveedores de contenidos y servicios educativos y culturales como a los usuarios y aplicadores. Si la disposición de las infraestructuras de las TICs es el primer paso que debe dar la comunidad educativa y cultural para poder acceder a sus contenidos y servicios, el desarrollo de contenidos digitales es otro proceso paralelo de gran importancia para el pleno funcionamiento o incorporación de estas tecnologías a las distintas actividades educativas y culturales.
En realidad, los contenidos de las TICs para la educación y la cultura, son otro de los elementos esenciales para el desarrollo de la educación y cultura digital.
Al igual que otros campos de aplicación social como la información y el entretenimiento, la convergencia digital de las TICs no podrá ser seguramente utilizada en la educación y la cultura, si no se producen suficientes contenidos multimedia interactivos, creados y/o adaptados a los verdaderos requerimientos pedagógicos, didácticos o divulgativos de sus actuales y futuros usuarios reales y potenciales. Y sin contenidos, las posibles aplicaciones de las TICs en cualquier práctica educativa o cultural se convertirían, sin lugar a dudas, tan sólo en un buen propósito teórico.
De ahí que superar rápidamente la problemática de las instalaciones y los equipamientos tecnológicos, para abordar las cuestiones esenciales de la concepción y producción, difusión o distribución de los contenidos educativos y culturales se vuelve un escenario estratégico, no sólo de análisis, sino de desarrollo inmediato. Y no habrá que olvidar que los medios y tecnologías educativas son espacio excepcional para tal fin. Los sistemas educativos y culturales pueden jugar un rol fundamental en la creación de un gran número de contenidos y recursos tecnológicos, dentro de esta convergencia digital de las TICs.
Y aún cuando la mayor parte de las inversiones o gastos que se han efectuado en el sector de las TICs aplicadas a la educación y la cultura, se centran en la compra o instalación de equipamientos, dispositivos o infraestructuras completas, así como de sus conexiones o la conectividad entre ellos; será necesario volver a señalar de nuevo - a pesar que en todo momento se plantea y se reivindica ya el interés y la importancia de la generación de contenidos -, que todavía no se alcanzan idénticos niveles de inversión que los rubros anteriores. Cierto, en la educación y la cultura, se sigue tratando constantemente de desarrollar e innovar sus procesos de actuación con y en las TICs, pero no se sigue todavía al mismo ritmo, la propia concepción y producción de los contenidos.
Sobre este tema habrá que señalar que el primer tipo de barreras para la creación y producción de contenidos digitales de carácter educativo y cultural, y que muy a menudo desincentiva la creación de los mismos, es el problema del alto grado de inversión que se requiere, y el cual, sin embargo, debería ser idéntico a como sucede con los procesos de producción de contenidos digitales de otros actividades sociales como el ocio, el entretenimiento o la información periodística. Siempre se ha señalado que la producción de los contenidos educativos y culturales, es costosa en tiempo y en recursos humanos; y que además dichos materiales pueden quedar obsoletos en breves lapsos de tiempo.
Pero, aún cuando la creación y producción de contenidos digitales educativos y culturales, suponga inicialmente un importante esfuerzo financiero y laboral, otros gastos relativos a su distribución y comercialización, siempre serán mucho más reducidos para este tipo de contenidos, si llegan a industrializarse o comercializarse a una escala masiva; desde esta perspectiva, y frente a un análisis de coste - beneficio por usuario, los montos de inversión para la producción de un gran número de contenidos educativos y culturales, resultan siempre inversamente más pequeños cuando se puedan ofrecer a amplias capas de la población, y todavía más cuando pueden adaptarse a las características propias de cada colectividad y persona.
Es evidente que son los propios responsables funcionarios, usuarios reales, desde directivos o encargados de establecimientos educativos y culturales, hasta sus profesores o técnicos (por ejemplo, guías, curadores de museos o galerías de arte), las principales personas implicadas en el diseño y definición de acciones o actuaciones que van dirigidas a fomentar la producción y utilización de las TICs, y de sus servicios y contenidos; además son estas las personas que mejor pueden evaluar la efectividad de los mismos. En algunos casos, también pueden otros usuarios, como los propios alumnos los que complementen y creen contenidos que resulten de utilidad para otros estudiantes.

martes, 5 de agosto de 2008

Acceso a contenidos digitales



Mirar televisión, hablar por teléfono, mover la cuenta desde un cajero automático bancario o por la red Internet, verificar multas de tránsito, comprar discos, intercambiar correos electrónicos desde cualquier lado del planeta, investigar y estudiar utilizando bancos de datos disponibles en Internet son hoy actividades cotidianas, en el mundo entero.

Subyacente a todas aquellas actividades paralelas existe una inmensa malla de medios de comunicación que cubre países enteros, une continentes y llega a casas, empresas y organismos públicos; son hilos de teléfono, canales de microondas, líneas de fibra óptica, cables submarinos transoceánicos, transmisiones vía satélite.

En estas redes habitan computadoras, que procesan informaciones, controlan y orientan el tráfico, coordinan y hacen compatibles los diversos medios de comunicación.

El conjunto de esos recursos forma una verdadera “autopista” de informaciones y servicios frecuentemente llamada de “infovía” o “supervía” popularmente Internet.

Desarrollar un política digital en al ámbito de Cultura, permitirá a los Ciudadanos acceder a contenidos en la red Internet potenciando la difusión local, nacional e internacional de su patrimonio cultural como así también la preservación del mismo.

Las soluciones basadas en Tecnologías en Informática y Comunicaciones (TICs), para ser aplicada a las actividades de recuperación, catalogación y digitalización de documentos, preservación patrimonial y difusión multimedia, se encuentran en un estado de madurez de producto que garantiza a los ciudadanos encontrar las condiciones básicas de accesibilidad a los contenidos institucionales.

Tres fenómenos interrelacionados conocidos como Convergencia de la Base Tecnológica, están en el origen de la transformación en curso.

El primero, la convergencia de la base tecnológica, proviene del hecho de poder representar y procesar cualquier tipo de información de una única forma, la digital. Esta convergencia esta dada por la integración de las siguientes disciplinas: Computación (informática y sus aplicaciones), Comunicaciones (transmisión y recepción de datos, voz, imágenes, etc.), y los Contenidos (libros, películas, videos, pinturas, fotografías, música, etc.), se aproximan vertiginosamente.

El segundo aspecto es la dinámica de la industria, que ha proporcionado una continua caída de los precios de las computadoras relativamente a la potencia computacional, equipos de producción digital permitiendo la popularización creciente del uso de esas máquinas.

Finalmente, en gran parte como resultado de los dos primeros fenómenos, el tercer aspecto en la base de esa revolución es el crecimiento de Internet.

Digitalizar el Patrimonio Cultural

“...que la cultura da al hombre la capacidad de reflexionar sobre sí mismo. Es ella la que hace de nosotros seres específicamente humanos, racionales, críticos y éticamente comprometidos. A través de ella discernimos los valores y efectuamos opciones. A través de ella el hombre se expresa, toma conciencia de sí mismo, se reconoce como un proyecto inacabado, pone en cuestión sus propias realizaciones, busca incansablemente nuevas significaciones, y crea obras que lo trascienden”
(UNESCO: Declaración de México)


El Patrimonio Cultural de un pueblo comprende las obras de sus artistas, arquitectos, músicos, escritores, actores, etc. así como las creaciones anónimas, surgidas del alma popular, y el conjunto de valores que dan sentido a la vida, es decir, las obras materiales y no materiales que expresan la creatividad de ese pueblo; la lengua, los ritos, las creencias, los lugares y monumentos históricos, la literatura, las obras de arte y los archivos y bibliotecas. La cultura nos muestra los valores, la forma de ser y de vivir una comunidad, la cultura es entonces “formadora de identidad”, el sustento moral y social de un pueblo.

Desde el estado se la debe rejerarquizar tomándola como “motor para la transformación social” impulsando acciones concretas en materia de divulgación y desarrollo cultural.
El concepto de “desarrollo cultural” se presenta como algo más complejo y completo que el concepto de “crecimiento” ya que para consolidar el desarrollo integral es necesario un profundo cambio en pos del afianzamiento de una cultura verdaderamente democrática, pluralista, la que representa un punto clave para la vida en sociedad.

Para una mejor y mayor difusión de la cultura es fundamental desarrollar herramientas que colaboren en la divulgación de estos contenidos, permitiendo además establecer un diálogo entre las diversas culturas regionales. No será posible responder a la gran reactivación cultural que se vive, ni a los procesos de desarrollo cultural de los municipios, si no se atiende al crecimiento, especialización, equipamiento y mejora de la divulgación: El desarrollo y la difusión cultural debe estar en correspondencia con el dinamismo intelectual y creativo de cada localidad.

Existen hoy en la Argentina las condiciones económicas y tecnológicas para que se incorporen programas institucionales de promoción y difusión cultural, las nuevas Tecnologías de Informática y Comunicación (TICs) permiten que la población acceda desde los hogares, centros educativos y culturales, etc. a diversos sitios de divulgación por Internet.

Las Tecnologías de Informática y Comunicación en la Cultura

En el “Informe Mundial sobre la Cultura” de la UNESCO (2000) la arqueóloga de la École Nationale du Patrimoine, (Francia), Isabelle Vinson revalora el rol de los soportes digitales En este sentido marca la necesidad de una buena organización de los contenidos y la arquitectura de las redes que permita crear mapas de conocimiento que faciliten a los usuarios encontrar vías personalizadas de acceso al conocimiento.Por otra parte, sostiene la necesidad de que el Patrimonio Cultural sea resguardado digitalmente en espacios propios: “es indispensable que los recursos patrimoniales sean difundidos por soportes digitales generados desde los gobiernos, tanto para garantizarles los beneficios generados por las industrias culturales como para preservar su significado esencial, al ser emitidos y modificados por y en el seno de la comunidad a cuya memoria histórica pertenecen”.

En la misma línea, el “Diario Oficial” la Unión Europea publicó en su informe sobre Patrimonio Cultural (agosto de 2006) una serie de recomendaciones sobre la digitalización, la accesibilidad en línea del material cultural y la conservación digital. Orientada a la importancia de la conservación digital, expresa que “la conservación digital es vital para mantener la memoria colectiva.”

El proceso de Catalogar y Digitalizar fondos culturales y patrimoniales, para ser almacenados y gestionados en Base de Datos; sean estos en diferentes formatos como documentos escritos, sonoros, audiovisuales, fotográficos, etc. favorece a la divulgación en forma masiva y la gestión de colecciones específicas. Además, colabora con la preservación del patrimonio cultural, ya que muchos de estos objetos culturales, son en su mayoría originales los que deben ser preservados y, la alta exposición o el manipuleo puede llevar a roturas, perdidas, deterioros, etc.

La preservación de la “memoria registrada” o de la “Producción única cultural” y sus archivos, es incipiente en América Latina y joven aún en el mundo. Las políticas públicas de la región muestran vacancia en el Liderazgo para este tipo de emprendimientos.