El concepto de «computación en la nube» (cloud computing) está siendo utilizado con relativa asiduidad en el ámbito de los grandes proyectos relacionados con Internet. El todopoderoso Google, basa parte de la eficacia de su buscador en dicho concepto, y muchas de sus aplicaciones incluida la de su futuro sistema operativo, están basadas en esta tecnología o concepto informático. Esta técnica está muy relacionada con la llamada computación compartida, en la que un gran número de computadores convencionales conectados en red actúan de forma coordinada compartiendo tiempo de computación y procesando de forma paralela fragmentos de código, de forma que el rendimiento global podría superar con creces al que cualquier supercomputador.
Podría por tanto definirse «la nube» en términos que nos interesan para este caso, como la maraña formada por la red mundial y todos los equipos, bases de datos y fuentes de información en general conectadas a ella. El termino «nube» es apropiado como veremos, ya que existe un parámetro que relaciona a esta nube de datos e información con los sistemas gaseosos. Seguramente, las personas familiarizadas con la física y los procesos termodinámicos conocen una magnitud muy utilizada en estos ámbitos denominada entropía. La principal característica que la define podría enunciarse de la siguiente manera: cuanta mayor entropía, menor será la cantidad de energía aprovechable en un sistema cualesquiera.
En Teoría de la Información, la entropía es también utilizada para medir el grado de relevancia de la información extraída. Normalmente, cuanta mayor sea la probabilidad de encontrar una palabra, por ejemplo, menor relevante será. Digamos que: a mayor entropía informativa, menor información relevante. Para poder utilizar los conceptos termodinámicos de la física aplicados a la información con la esperanza de comprender mejor lo que ocurre con la información en «la nube», se continua con la analogía mostrando en la siguiente tabla la relación de conceptos de ambos ámbitos:
Fuerza/masa/peso | Datos |
Energía (capacidad de producir trabajo) | Información (capacidad de producir conocimiento) |
Trabajo | Conocimiento |
Tabla 1. — Relación entre los conceptos de la termodinámica
y la teoría de la información (Fuente: elaboración propia)
La tabla anterior podría explicarse de la siguiente manera:
- Fuerza/datos: cuando mandamos un correo con archivos adjuntos o descargamos una imagen, se suele referirse al tamaño como «el peso», esto es, independientemente de cuales sean los datos y la información que contengan. Igual peso tendrá un archivo de un megabyte, sea un .pdf, un .jpg o un .zip corrupto. El peso en física es la fuerza con la que la masa de nuestro planeta nos atrae, y es directamente proporcional a la masa. Los datos son por tanto el equivalente en la nube informativa de la masa que hay que transmitir con un determinado ancho de banda o velocidad de transmisión.
- Energía/información: Albert Einstein demostró al mundo que masa y energía son dos caras de la misma moneda. Los datos son por tanto en nuestra nube, materia transformable en energía informativa.
- Trabajo/conocimiento: en física, no toda la energía es aprovechable. En todas las máquinas hay siempre una parte de energía que se escapa en forma de calor y que por lo tanto, no produce trabajo. Por ejemplo, se puede estar empujando una mesa con toda la fuerza del mundo, que hasta que no empiece a moverse no se producirá trabajo, empleándose una energía proporcional al producido. El resto de energía se escapa en forma de calor que nos produce sudores, los mismos que corren por nuestra frente cuando no encontramos más que información que no nos satisface para conocer lo que deseamos averiguar. En definitiva, no toda la información produce conocimiento, y no siempre (casi nunca) mucha información implica mayor conocimiento.
Para que la energía sea aprovechable ha de existir un desequilibrio termodinámico para que fluya de una parte a otra produciendo trabajo en el proceso. Cuando realizamos una búsqueda, se asume que no toda la información es igualmente relevante, y que existirá una de ella que producirá conocimiento cuando fluya al receptor que la necesite. Igualmente, el receptor ha de ignorar la información que contiene, ya que si ya la conoce no le será de utilidad. Estas situaciones en las que hay grandes desequilibrios implican una baja entropía y por lo tanto, mayor probabilidad de encontrar información que produzca conocimiento. De que exista un flujo de información.
Si por el contrario la mayor parte de la información posee la misma relevancia, es decir, la misma capacidad de producir conocimiento, esto ha de significar que casi todo lo que se encuentre tendrá escaso valor. Esto es lo que ocurre con aquellas palabras de un texto que no aportan información, como por ejemplo los artículos o las conjunciones. Cuanto más ruido exista de este tipo, mayor entropía y menor conocimiento serán capaces de producir. En los sistemas termodinámicos la alta entropía implica que se está en equilibrio. Que está inerte.
La variedad será entonces una indicación de baja entropía. La uniformidad es la muerte del conocimiento.
Enlaces relacionados
- Marcos Ros Martín. Los flujos de información ni se crean ni se destruyen, solo se trasforman. Blog El periodista enredado. Enlace aquí. [publicado 30/julio/2009]
- Stefan Nikolaev. Siete buscadores semánticos que quizá te hagan olvidar Google. Periodista digital. Enlace aquí [publicado 03/05/2010]
- Antonio Ortíz. Qué es el cloud computing. Blog Error 500. Enlace aquí. [publicado 17/12/2008]