Mostrando entradas con la etiqueta informática. Mostrar todas las entradas
Mostrando entradas con la etiqueta informática. Mostrar todas las entradas

sábado, 29 de abril de 2017

Las vueltas de la tecnología

sábado, 29 de abril de 2017
Gráfica de adopción de nuevas tecnologías

Mientras el Windows 10 de Microsoft supera al ya anticuado Windows 7, Apple fracasa con su ordenador de escritorio Mac Pro. Los que decían que el PC era cosa del pasado, tal vez lo que les ocurre es que continúan frustrados sin superar a la omnipresente competencia, a pesar de sus intentos. Pero por otro lado, la empresa de Redmon se estrella con su sistema operativo para móviles Windows Phone, debido a una mala estrategia comercial. A pesar de todo, emulando logros de antaño cuando se encumbraron gracias a IBM y a los PCs clónicos, el legado de Bill Gates ha logrado que su fracaso en el mercado móvil no le importe demasiado ya que gracias a Google y al sistema operativo más usado en el mundo, gana más con Android que con el suyo propio. Este mismo sistema operativo también evitó la práctica desaparición de otros antaño grandes como Nokia o Blackberry. Esta última —entorno empresarial donde surgió nada más y nada menos que el Whatsapp— resurge con la estupenda Blackberry Hub, aplicación que aúna las notificaciones principalmente de llamadas, correos y mensajes en una única lista ordenada cronológicamente.

Aunque el PC no ha muerto, es inevitable aceptar que el mercado y sobre todo, la manera en la que los usuarios interaccionan con él, ha cambiado drásticamente. De la WWW casi nadie se acuerda, y se ha convertido en Facebook, Instagram o Twitter. Yahoo, el gigante del directorio de búsqueda más importante, desaparece y pasa a ser Altaba, denominación que a muchos nos recuerda al mítico buscador Altavista. Ya no se lee con tranquilidad y detenimiento, sino que ahora los titulares son devorados uno tras otro, casi siempre desde el móvil. Los mismos contenidos se repite y retuitean una y otra vez. El mundo es un continuo fluir, una corriente de noticias sin contrastar en la que todo aquel que no navega lo suficientemente rápido, se ve arrastrado. Tal vez pueda apetecer pararnos un momento y volver la vista atrás para recordar cómo se llegó hasta aquí.

La música tuvo la culpa

Si algo nos dejó la burbuja de las punto.com de finales del siglo pasado fue la revolución de las descargas de contenidos. Antes de todo el tinglado que hay ahora, eran los programas para compartir música primero, y todo tipo de contenidos unos años más tarde: Napster, Gnutella, eMule, Ares, entre otros, y más recientemente, jDownloader. En aquellos inicios la gente descubrió que podía tener toda su musicoteca en el disco duro, o llevar una parte de ella encima en una Pocket PC o Palm, ordenadores de bolsillo pensados para almacenes y otros ambientes corporativos que a duras penas servía para propósitos de entretenimiento, lo que no impedía que la gente —los que realmente tenían interés— los usasen. En este mercado desconocido hasta el momento, sólo los emprendedores más atrevidos decidían invertir en dispositivos como el primer reproductor de MP3, el MPMan. A inicios de siglo, con el mercado decididamente orientado, Steve Jobs vuelve a Apple y como ya sabemos, uso todo el poderío de una empresa consolidada para lanzar el iPod y una tienda online para descargas legales de música llamada iTunes. La supuesta innovación tecnológica no fue tal, sino más bien comercial. Tras este éxito y viendo que de esta manera —con dispositivos móviles de entretenimiento— sí podían hacer competencia al gigante de Redmon —rey de los escritorios y de la oficina— se preparaban para dar el siguiente paso. Mientras los más modestos han de conformarse con campañas de Email Marketing, la empresa de Jobs preparó una espectacular presentación que ahora ya son habituales en todas las corporaciones. En ella se anunció a bombo y platillo, con la especial habilidad de vendedor de su artifice, un producto que apenas estaba en desarrollo y sin funcionalidad, pero que se presentaba entonces como la gran «revolución tecnológica»: el iPhone.

MPMan, el primer reproductor portátil de MP3
MPMan, el primer reproductor portátil de MP3
La estrategia comercial de la empresa de la manzana constó de las siguientes claves: invertir lo mínimo desarrollando un prototipo apenas funcional basándose en productos existentes y en la tendencia de mercado —es decir, lo mismo que hacen la mayoría de empresas—. A continuación, utilizar el valor publicitario del nombre de una empresa tecnológica de imagen exclusiva y de productos caros como Apple y ejecutar una gran y fastuosa presentación cargada de emotividad y apelando a la vanidad del público, para mostrar un producto del que apenas tienen un esbozo. El objetivo se logra, que no es otro que crear una enorme expectación para una vez medida esta y conocedores del impacto, invertir poderosamente pero con riesgo minimizado en un dispositivo construido con tecnología de otros —Samsung, por ejemplo—, muy caro —hasta el punto de llegar a necesitar un seguro— y que apenas servía para nada —en relación al precio, con poca memoria, sin conectividad— sin una tarifa plana de datos. La «proeza» de Apple fue invertir una barbaridad que sólo ellos podían —apoyado en operadores de telefonía— confiando en la manipulación emocional del público por parte de su CEO, para vender un producto carísimo —para recuperar la inversión— pero que a pesar de todo, ha sido un éxito de ventas. La innovación consistió en conocer la manera de hacer creer al público que un producto que aún no existía era especial, de manera que ellos mismos pagasen un hardware que no había sido utilizado de forma masiva hasta entonces —sobre todo, las pantallas capacitivas, de cristal y frágiles— por su enorme coste.

Las ventanas por fin fueron cuadradas

Paradójicamente, lo que es de agradecer a la empresa que construyó el Macintosh es que nos ha traído a la mejor Microsoft que ha existido hasta ahora. La perdida de protagonismo ha sido interpretada por la empresa que fundó Bill Gates como una necesidad de salir de su entorno cómodo, feo y aburrido de tecno-burgueses, para buscar reinventarse. Sin embargo, el intento de continuar los pasos de los competidores como la propia Apple o Google en el mercado móvil fue tan comprensible como estúpidamente ejecutado: en primer lugar porque si ya has llegado tarde no intentes hacer lo que otros ya han realizado antes y mejor. Y en segundo lugar, por que la tozudez en empezar desde cero les llevó a olvidarse de todos los usuarios fieles que ya usaban sus programas de escritorio y que se encontraban con que debían renovar prácticamente todo, con lo que la curva de introducción en el mercado fue terriblemente lenta, o inexistente. El público se iba antes a otros entornos que se lo daban ya todo hecho y que no requerían de ningún software especial al trabajar en «la nube» —la otra gran protagonista—. Pero en el escritorio, Microsoft había mirado para otro lado mientras millones de usuarios se instalaban su sistema operativo «de juguete» —el W95— en sus computadores clónicos comprados en la esquina del barrio. Sabía que esos mismos usuarios iban a instalar o a utilizar en sus trabajos las suites de ofimática y los sistemas operativos para servidores —basados en tecnología NT, la misma de la que ahora deriva el Windows 10— por la cual en este caso sí, iba a pagar una buena licencia legal. O varias, una por cada equipo y programa instalado. Y otra anual por su mantenimiento. Las carencias de W95 eran ignoradas, ya que cumplía su función de gancho, equilibrándolas con las facilidades para ser copiado.

La nueva interfaz gráfica de Windows
La nueva interfaz gráfica de Windows
Pero a partir de ese momento al gigante de las ventanas comenzaron a importarle dos cosas: las carencias de los sistema operativos domésticos y sus usuarios, a los que sabía que debía continuar atrayéndoles antes que se pasaran a los móviles o tablets y se olvidaran de computadores domésticos de toda la vida —hasta el punto de anunciar que computadores con Windows podrían ejecutar comandos de Linux—. Y en segundo lugar, Internet y la seguridad. El virus Blaster puso en alerta a Microsoft y tuvo que crear un ecosistema de actualizaciones, firewalls y seguridades, culminadas en el Defender, considerado el mejor antivirus por parte incluso de competidores como Mozilla Firefox o los programadores de Chrome. No todo fueron aciertos, pero en la cultura anglosajona no existe problema en los errores, si de ellos se aprende: tras el fiasco del Windows Vista se encarriló la actual marcha con el Windows 7. Con el Windows 8 se repitieron los tropezones, y ahora se disfruta relativamente con el actual Windows 10, un sistema ligero, sin gasto innecesario de recursos gráficos, escalable y adaptable a las distintas arquitecturas. El problema de Microsoft nunca fueron sus programadores, sino su escala de prioridades comerciales fijada antes en los entornos corporativos que en el usuario doméstico.

El futuro

Hablar del pasado es necesario para poder comprender que es lo que nos ha llevado a la situación actual, pero lo que ocurra en el futuro no depende de ello, sino del presente. Y este parece asegurarnos —aún sin ánimo de hacer «predicciones»— que el mundo de las redes sociales y la inter-conectividad —no solo entre personas, sino entre «cosas», desde neveras hasta automóviles autónomos va a continuar con fuerza. Apple intenta continuar con su imagen de «innovación» con «gadgets» caros que además, limitan la libertad del usuario, algo que a sus acólitos no parece importarles. Según, Joichi Ito del MIT MediaLab, el mundo cerrado y exclusivo de la empresa de Cupertino no tiene futuro, pero de momento no parece afectarles. Este es en verdad el gran dilema: ¿Será el futuro un mundo en el que los usuarios estarán vigilados a través de dispositivos cerrados cuyo funcionamiento no comprenden y que se verán obligados a comprar de su mismo bolsillo, ya que de lo contrario se verán excluidos socialmente? ¿O por el contrario los usuarios podremos decidir cómo usamos la tecnología que adquirimos, tanto en el dispositivo a escoger como las restricciones de seguridad que nos auto-imponemos?

Foto: Quartz


jueves, 2 de junio de 2016

La era post-correo

jueves, 2 de junio de 2016

Se habla de la llamada era post-PC en la que se considera a este una especie de dinosaurio a punto de extinguirse. La revolución de los dispositivos móviles y la creación de un mercado de servicios, ha eclipsado el que hasta hace pocos años era la principal fuente de ingresos en el ámbito de la informática. Las cifras empequeñecen la relevancia de un dispositivo que ha sido fundamental en la construcción de la sociedad del conocimiento actual. Pero ¿son los fríos números y las abultadas cifras suficiente evidencia como para mostrar lo que ocurre? ¿Está sufriendo realmente el PC? ¿Está siendo olvidado? Probablemente no.

El pistoletazo de salida de la dinámica del mercado tecnológico actual vino con el iPod de Apple, cuyo verdadero negocio fue —es— la venta de canciones en línea. Se consolidó definitivamente con el iPhone, un terminal móvil que requería necesariamente de una tarifa plana de comunicaciones. Las necesidades de marketing disfrazaron de revolución tecnológica aquel momento, pero como se ha comentado en otra ocasión, de lo que se trató realmente fue de revolución comercial. Así es como se ha de llamar a aprovechar una tecnología existente y convertirla en un producto de consumo distinto. La clave de aquel entonces fue precisamente no competir con con el gigante Microsoft, líder indiscutible del mercado tecnológico, huyendo de los PC de escritorio. Había que inventarse un mercado nuevo, y este llego con «la nube». Todo es historia a partir de aquel momento, y la jugada no cabe duda de que les ha salido a la perfección. Microsoft ha intentado subirse al carro con su Windows Phone, pero lo ha hecho sin ganas. Tan pocas que ha admitido su fracaso, sumándose a otras victimas como Blackberry, marcas que dominaban el mercado corporativo. Pero en el caso del gigante de Redmon, ha sabido reconducir su camino contraatacando con una evolución del PC como son las Surface. Unas tablet con capacidad de computador portátil. Pero volviendo a la pregunta ¿ha quedado desterrado el PC? Para contestar a esta pregunta hay que hacerse otra: ¿en qué dispositivo se programan las aplicaciones que llevan todos nuestros dispositivos móviles? Pongo la mano en el fuego, y no me la quemaría, a que lo que sostiene verdaderamente todo el mercado tecnológico continua siendo el viejo y buen PC de escritorio de toda la vida, sinónimo de trabajo, estudio, desarrollo e innovación. Todo parece indicar que si bien el mercado móvil ha alejado al PC de los focos y de la fama, sin embargo, lo ha convertido en un imprescindible tras las bambalinas. Lejos de matarlo, le ha convertido en inmortal.

Junto a este escenario ha surgido de forma paralela el fenómeno de las redes sociales y la mensajería instantánea, productos que no tendrían sentido sin la necesaria revolución de las telecomunicaciones, que trajo consigo la necesidad de las tarifas planas de datos. De forma similar a lo que ha ocurrido con el PC, ha pasado con el correo-electrónico. La omnipresencia del Whatsapp o del Facebook ha generado la falsa impresión de que el clásico correo-e de siempre ha quedado obsoleto, ahogado entre miles de intrascendentes chismorreos, selfies y otras poco edificantes muestras de exhibicionismo. Pero tal vez lo que ocurre es que el usuario habitual de estos productos no lo era del correo. O al menos, no era un usuario que le diera un uso adecuado, yendo a caer en «La Red Social». Puede decirse por tanto que el correo electrónico continua gozando de una estupenda salud, con todo tipo de aplicaciones clientes y servicios de suscripción. Entre ellos, el ya visto de MailRelay. Así que tal vez sea esta una era post-correo, en el que paradójicamente al igual que ocurre con su compañero el PC de escritorio, están más vivos que nunca.


lunes, 29 de febrero de 2016

Multi-difusión del blog

lunes, 29 de febrero de 2016

¿Tiene cada red social como Facebook, Twitter o G+, un publico diferente? ¿Es Twitter de izquierdas? El cualquier caso, es razonable pensar que cada red social fomenta —por los motivos que sean— una manera de comunicarse y puede que también —en función de estos hábitos— unas inquietudes culturales —políticas, científicas, etc.— distintas. Por tanto en cada ámbito predomina una forma de participar diferente, en consonancia con cada uno de ellos: los contenidos, el enfoque, los títulos, etc. Incluso también, sus propias horas para publicar y con una frecuencia específica. En definitiva, lo ideal sería centrar tus esfuerzos en un medio de difusión y poner en él todo tu empeño.

Pero...

¿Qué pasa si el medio donde acostumbras a publicar tu actividad pierde popularidad y dejas de tener público —que es al fin y a cabo la motivación principal de todo aquel que inicia un proyecto de este tipo—? ¿te rindes y lo dejas? ¿cambias de medio? ¿a cuál? Llega un momento en que ves como la actualidad ha superado tus expectativas. La audiencia se mueve de un lado para otro y has de adaptarte. Si la motivación es dedicarte a algo que requiera manejar tu presencia en Internet —porque al fin y al cabo, no hay que olvidar que todo trata de «la red de redes», ese espacio supuestamente libre e igual para todos—, bien profesionalmente con un negocio o a sacar rendimiento al tiempo que dedicas a la escritura de artículos, ilustraciones o el ámbito cultural de tu inquietud, entonces no queda más remedio que hacer algo.

En este blog tenemos poco tiempo —o nos gusta aprovecharlo en otras cosas— y no podemos estar, una por una, atendiendo los detalles de cada comunidad en la que deseamos participar con nuestros artículos —bien de nuestra autoría o compartidos—. Así que para algunos de nosotros, blogeros clásicos, no tenemos más remedio que usar otras herramientas que han ido surgiendo que permiten automatizar todos estos procesos. Así que una vez convencidos de que según los expertos hay que gestionar cada red social de forma completamente diferenciada y una vez convencido el lector de que es lo mejor, a continuación nos olvidaremos de todo ello y se tratará lo que se puede hacer si a pesar de todo, por las circunstancias que sean no puedes llevar con total pulcritud a término la ortodoxia de un community manager o de un experto en marketing digital en redes sociales.

Un poco de historia

A finales del siglo pasado algunos entusiastas de la tecnología tenían una página web, como experimento. Los entornos corporativos no comenzaron de veras a sumarse al nuevo entorno hasta que surgió no se sabe donde, la burbuja de las punto.com. Hace una década aproximadamente los blogs —BloggerWordpres, etc— experimentaron un auge inusitado al contar con entornos pre-diseñados y organizados por fechas. Con sus canales RSS y suscripciones de correo. Surgieron «directorios de blogs» por doquier: temáticos, corporativos, personales, colectivos, etc. Hace algo menos las redes sociales han comenzado a acaparar la atención de una mayoría del público, y es cuando comenzaron a surgir sistemas para compartir los artículos del blog mediante un botón o 'widget'. Hay multitud de redes sociales como TuentiInstagramPinterest, y plataformas de blogs con estructura y funcionalidades —y estética— de red social como TumblrMedium Kinja. Ahora, casi nadie se acuerda de los blogs de siempre.

Las opciones

Facebook y Twitter se pueden interconectar de manera que lo que publicas en un lado se replica en el otro. La red social profesional Linkedin permite conectarse con Twitter —imagino que Facebook la ven «para otras cosas»—. Los canales RSS eran usados por herramientas de terceros para funcionar e interconectar diversos entornos sociales. Hootsuite permite gestionar diversas redes, aunque para obtener pleno rendimiento es necesario pagar por el servicio. Pero no hace mucho surgió la que es «la madre» de todas la herramientas de automatización: IFTTT. Con ella se pueden automatizar diversos tipos de tareas. En esta ocasión se va a mostrar una las muchas posibilidades tanto en el objetivo como en la manera de llevarlo a cabo: servir de multidifusión a un sistema de curación de contenidos

    Curación de contenidos

    La «curación de contenidos» es a grandes rasgos la intención descrita en el punto dos anterior. Una selección de artículos, documentales, comentarios, etc, de temática relacionada con el blog y de relevancia destacada. Esta relativamente nueva especialidad ha surgido precisamente, debido a la creciente cantidad de información y de medios a través de los cuales se difunde, representando un trabajo y dificultada añadida para el usuario, al tener que buscar, comparar y seleccionar de entre gran cantidad de ruido, la información relevante. Esta —la relevancia— siempre va a ser distinta según el usuario —es un parámetro bastante subjetivo—, por este motivo no se pretende sustituir su criterio, simplemente facilitarle la tarea.

    El resultado

    La propuesta siguiente no pretende ser un modelo, ni nada que se le parezca. Simplemente es la opción que se ha tomado para este caso, en función de las circunstancias y necesidades particulares del que escribe estas líneas. No obstante, espero que pueda proporcionar una orientación para que los lectores confeccionen sus propias soluciones:


    ¿Un poco de lío?

    Resumen

    Gráfico dividido en tres partes: fuentes, canales y destinos

    Fuentes

    1. Este blog que están leyendo
    2. Lo compartido en la página de Facebook, que suele consistir en, además de los propios artículos del blog, en otras noticias de relevancia encontradas en la red a través de los canales y fuentes a las que se está suscrito.

    Canales

    1. IFTTT
    2. Sindicación RSS en Feedburner
    3. Conexión con G+ desde Blogger
    4. Conexión con G+ desde Wordpress
    5. Suscripción por correo electrónico
    6. Entradas compartidas de forma manual

    Destinos

    Este blog y lo compartido puede ser visto en:
    1. Facebook
    2. Twitter
    3. Wordpress
    4. Google+ 
    5. RSS (solo el blog)
    6. Suscripción por correo electrónico (solo el blog)
    Y puede accederse a través de la opción  «conectar por» del menú horizontal bajo justo la cabecera

    Herramientas y enlaces

    lunes, 9 de marzo de 2015

    Códigos condicionales en Blogger

    lunes, 9 de marzo de 2015

    Aunque lo expertos en «marca personal» —o como diría alguno personal branding— dicen que los contenidos de tu blog no han de dispersarse demasiado, el objetivo de este es sin embargo el de contar cosas interesantes acerca de cómo entender la realidad que nos rodea: el lenguaje y códigos utilizados para explicarla, comunicarla, almacenarla, así como los medios y tecnología utilizadas. Y por supuesto, el contexto social y político que pone todos estos recursos al alcance de la sociedad.

    Así que en esta ocasión, aunque suponga tal vez un pequeño «salto», el tema a tratar es el de cómo utilizar uno de los canales que existen en la actual sociedad de la información que ahora mismo existen: los blogs de Blogger. Estos se caracterizan por sus grandes posibilidades de personalización y una de las funciones que utiliza para ello son unos fragmentos de código que se programan en la plantilla de nuestro blog, llamados condicionales —o condicionantes—. Aunque va a ser una explicación superficial, será necesario emplear un lenguaje informático.

    Mostrar lo que se desea en función del tipo de contenido

    La utilidad básica de estos condicionales es ejecutar un fragmento de código —html, javascript, css, o cualquier otro que lo permita la plataforma— únicamente si se cumple una condición —de aquí el nombre, claro—, con el objetivo de que se muestre o no un elemento o estilo determinado —un widget, un texto, una imagen... lo que sea que pueda aparecer en una página web—.

    El lenguaje empleado es propietario de Blogger, es decir, es un código de programación especifico creado por Google para su plataforma de blogs, que sólo ella entiende. Sin embargo, utiliza operadores de relación de la misma sintaxis que el lenguaje C —al menos los explicados en este artículo, el resto no los he probado, pero sería una buena práctica que el lector podría compartir—.

    1. Partes del condicionante

    El condicionante no se trata de otra cosa que el clásico «if-then-else» de la programación, aunque en este caso el «then» está implícito. Tras el «if» se programa una condición cuyo resultado será un verdadero o falso —booleano—. Esta condición puede ser una operación de relación normalmente de igualdad —o su negación— o puede ser también una variable del tipo verdadero/falso. Si se trata de una relación de igualdad, como en toda que se precie habrán dos partes. En una de ellas estará el elemento a comprobar, y en la otra el valor a partir del cuál elegiremos mostrar o no el elemento.

    En cualquier caso el resultado de la operación, sea una relación de igualdad o comprobación de variable booleana, será un verdadero —true— o falso —false—. Si se cumple, entonces el código a continuación se ejecuta.

    1. Listado y ejemplos

    Dejemos la parte teórica y vayamos al grano.

    1. Comprobación de variable booleana

    «es el primer post»

    Blogger tiene una variable booleana llamada isFirstPost cuyo valor «verdadero» indica que el post actual es el primero —o el más reciente—. Sirve para diferenciar entre la última publicación y el resto para por ejemplo dejarlo sin resumir a modo de portada, mientras que el resto se crean resúmenes. Para esto es necesario tener el código que realiza los resúmenes, por supuesto. Este ejemplo ha sido aplicado en este mismo blog.
    <b:if cond='data:post.isFirstPost'>
    ... aquí va el código del elemento que deseamos mostrar cuando se cumpla la condición...
    <b:else/>
    ... y aquí cuando no se cumpla...
    </b:if>
    El «else» es opcional, por lo que en los casos posteriores se omite, ya que es exactamente el mismo proceso.

    1. Cumplimiento de igualdad (o su negación)

    «es la página de inicio»

    Con la siguiente sentencia se puede determinar si la pagina del blog que estamos viendo es la de inicio o se trata de cualquier otra. Esto es útil para por ejemplo si se desea presentar en la barra lateral elementos distintos distinguiendo entre la página de inicio y el resto.
    <b:if cond='data:blog.url == data:blog.homepageUrl'>
    ...elemento a mostrar cuando sea la página de inicio...
    </b:if>
    El operador «==» es la relación de igualdad. Si lo que se desea es comprobar que NO son iguales, se sustituye por el operador «!=» que es su negación. Por ejemplo:
    <b:if cond='data:blog.url != data:blog.homepageUrl'>
    ...elemento a mostrar cuando NO sea la página de inicio...
    </b:if>
    En este caso data:blog.url es la dirección que en ese momento está cargada en nuestro navegador. En el otro lado de la igualdad, data:blog.homepageUrl es una variable propia de Blogger en la que se guarda la dirección de inicio de nuestro blog.

    «es una página determinada»

    Si por algún motivo se desea destacar o mostrar un elemento únicamente en una página concreta de nuestro blog, la técnica anterior sirve sin más que cambiar data:blog.homepageUrl por la dirección o URL específica, indicándola entre comillas dobles.
    <b:if cond='data:blog.url == "http://cualeslarealidad.blogspot.com"'>
    ...elemento a mostrar cuando es la pagina indicada...
    </b:if>
    En este caso se ha sustituido por la misma dirección de inicio del blog, por lo que tendría exactamente el mismo efecto que la opción anterior.

    Nota: desde que Blogger añade el código por país a cada blog en función de nuestra localización, sería necesario sustituir data:blog.url por data:blog.canonicalurl.

    «es una etiqueta determinada»

    Cada etiqueta que se usa en el blog tiene asociada una URL en la que se muestran todas las entradas del mismo con dicha etiqueta. Esta dirección se forma de la siguiente manera:

    nombre_del_blog.blogspot.com/search/label/etiqueta

    Que en el caso de este blog y para la etiqueta «democracia» sería sustituyendo lo indicado en color azul claro:

    http://cualeslarealidad.blogspot.com/search/label/democracia

    Si al caso anterior en la que se mostraba un elemento en una página determinada, se sustituye la dirección de dicha página por la que deseemos de la etiqueta en cuestión, se podrá hacer lo propio para una etiqueta determinada:
    <b:if cond='data:blog.url == "URL asociada de la etiqueta"'>
    ...elemento a mostrar cuando es la etiqueta indicada...
    </b:if>

    1. Por tipo de página
    Además de estas variables en las que se guarda la dirección de inicio del blog o cuál es la publicación más reciente, hay otra muy importante que guarda el tipo de página que estamos viendo: data:blog.pageType. Gracias a ella se puede distinguir entre el archivo del blog, un índice de entradas o un artículo individual. La sintaxis es la siguiente:
    <b:if cond='data:blog.pageType == "tipo de página"'>
      ... esto sólo se verá en las páginas del tipo indicado...
    </b:if>
    Y «tipo de página» deberá sustituirse por el valor adecuado en función de si:

    «es una entrada individual»

    Si se desea mostrar un elemento únicamente en los artículos individuales —por ejemplo, enlaces o botones de suscripción— se ha de indicar como tipo de pagina item.
    <b:if cond='data:blog.pageType == "item"'>
      ... esto sólo se verá en las páginas de artículos individuales...
    </b:if>

    «es una página de archivo»

    El archivo es un índice especial en el que se agrupan por fechas las entradas del blog. Para mostrar un elemento únicamente en este tipo de páginas, se ha de indicar como tipo de pagina archive.
      <b:if cond='data:blog.pageType == "archive"'>
        ... esto sólo se verá en las páginas de archivo.
      </b:if>

      «es una página estática»

      Las páginas estáticas son aquellas que no están relacionadas con una fecha, al contrario del resto de las entradas del blog que siempre están asociadas a una de publicación —por eso es un blog—. Por sus características, son las páginas que se suelen utilizar para las secciones «sobre el blog», «sobre el autor», o cualquier otra que no dependa de un factor temporal. El valor a indicar es static_page.
      <b:if cond='data:blog.pageType == "static_page"'>
        ... esto sólo se verá en las páginas estáticas...
      </b:if>

      «es cualquier otra página»

      Si se desea excluir a todas las anteriores para mostrar un elemento en el resto de páginas como la de inicio o cualquier otra en la que haya un índice de entradas ordenadas por relevancia o cronológicamente, el valor a indicar es index.
      <b:if cond='data:blog.pageType == "index"'>
        ... esto sólo se verá en el resto de páginas...
      </b:if>

      Algunos que lo explicaron de otra manera:


      [actualización 23/05/2015]: Google ha mejorado las funciones y potencia de estos comandos. Más información aquí.


      lunes, 17 de febrero de 2014

      El bueno, el feo, y el malo, de la informática

      lunes, 17 de febrero de 2014

      Microsoft

      Desde el nacimiento de la informática doméstica y hasta hace bien poco, Microsoft ha dominado el mercado de ordenadores domésticos a pesar de lo rudimentario y poco atractivo de su sistema operativo. Su primitivo aspecto se debía seguramente al hecho de que el MS-DOS —basado en el QDOS, traducido literalmente como Sistema Operativo Rápido y Sucio— había sido ideado para ordenadores corporativos o entornos de oficina. Es muy probable pues que su éxito en otros ámbitos se haya debido a un factor fundamental: sus especificaciones de hardware abiertas.

      Esta circunstancia permitía que los PC's fueran montados por diversos fabricantes —como Compact, HP o Dell—, o montados por los propios usuarios adquiriendo por separado sus piezas. Este tipo de usuario optaba por el PC clónico gracias a su bajo coste, además de que podía elegirse uno mismo la configuración hardware que mejor le conviniese —procesador, memoria, tarjetas gráficas, disco duro, todo en función del uso que se le desease otorgar—. Había que armarse de ingenio, un destornillador, y paciencia. «Valía la pena para ahorrarse una pasta», eso pensaba la mayoría.

      ¿Un martillo y una llave fija?
      Fabricantes de dispositivos —con sus controladores o drivers—, programadores de juegos, utilidades que suplían las carencias del primitivo sistema operativo, y otro tipo de programas, todos ellos proliferaron pensados para la misma plataforma ahora ya universalizada. Gracias a esta presencia en el mercado doméstico, Microsoft llegó a dominar también el mercado corporativo con su suite de ofimática, la omnipresente Office y sistemas operativos de servidores.

      De estos hechos se induce que Microsoft era y continua siendo —salvo algunos ligeros cambios estratégicos recientes— una empresa de software, cuyo mercado objetivo son las empresas. A pesar de que los usuarios domésticos eran un valor estratégico importante, sus problemas particulares —paradójicamente— no les interesaban más que lo justo.
      «Surface Pro 2». Con la Surface Pro, Microsoft se incursiona por primera vez en su historia en la venta de hardware
      Es decir, contrariamente a lo que muchos piensan, los problemas de los sistemas operativos domésticos de la empresa de Redmon —los Windows 9x— en relación a su estética cutre, sus numerosos fallos y la necesidad de mantenerlos constantemente, no eran debidos a que sus programadores no conocieran su trabajo, sino a otros factores: 
      1. Lo mismo que les hizo triunfar: su sistema abierto y la gran cantidad de software y dispositivos que cumplían con las bajas exigencias de especificación técnica. La combinación particular de componentes de distintos fabricantes que se limitaban a cumplir de forma ajustada dichas especificaciones, hacía muy difícil en la práctica la validación en cuanto a estabilidad y predicción de problemas de funcionamiento. Tan sólo algunas empresas como HP o Dell —entre otras— intentaban comprobar sus equipos y dar el mayor soporte post-venta posible.
      2. Por el perfil de usuario: el publico objetivo de Microsoft no era el mercado doméstico —apenas controlaba el proceso de fabricación-distribución-venta, simplemente ponía el software—, sino el corporativo —ofimática y servidores, ámbito en donde surgió el Windows NT, base de los sistemas operativos actuales desde el XP, tanto domésticos como corporativos—. Además, el usuario doméstico siempre aceptó las deficiencias de Windows a cambio de un menor coste y de tener cierta libertad sobre su equipo.

      Estos factores ocasionaban que un sistema operativo se lanzara al mercado doméstico de forma apresurada, sin realizar suficientes comprobaciones y sin esmerarse en la estética. Al fin y al cabo, salvo las empresas, pocos iban a pagar por él.

      Apple

      Mientras tanto, el otro titan que pugnaba por alzarse vencedor en el mercado informático era Apple. El Apple II fue el primer computador que en sus inicios, logró hacer sombra a los PC's de IBM. Los factores de su éxito inicial fueron:
      1. Arquitectura abierta: Steve Wozniack diseñó al Apple II con una arquitectura bastante abierta —en un movimiento similar a lo que a posterior significó el despegue de su competidor—, lo que permitía ser ampliado y mejorado con hardware de terceros .
      2. Interfaz gráfica: este equipo fue el primero con capacidad de mostrar gráficos de forma nativa. Usaba dicha funcionalidad para añadir una capa entre el usuario y la máquina, eliminando la necesidad de la consola de comandos y con ella, conocer muchos aspectos del funcionamiento de la máquina.
      3. Montado y listo para funcionar: Steve Jobs estaba obsesionado con que sus computadores fueran lo más parecido a un electrodoméstico. A diferencia de las tendencias de la época —en las que el público más familiarizado con la tecnología adquiría los equipos en kits a falta de ser ensamblados— procuró que sus productos:
          • Se suministraran completamente montados y preparados para funcionar.
          • Les proporcionó un mejor control de la alimentación eléctrica, en cuanto a consumo y calentamiento. Gracias a estas mejoras de ingeniería podían prescindir de ventiladores, lo que los convertía también en silenciosos.
          1. Hoja de cálculo VisiCalc: la primera hoja de cálculo para computadores personales. Con este único programa, el computador pasó a ser de una herramienta de especialistas de la informática —y otras ramas de la ciencia— a una herramienta genérica profesional de negocios.
          Sin embargo, posteriores diseños fracasaron y sumieron a su empresa en décadas de ostracismo, con problemas financieros. Los motivos de esta circunstancia fueron probablemente:
          1. Estrategia de mercado incoherente: el atractivo visual de un sistema operativo no es un factor de peso para un mercado corporativo donde priman los resultados prácticos. En cuanto al mercado doméstico más propicio para sentirse atraído por dicha capacidad, el coste del equipo era excesivo en comparación con los de la competencia.
          2. Fallo de diseño: el aumento de capacidad de procesamiento no era compatible para la época con la obsesión de presentar un equipo montado y sin ventiladores de refrigeración. La intención era buena, pero no realista. Muchas unidades del Apple III tuvieron problemas de calentamiento, lo que empaño la imagen de la marca y significó un fracaso que marcó las décadas venideras.
          3. Restricciones de hardware: la necesidad obsesiva de Steve Jobs de especificar los requerimientos técnicos para que se ajustaran a su visión particular de lo que debía ser un computador —desde la estética al consumo eléctrico—, provocó finalmente que todo el proceso de fabricación y distribución para venta —desde el sistema operativo hasta el hardware— fuera controlado por la propia empresa. Esto permitía generar beneficios por la venta de los componentes, pero impedía abrir el mercado a otros fabricantes y empresas que aportaran sus ideas y sus clientes.

          De esta manera, Apple se convirtió por sus propios «méritos» en un fabricante de computadores minoritario, cuyos productos estaban restringidos normalmente a ámbitos relacionados con el diseño gráfico profesional —que podían permitirse la inversión en este tipo de tecnología— sin poder competir en ventas en el mercado doméstico. Una empresa de hardware opaca y aislada, con equipos prohibitivos para el usuario medio y cuyos repuestos eran servidos por la propia empresa a través de sus «tiendas Apple». No permitía que hubieran intermediarios.

          Algunas de las virtudes más alabadas de los computadores de la empresa fundada por Jobs, han sido —además de su atractiva estética— su gran estabilidad y su facilidad de funcionamiento y configuración. Mucha gente piensa que esto era debido a una especie de «sabiduría» de los programadores de una empresa «virtuosa». Sin embargo, la explicación más evidente y menos dogmática es mucho más prosaica: trabajar con configuraciones de hardware conocidas y completamente testeadas facilitaba la integración de los sistemas de forma que la configuración estaba preestablecida y el mantenimiento de los equipos era trivial. Debido a esto, su sistema operativo es prácticamente inservible en otros ordenadores que no entren dentro de sus caprichosas especificaciones. Con un hardware enmascarado tras una interfaz gráfica que parece pretender esconder que lo que se tiene delante es un computador.

          El iMac. Su relativo éxito salvó a la compañía y a Steve Jobs. Fuel el inicio de la inicial «i» en los modelos de la compañía. (foto: The Register)
          Aunque pueda parecer «sacrílego», se podría decir que fueron las decisiones de Steve Jobs las que condujeron a Apple por un camino complicado en sus inicios. Jobs dejó la empresa que él mismo fundó a principios de los años ochenta, por problemas con una directiva que no supo corregir ese tortuoso rumbo.

          Sin embargo, cuando regresó en 1997 su filosofía fue exactamente la misma. El cambio consistió en retirarse de la pelea por los computadores de escritorios dominados por su competidor, e introducirse en aquellos mercados incipientes en los que no estuviera. De esta manera surgió el reproductor de MP3 iPod. Pero lo más importante consistía en que el negocio se lograba —además de la venta de los reproductores— en la venta de contenidos a través —nuevamente— de su propia «tienda Apple»: iTunes —un negocio puramente comercial, que no tiene nada que ver con la informática—. Lo que vino después —iPhone, iPad— es recordado por todos.

          GNU-Linux

          En toda esta actividad del último cuarto del siglo pasado, el usuario consumista llamado a convertirse en el protagonista reciente de la economía, encontró en la tecnología una inagotable fuente de productos con el que lograr un nuevo estatus. Las mejoras tecnológicas no sólo aportaron avances a diversas áreas del conocimiento, también abrieron las fronteras del consumismo. Lo que antaño era un traje nuevo o un coche, ahora es el último modelo de smartphone, tablet, smartwatch, y sus diversas apps y accesorios de todo tipo y función.

          La informática había entrado definitivamente en lo cotidiano, sin embargo, los usuarios clásicos de computadores, aquellos pocos que heredaban el concepto original de la informática sin ninguna interfaz que «enmascarase» de forma gráfica el verdadero funcionamiento —al menos, a nivel lógico— de su equipo, eran cada vez más ninguneados.

          Se encontraban a expensas de las decisiones de las grandes corporaciones. No les satisfacían las soluciones que el mercado les ofrecía, que además de ser ineficientes, inestables o caras, eran en cualquier caso y por encima de todo, cerradas y privativas.

          Richard Stallman y Linus Torvalds

          Richard Stallman era un programador del conocido y prestigioso MIT que observó que el software que se incluía en los computadores y que permitía acceder a todo su potencial, permanecía oculto a los usuarios supuestamente dueños de los equipos, impidiéndoles en la práctica serlos plenamente. Stallman tuvo que dejar su trabajo para que su proyecto de software libre no estuviera influido por su contrato, por el cual el dueño del código que realizaba era el MIT, y no él. Así nació la Free Software Foundation (FSF).

          Torwalds y Stallman (foto: Ubuntu guía)
          Esta fundación tenía como objetivo dar soporte al proyecto de crear un sistema operativo libre, en el sentido de que su código era accesible y modificable por los propios usuarios. Esto no significaba que fuera necesario hacerlo, sino que era posible hacerlo. En definitiva, el usuario elige cómo —en función de su nivel de conocimientos en la especialidad— desea utilizar su equipo, el cual sin el software no sería nada.

          Este proyecto logró finalmente su meta cuando el ingeniero de software finlandés Linus Torwalds liberó con la licencia GNU —creada por la FSF— el núcleo de un sistema operativo equivalente al sólido y eficaz UNIX, pero adaptado a los sistemas basados en INTELx86. El mundo conoció así al pingüino más famoso de la historia: El LINUX.

          Seguro que alguien se estará preguntando a estas alturas quienes son entonces, el bueno, el feo y el malo de la informática. Que sea el lector el que tome la decisión sobre este punto.

          domingo, 9 de febrero de 2014

          La posesión como un fin en sí mismo

          domingo, 9 de febrero de 2014
          Pensamos que si seguimos poniendo grandes productos delante de los consumidores, estos seguirán abriendo sus carteras

          En los inicios de la era de la informática doméstica —años 70 del siglo pasado— el computador se convirtió en un producto comercial cuya finalidad consistía en ser vendido. Cuantos más, mejor. De esta manera se alejaba de los principios originales que llevaron a su desarrollo. Como herramienta enormemente versátil los PC's y computadores en general dieron beneficios a muchos fabricantes de hardware, así como a programadores de juegos y de aplicaciones. El liderazgo del MS-DOS —y Windows posteriormente— en los hogares apenas reportaba ingresos directos a Microsoft, aunque se valió de ello para desplazar a IBM como líder de la oficina —centrándose en el mercado corporativo, sus verdaderos clientes—.

          Y así fue como lo que en un principio fue una herramienta universal, pasó por ser una herramienta para la oficina, y de ahí, a ser simplemente una herramienta universalizada —esto es, susceptible de ser un producto vendible a todo tipo de mercados, sin que tuvieran que conocer nada de su funcionamiento necesariamente—. El computador se convirtió en muchos casos como una especie de «caja mágica» que había sido adquirido por el público por mera presión comercial, sin saber muy bien qué hacer con él. De esta manera, surgía una nueva manera de entender el computador como un fin en si mismo.

          Mientras que algunos usuarios se entretenían overclockeando su equipo o se hacían con algún entorno de programación —QBasic o Turbo Pascal— para darle de esta manera un sentido propio a su ordenador en el sentido «clásico», otros tipos genéricos de usuario aparecían: uno de ellos fue el usuario consumista —cuyo protagonismo ha ido en ascenso hasta hoy en día— que ansiaba la posesión de un computador por una mera cuestión de imagen personal y de estatus social. Necesitaban tener un «buen equipo», dotado de «lo último» en tecnología. Un segundo nuevo tipo de usuario era aquel que valoraba la informática como herramienta, pero no estaba interesado en saber apenas nada de ella. Quería que se lo dieran todo hecho. Estos dos tipos de usuario vivían en constante contradicción y lucha interior: aunque no les interesaba la informática y no deseaban hacer más que un mínimo esfuerzo en relación a ella, al mismo tiempo, la necesitaban urgentemente.

          Mientras, Microsoft y Apple peleaban por el mercado corporativo con clara ventaja del primero. No fue hasta que la empresa de la manzana comenzó a explotar a las nuevas clases de usuario cuando inició su carrera hacía el liderato actual, alejándose del PC de escritorio dominado por su competidor. Parte del primer tipo clásico de usuarios interesados en la informática como especialidad, se dieron cuenta de que eran meras marionetas y que difícilmente eran dueños de su computador plenamente. De aquí surgieron varias iniciativas que dieron forma al proyecto GNU-Linux. Pero esta, es otra historia.

          jueves, 6 de febrero de 2014

          Érase una vez, un computador

          jueves, 6 de febrero de 2014
          El ordenador nació para resolver problemas que antes no existían
          —Bill Gates


          Sala de computadores y almacenamiento en cinta magnética de los años 70
          Foto: El Cedazo
          En sus inicios, los computadores eran enormes armatostes que ocupaban salas enteras. Los ingenieros y matemáticos que diseñaban estos dispositivos lo hacían con la principal finalidad de convertirlos en herramientas universales. Unos dispositivos que dado su coste y tamaño, eran utilizados por las instituciones públicas, científicas o militares, que podían permitírselo.

          Lo que para unos era un fin en sí mismo —los desarrolladores—, para otros —gestores públicos, militares, científicos de otras áreas distintas de la informática— era un medio para lograr otros objetivos —desde cálculo de órbitas estratosféricas a trayectorias balísticas, pasando por censos estadísticos—.

          La mejora tecnológica y la consiguiente disminución de tamaño y abaratamiento de los componentes, propiciaron la existencia de ordenadores más apropiados para un negocio o domicilio. De esta forma, surgió el concepto de «computador personal». IBM acuñó el concepto de «PC» o Personal Computer, desarrollado en respuesta al Apple II de APPLE —Otros fabricantes importantes fueron WANG o SUN—.

          En esta época el mercado informático se destinaba a profesionales o empresas . Aún no existía el concepto de «informática doméstica». Por tanto, las técnicas de marketing empleadas estaban orientadas a ese tipo de usuario, que valoraba la inversión que realizaba —dinero, tiempo o esfuerzo— en función del resultado práctico que alcanzaba. Por tanto, la estética y funcionalidad de los programas —software— que se incluían en los computadores, no cumplían con más funciones preestablecidas que las propias de su gestión informática, ni se limitaba en manera alguna que el usuario pudiera configurar su sistema arreglo a sus prioridades.

          Tan sólo en su parte física —el hardware— era donde se les dotaba de elementos diseñados específicamente acorde a la función principal para la que iban destinados. De ahí que los primeros computadores personales tuvieran un diseño y estética de «herramienta de oficina», la cual perduró en el tiempo aún fuera de dicho ámbito.

          IMB PC del año catapúm
          Foto: UPM
          Hasta este momento, la importancia del computador continuaba residiendo en su concepción como «herramienta de propósito general»—. Los ingenieros los creaban con la idea de que el usuario con preparación pudiera darles la utilidad final que se ajustara a sus necesidades. Esto exigía que tuviera claro cuáles eran éstas y qué debía hacer para solucionarlas. No  hacía falta que fuera ingeniero informático o tuviera que saber diseñar un computador, pero como cualquier otra herramienta, era necesario un mínimo aprendizaje para poder usarla y mantenerla —incluso una máquina de escribir tradicional a pesar de su limitada función, requería de cierto adiestramiento y cuidados—.

          Las tareas burocráticas y de contabilidad fueron las funciones principales para las que las empresas destinaban su inversión en nuevas tecnologías, con IBM (International Business Machines, o Internacional de Máquinas de Oficina) como el rey indiscutible en la fabricación y venta de computadoras de oficina. 

          Mientras, el mercado doméstico era un campo sin explorar. Algunas marcas modestas —Sinclair, Commodore, Atari, Amstrad, entre otras— lanzaron equipos con un hardware sencillo —sin monitor incluido, con el teclado de goma o embebido en un mismo bloque junto a la CPU y sin medios de almacenamiento externo— que se popularizaron rápidamente en los hogares.

          Commodore 64
          Foto: Wikipedia
          Estos equipos —si bien no eran más que juguetes— heredaban el mismo concepto de sus antecesores: su sistema operativo apenas ofrecía más que un entorno de programación en donde el usuario debía esforzarse aprendiendo a programar, llegando a leer incluso ¡libros en papel! para aprender, pasando tardes enteras tecleando un programa en memoria y disfrutar tras horas de trabajo. Eran desde luego, otros tiempos.

          Obviamente, el futuro de la informática doméstica no podía pasar por aquí ¿verdad?. Aunque estos equipos mejoraron y surgieron publicaciones y comunidades de usuarios que compartían programas, la multiplicidad de sistemas y su incompatibilidad complicaba las cosas. Hacía falta algo más.

          El PC clónico.

          Debido a algunos errores de diseño, Apple perdió la carrera por el mercado corporativo en favor de IBM, la cual comercializó un computador de bajo coste a los que se les dotó del sistema operativo —en realidad, poco más de un mero gestor de disco— PC-DOS de Microsoft. Debido a su buen resultado en términos prácticos, otros fabricantes quisieron hacerle la competencia logrando mediante ingeniería inversa «clonar» la BIOS de un equipo de IBM. De esta forma podía comercializarse PC's bajo marcas distintas de IBM.

          PC Clónico «del montón»
          Foto: revista PC Actual
          Gracias a que Microsoft —no se sabe si en un alarde de ingenio estratégico de Bill Gates o por pura chiripa— tenía la concesión de poder comercializar su sistema de disco —MS-DOS— prescindiendo de IBM, miles y miles de clones de su PC, con el alma de Microsoft, cubrieron la superficie del planeta.

          miércoles, 14 de noviembre de 2012

          El error informático

          miércoles, 14 de noviembre de 2012

          ¿Se equivocan los ordenadores? ¿Por qué la informática tiene esa mala imagen? ¿Por qué se achacan con total naturalidad errores graves a «errores informáticos»? ¿Por qué no se solucionan? ¿Acaso los ordenadores toman decisiones por su cuenta, como en las películas? ¿Qué clase de ciencia es la informática? Algunas personas —paradójicamente no suelen estar especializadas en informática— opinan que esta área de la ingeniería no es una «ciencia exacta», y que por ello la programación de estos dispositivos esta sujeta a ambiguos vaivenes político-sociales. Si bien puede haber algo de cierto en esto, no es debido a la propia tecnología en concreto.

          El Mark II (1947) fue un proyecto construido en la universidad de Harvard y financiado por la Marina de los Estados Unidos. En su diseño y construcción participaron algunos de los mejores ingenieros y científicos del momento, tras la Segunda Guerra Mundial. Hasta ese momento estas máquinas eran fiables y totalmente precisas, y sobre todo, hacían lo que se les pedía. Por ello, se utilizaban para tareas que requerían de gran seguridad y precisión, como trayectorias balísticas y órbitas de vuelos estratosféricos. Pero un día, el Mark II dejó de responder como se esperaba. No es difícil imaginar la sorpresa que experimentarían los científicos que lo manejaban, al comprobar como un ordenador matemáticamente preciso hasta ese instante, se «equivocaba».

          La causa del error no fue que el programa hizo algo distinto para lo que estaba concebido. El Mark II no realizaba muchas operaciones —comparado con los actuales— pero las que hacía obedecían a un determinismo completamente científico. Cada línea de código debería estar validada según la lógica matemática, y debía ajustarse a la arquitectura física del ordenador, compuesta de circuitos electromecánicos regidos por las leyes de la física. La causa fue ni más ni menos que una polilla. Un «bicho», bug en inglés. Al introducirse una de ellas en la enorme circuitería del voluminoso Mark II, impidió el funcionamiento de uno de sus miles de aparatosos relés electromagnéticos, que en los albores de la ingeniería informática, formaban la mayor parte de su interior. Desde entonces, cada «sorpresa» que dan los programas informáticos se le denomina como bug. Por lo mismo, depurar un programa se traduce en inglés como debugger —quitar los bichos—.

          La informática ha evolucionado hacia algo muy distinto de un proyecto científico y tecnológico como empezó siendo, como tampoco la propia Internet se parece a lo que en su día se pensó. Los programadores ya no son exactamente matemáticos o físicos, son en algunos casos, simples aficionados autodidactas. Los equipos se fabrican en serie, en abarrotadas fábricas en China, y las motivaciones que mueven a todos ellos son muy distintas de las de aquellos profesores de universidad, científicos y militares. Y por supuesto, los errores informáticos no son causados por «bichos».

          Para entender lo que le ha pasado a la informática propongo explicar otra rama de la ingeniería: la Arquitectura. La Wikipedia la define al mismo tiempo como «Arte o técnica». Qué duda cabe que tiene algo de ambas. Para diseñar un edificio, hay que tener en cuenta la resistencia estructural del mismo, lo que implica el cálculo matemático de resistencias, tensiones, presiones y todo un gran número de parámetros físicos. Para su funcionalidad, hay que tener un gran conocimiento del entorno social y de los usuarios. Para su estética, hay que tener una sensibilidad y gracia especial. En resumen, la Arquitectura se compone de varias capas, desde la basada en la propia realidad física, hasta el más puro arte conceptual.

          Con la informática es muy similar, con la diferencia que la gente no se mete dentro de los ordenadores y no existe el riesgo de que al derrumbarse, queden sepultados dentro de ellos. Por ello, nadie en su sano juicio dejaría en manos de una PC clónica con W95, el cálculo de la trayectoria de un satélite orbital, o la gestión de un sistema de monitorización médica a enfermos graves. Sin embargo, la informática se utiliza, y bastante, en estas áreas, lo que pasa es que los criterios de calidad y márgenes de error que se utilizan en estos sistemas, no tienen nada que ver en absoluto con los de «ir por casa». A pesar de la lógica aplastante de este argumento continúa existiendo una gran confusión con este asunto.

          Como se ha visto, la informática parte de leyes físicas, ecuaciones matemáticas y proposiciones lógicas, básicamente. Todas ellas ciencias exactas. Sin embargo, su evolución y mejora de procesamiento, la ha llevado a realizar programas más complejos y para funciones muy diversas. Los programadores han de tener cierto «toque» personal, que en algunos casos podría considerarse alguna forma de arte. Y esto es debido a que los ordenadores no tienen que tratar únicamente con fórmulas matemáticas, sino que han de dedicarse a cosas como la llamada «interfaz gráfica de usuario».

          Los recientes sistemas operativos dedican una gran parte del tiempo en el procesamiento de gráficos y en organizar la información para que el usuario sin preparación pueda utilizar un computador, algo que en los primeros años no era necesario, ya que antes de la aparición del ordenador doméstico, sus usuarios asumían que debían conocer las herramientas y adaptarse a ellas, y no al revés —cuando aprendemos a conducir un coche nos adaptamos su funcionamiento, y no al contrario—.

          Con los nuevos entornos gráficos iniciados por Apple en 1983, los requerimientos de consistencia lógico-matemáticos no eran los mismos que con los computadores dedicados al cálculo matemático y cuya forma de comunicarse era mediante tarjetas perforadas. Ahora lo importante es que el usuario tenga un escritorio con iconos bonitos. A partir de este momento el computador se convirtió en un producto comercial, alejándose de su pasado y comercializándose aún sabiendo que su código estaba sin verificar acorde a criterios científicos —es muy caro hacer esto—, o directamente estaba repleto de errores—los Windows 95~XP—. Sabían que al usuario no le iba a importar, bien por lo cool que era su producto, o bien porque se lo habían pasado en un DVD «pirata».

          La excepción a esta situación podría ser el sistema UNIX, un SO (sistema operativo) creado por dos científicos del MIT. Este SO funciona como un reloj, es preciso y siempre hace lo que ha de hacer y lo que se espera de él, salvo ciertas tolerancias presentes en todo proyecto de ingeniería. Basándose en él han surgido otros SO que han heredado parte de su eficacia, pero al que le han añadido la mencionada interfaz de usuario personalizada a criterio de los programadores (Linux, Mac OS X).

          Por tanto, el error informático no es debido a un «defecto», o a una «imprecisión» o característica propia e inherente a la informática. Ni tampoco es ineludible. Por el contrario, los problemas típicos de la informática son debidos a la introducción de criterios alejados de su naturaleza, fundamentalmente los comerciales. Allá donde los criterios de programación pasan por filtros distintos que los de la lógica o la propia construcción física, hacen que la informática pierda su carácter de ciencia y no se le pueda exigir la precisión que se pueda esperar de una de ellas. Salvo que se refleje en el contrato comercial, claro.

          Enlaces

          martes, 11 de septiembre de 2012

          Guerra Samsung vs Apple, o la innovación engañosa

          martes, 11 de septiembre de 2012
          Comparativa Apple-Samsung
          (Fuente: Cadena SER)
          Es noticia estos días que un jurado de California ha sentenciado que "Samsung copió a Apple". La conclusion que pretenden transmitir algunos medios es la de que "Jobs tenía razón". Pero, ¿la misión de jueces y jurados es la de otorgar victoria moral dando la razón postuma a alguien, o es la de ser objetivo en la resolución de una acusación presentada de una forma concreta y ante la existencia (o ausencia) de una serie de pruebas, dentro de un marco legal preexistente? Desde luego, pienso que está más cerca de lo segundo.

          No obstante, tampoco sería sensato obviar que esta resolución judicial, pone sobre la mesa diversas cuestiones importantes sobre el mundo empresarial actual, y cómo la tecnología está cambiando los modelos competitivos y la sociedad.
           

          Las patentes

          Los registros de patentes se idearon en una época en la que las ideas o conceptos no podían transmitise con la gran rapidez ni facilidad con las que ahora es posible realizar. Sería una cuestión demasiado larga de abordar en este artículo, pero hay que señalar que hasta ahora las patentes consistían principalmente en el registro de productos completos, con la inclusión de planos detallados y descripciones más o menos complejas de la funcionalidad del producto.

          En los últimos tiempos, desde la proliferación de las nuevas tecnologías y la mejora en las comunicaciones, la industria se ha dedicado a proteger su negocio y buscar los tan asiados (a la vez que perdjudiciales) monopolios a base de patentar todo tipo de cuestiones anecdóticas (pellizcar la pantalla, recorrer una lista, rotar un documento, etc). En definitva, las empresas de tecnología, sobre todo las relacionadas con los dispositivos portátiles, están utilizando un anticuado modelo legal de registro de la propiedad intelectual como herramienta estratégica comercial, de dudosa utilidad al usuario.

          Muchas de las patentes que Apple ha presentado en su denuncia frente a Samsung son de este tipo, y se puede decir que son una foma de utilizar los sistema legales para alcanzar las mayores cuotas de mercado posible. No es la primera vez que Apple la utiliza, ni es desde luego, la única empresa que lo esá haciendo. La propia Samsung también ha denunciado a Apple, así como Motorola a Blackberry, y otros casos más.
           

          La innovación

          Otra de las conclusiones que algunos medios deducen de esta resolución judicial, es la de que Apple innova, y Samsung no. Esto sólo se puede entender si reducen (de forma completamente irracional a mi entender) las trayectorias de ambas empresas a este único hecho.

          Samsung es una empresa puntera en su campo tecnológico, es lider mundial en fabricación y venta de pantallas gracias entre otras cosas, a sus innovaciones en este campo. Es más, es proveedora de la propia Apple, la cuál, a pesar de ser vendedora de hardware, muy pocos de los componentes que utliza en sus equipos son ideados por ella. Entre otras empresas que si que son innovadoras en tecnología además de Samsung y que también proveen a Apple, destaca la japonesa Sony.

          Apple ha destacado por aplicar de forma diferente dicha tecnología, y sobre todo, en la de aumentar la imagen de "valor añadido" de sus productos. Es decir, salvo en sus inicios con los computadores personales, la vuelta de Jobs a la empresa no ha implicado el desarrollo de nada que no existiera previamente, simplemente le ha cambiado la apariencia y lo ha acompañado de una campaña de imagen, eso si, revolucionaria. Apple ha innovado en marketing, no en tecnología.

          QTek S100 (año 2005)
          Por ejempo, el iPod muchos consideran el "primer" reproductor de MP3, cuando realmente fue el MPMan el primero de ellos. De forma similar, el iPhone no fue ni con mucho, el primer "smartphone". La primera empresa que unió los mundos de las PDA`s (dominada por Windows Mobile) con el de la telefonía (con Nokia y Motorola al frente), fue la empresa británica QTek (adquirida posteriormente por HTC). De nuevo, el concepto de "tablet" actual es poco más (o menos) que los tablet PC que Microsoft desarrolló orientados al mundo corporativo, pero adaptados al usuario "estandar" y un entorno más doméstico. La diferencia de los tablet PC con los de ahora, es que aquellos eran ordenadores completos de propósito general y los actuales son apenas algo más que ordenadores de mano con pantalla muy grande.

          Con el sistema de patentes descrito, es muy difícil que una empresa no "copie" alguna de las características que otra compañía haya implementado previamente. Esto no significa que haya copiado el desarrollo de dicha idea, tan sólo su apariencia. Por otro lado, Microsoft ha cambiado su anterior interfaz de escritorio  por el nuevo sistema "Metro" que va a utilizar en los terminales móviles. La diferencia estética es clara, aunque funcionalmente es prácticamente lo mismo. Que los iconos sean monocolor y de forma cuadrada no creo que sea impedimento si llegará el caso a que Apple quisiera presentar otra demanda por cualquiera de las multiples y variopintas patentes que ha acumulado.

          ¿Cuál es la diferencia entre Windows Phone 7/8 y el sistema operativo Android que Samsung utiliza en sus dispositivos? Sobre todo, la cuota de mercado que le quitan a Apple. Que Google/Samsung ha copiado la estética de los productos de Apple es tan obvio como seguramente irrelevante. La cuestión importante es si el resultado es mejor o peor para el usuario, algo en lo que es este el que ha de tener la última palabra. No un juez.

          Enlace relacionado: