miércoles, 11 de junio de 2014

Las 20 falacias más comunes, según Carl Sagan

miércoles, 11 de junio de 2014
Foto: ver fuente del artículo
El conocido científico Carl Sagan siempre mostró preocupación por el camino que la sociedad tomaba respecto a la ciencia y el conocimiento. Como divulgador, aconsejaba hacer uso del marco científico como la forma más eficiente de enfrentarse a los problemas. Además del llamado Kit del Esceptico y sus normas o consejos para eludir engaños o equivocaciones existentes en los medios de comunicación y redes sociales, también aconsejaba sobre cómo evitar que las cometamos nosotros mismos. Estas eran sus palabras:
Además de enseñarnos qué hacer cuando se evalúa un reto al conocimiento, cualquier buen kit de detección de tonterías —kit del escéptico— también debe enseñarnos qué no hacer. Debe ayudar a reconocer las falacias más comunes y peligrosas de la lógica y la retórica. Muchos buenos ejemplos se pueden encontrar en religión y política, donde sus practicantes se ven a menudo obligados a defender proposiciones contradictorias. 

Para ello, elaboró una lista de las 20 falacias y aberraciones lógicas más habituales con ejemplos de cada una de ellas. Algunos de los casos no me parecen del todo acertados, pero ¿quien soy yo para criticar al gran Carl Sagan? —bueno, estoy seguro que él no me dejaría caer en un argumento de autoridad del él mismo:
    1. ad hominem —del latín «contra el hombre», significa que se ataca al argumentador y no el argumento (por ejemplo: el reverendo Dr. Smith es un fundamentalista bíblico conocido, por lo que sus objeciones a la evolución no será necesario tomar en serio)
    2. argumento de autoridad (por ejemplo: el presidente Richard Nixon debería ser reelegido porque tiene un plan secreto para acabar con la guerra en el sudeste asiático —pero como era secreto, no había forma de que el electorado lo evaluara por sus méritos, el argumento se convertía en un «confiar en él porque él era el presidente»: un error, como se vio después)
    3. argumento ad consequentiam [o de las consecuencias adversas] — (por ejemplo: un Dios que castiga y recompensa debe existir, sino la sociedad sería mucho más anárquica y peligrosa quizás incluso ingobernable. O también: el demandado en un juicio por asesinato ampliamente publicitado debe encontrarse culpable, de lo contrario, será un estímulo para los demás hombres a asesinar a sus esposas)
    4. argumento ad ignorantiam [o apelar a la ignorancia] la afirmación de que todo lo que no se ha demostrado falso debe ser cierto, y viceversa (por ejemplo: no hay evidencia convincente de que los ovnis no están visitando la Tierra, por lo que existen los ovnis y vida inteligente en otros lugares del Universo. Otro ejemplo: pueden haber tropecientos millones de otros mundos, pero no hay constancia de que alguno de ellos tenga la calidad moral de la Tierra, por lo que seguimos siendo el centro del Universo). Esta ansia por aprovechar la ambigüedad a su favor es lo que se critica con la frase: la ausencia de evidencia no es evidencia de su ausencia.
    5. alegato especial, a menudo usada para rescatar una proposición en serios problemas retóricos (por ejemplo, ¿cómo puede un Dios compasivo condenar las generaciones futuras al tormento porque, violando las normas, una mujer indujo a un hombre a comer una manzana? alegato especial: no entiendes la sutil Doctrina del Libre Albedrío. Otro ejemplo ¿cómo puede ser igualmente la misma persona un Dios Padre, el Hijo y el Espíritu Santo?, alegato especial: no entiendes el misterio divino de la Trinidad. Otro más: ¿cómo pudo Dios permitir que los seguidores del Judaísmo, el Cristianismo y el Islam cada uno a su modo siguiendo medidas heroicas de amabilidad y compasión amorosa cometieran tanta crueldad durante tanto tiempo? alegato especial:: usted no entiende el libre albedrío de nuevo, y de todos modos, Dios se mueve en formas misteriosas)
    6. petición de principio, también llamada asumir la respuesta (por ejemplo, debemos instituir la pena de muerte para desalentar el crimen violento, pero, ¿es un hecho que la tasa de delitos violentos descienda cuando se impone la pena de muerte?. Otro caso: el mercado de valores cayó ayer a causa de un ajuste técnico y venta de acciones con beneficios de los inversionistas —pero ¿hay alguna evidencia independiente para el papel causal del «ajuste» y la venta con beneficios; ¿hay alguna utilidad en esta supuesta explicación?)
    7. sesgo de selección [o selección observacional], también llamada la enumeración de circunstancias favorables, o como el filósofo Francis Bacon describió, contar los éxitos e ignorar los errores (por ejemplo, un Estado se jacta de los presidentes que ha producido, pero no dice nada sobre sus asesinos en serie)
    8. generalización apresurada —un pariente cercano del sesgo de selección (por ejemplo, se dice que 1 de cada 5 personas es china. "¿Cómo es esto posible? conozco a cientos de personas, y ninguna de ellas es china. Atentamente" O: "he sacado tres sietes seguidos. Esta noche no puedo perder.")
    9. malinterpretar la naturaleza de la estadística (por ejemplo, el presidente Dwight Eisenhower expresa asombro y alarma al descubrir que la mitad de todos los estadounidenses tienen inteligencia inferior al promedio);
    10. inconsistencia (por ejemplo, ejecutar un plan de prevención para el peor de los males que un un potencial adversario militar sea capaz, pero ignorar de manera parsimoniosa proyecciones científicas sobre los peligros ambientales porque no están completamente "probados". O también: atribuir la disminución de la esperanza de vida en la antigua Unión Soviética a las fallas del comunismo hace muchos años, pero nunca atribuir la alta tasa de mortalidad infantil en los Estados Unidos (en la actualidad la más alta de las principales naciones industriales) a los fracasos del capitalismo. Otro caso: considerar razonable que el universo siga existiendo siempre en el futuro, pero juzgar absurda la posibilidad que haya tenido duración infinita en el pasado);
    11. non sequitur —del latín «no se sigue» (por ejemplo: nuestra nación prevalecerá porque Dios es grande. Pero casi todas las naciones asumen que esto se cumple para ellas también; la expresión alemana era «Gott mit uns» [Dios está con nosotros]). Normalmente, los que caen en la falacia non sequitur suele ser por no tener en cuenta las alternativas posibles;
    12. post hoc, ergo propter hoc — del latín «sucedió después, por lo que fue causada por» (por ejemplo, Cardenal Jaime Sin, Arzobispo de Manila: «conozco a... una persona de 26 años de edad que parece de 60 porque toma pastillas [anticonceptivas]» O: Antes de que las mujeres pudieran votar, no había armas nucleares)
    13. pregunta sin sentido (por ejemplo, ¿Qué pasa cuando una fuerza irresistible se encuentra con un objeto inamovible? Pero si hay una cosa tal como una fuerza irresistible no puede haber objetos inamovibles, y viceversa)
    14. falsa dicotomía —considerar sólo los dos opciones extremas en un continuo de posibilidades intermedias (por ejemplo, «claro, póngase de su parte, mi marido es perfecto, yo siempre estoy equivocada» O bien: «Si usted no ama a su país, es que lo odia» O bien: «Si no eres parte de la solución, eres parte del problema»)
    15. a corto plazo frente a largo plazo —un subconjunto del Principio del tercero excluido, pero tan importante como para prestarle una atención especial (un ejemplo, no podemos costear programas para alimentar a niños desnutridos y educar a los niños en edad preescolar. Necesitamos hacer frente con urgencia a la delincuencia en las calles. Otro: ¿por qué explorar el espacio o el ejercicio de la ciencia fundamental cuando tenemos tan enorme déficit presupuestario?);
    16. pendiente resbaladiza, relacionado con el Principio del tercero excluido (por ejemplo, si permitimos el aborto en las primeras semanas de embarazo, será imposible impedir la muerte de un bebé a término. O a la inversa: si el Estado prohíbe el aborto incluso en el noveno mes, pronto nos dirá que hacer con nuestros cuerpos en el momento de la concepción);
    17. confusión de correlación y causalidad (por ejemplo, una encuesta muestra que más graduados universitarios son homosexuales que aquellos con menor educación, por lo que la educación hace a las personas gay. O: los terremotos andinos están correlacionados con las aproximaciones más cercanas del planeta Urano, por lo que —a pesar de la ausencia de correlación alguna con el más cercano y masivo Júpiter— ésta las provoca)
    18. hombre de paja —caricaturizar una posición para que sea más fácil de atacar (por ejemplo, los científicos suponen que los seres vivos simplemente aparecieron juntos por casualidad —una formulación que ignora deliberadamente la visión darwiniana central, que la Naturaleza aprovecha lo que funciona y desecha lo que no. O —esto también es una falacia de corto frente a largo plazolos ecologistas se preocupan más por los caracoles y búhos manchados que por las personas)
    19. evidencia suprimida o medias verdades (por ejemplo, una «profecía» increíblemente precisa y ampliamente citada del intento de asesinato del presidente Reagan se mostró en la televisión, pero —un detalle importante— ¿fue grabado antes o después del evento? Otro ejemplo: los abusos del gobierno exigen un revolución, hasta para hacer una tortilla se han de romper algunos huevos. Sí, pero es probable que se convierta en una revolución en la que mueran más personas incluso que bajo el régimen anterior? ¿Qué sugieren la experiencia de otras revoluciones? ¿Todas las revoluciones contra regímenes opresivos son deseables y por los intereses del pueblo?)
    20. uso de ambigüedades para evadir la cuestión [palabras de comadreja] (por ejemplo, la separación de poderes de la Constitución de los EE.UU. especifica que los Estados Unidos no pueden llevar a cabo una guerra sin una declaración por el Congreso. Sin embargo, a los presidentes se les da el control de la política exterior y la dirección de las guerras, las cuales son herramientas potencialmente poderosas para conseguir que ellos mismos sean reelegidos. Por tanto, Presidentes de cualquier partido político pueden verse tentados de organizar guerras mientras agitan la bandera y hablan de «acciones policiales», «incursiones armadas», «ataques preventivos», «pacificación» , «salvaguarda de los intereses americanos», y una amplia variedad de «operaciones», como la «Operación Causa Justa». El uso de eufemismos para la guerra son uno más de la amplia clase de reinvenciones del lenguaje con fines políticos. En palabras de Talleyrand, «el arte importante de los políticos es el de encontrar nombres nuevos para instituciones que bajo sus nombres antiguos se han convertido en odiosas para la gente» )

      Sagan termina el capítulo con una advertencia necesaria :

      Como todas las herramientas, el kit del escéptico y demás recomendaciones pueden ser mal utilizadas, aplicadas fuera de contexto, o incluso como una rutina sin llegar a ser meditadas. Pero aplicadas juiciosamente pueden ser una herramienta que marque la diferencia —y no menos importante, permite evaluar nuestros propios argumentos antes de ser presentados a los demás.

      Nota: traducido por el autor del artículo (manteniendo el ratón por encima se accede al original en inglés). En aquellos casos en los que ha sido necesario, se ha optado por la denominación en latín —u otra alternativa más adecuada en nuestro idioma—, dejando entre corchetes la traducción literal. Aquí una lista de falacias en el idioma inglés.
       
      Fuente: Brain Picking


      miércoles, 4 de junio de 2014

      La evolución del comercio electrónico

      miércoles, 4 de junio de 2014
      Foto: flickr
      ¿Cómo era la sociedad hace 30 años? La revolución de las nuevas tecnologías junto a la aparición de nuevos dispositivos portátiles y la mejora en las telecomunicaciones, ha provocado una sucesión de cambios graduales en los últimos veinte años que pueden resultar imperceptibles, pero que han modificado sensiblemente nuestra realidad cotidiana.

      Inicialmente Google era tan sólo un motor de búsqueda innovador, pero se ha convertido en un gestor monstruoso y globalizado que maneja cantidades de información que hasta hace poco se hubiera considerado ciencia-ficción, y además, disponible para cualquier usuario: geolocalización, digitalización de documentos, robótica, automatismos, almacenamiento en la nube, blogs, vídeos, música, y en continúo desarrollo de nuevas áreas de investigación.

      Las redes sociales comenzaron tímidamente, pero han acabado siendo el paradigma básico en nuestra forma de comunicarnos. No solo a través de las nuevas tecnologías, sino también sustituyendo en algunos casos a la comunicación personal. Medios de comunicación, políticos, empresas, la práctica totalidad de la sociedad está pendiente del último trendig topic.

      Sin embargo, un área que siempre ha estado ahí pero que no ha experimentado aparentemente grandes cambios —hasta hace poco— es la del comercio electrónico. Esta forma de comercio existe desde los años setenta —sus orígenes son aún anteriores— en forma de «venta por catálogo». Con el desarrollo de Internet, se trasladó dicho modelo al nuevo medio sin más que publicar el catálogo en una página web. La burbuja de las «punto.com» de finales del S.XX apagó aquel inicial entusiasmo.

      La empresa española Weblisten sorprendió a finales de siglo con un nuevo modelo de distribución y venta de música, pero el entorno político y empresarial no estaba preparado. Fue cancelada por decisión judicial. Sin embargo, pocos años después Steve Jobs abría iTunes, que era lo mismo salvo que tenía el beneplácito de la industria musical y que se le añadía el importante «gancho» del iPod primero, y del iPhone después. En estas tiendas el usuario seleccionaba lo que deseaba desde su hogar o desde su dispositivo portátil, y se lo descargaba al instante, previo pago por algún método electrónico. En este campo surgió Paypal, un sistema intermediario por el que con tan sólo proporcionar un correo electrónico es posible enviar y recibir pagos, sin que sea necesario facilitar datos bancarios, más que a la propia empresa gestora de la transacción. Otro sistema similar surgido como competencia es el Google Wallet.

      La tienda Amazon se ha convertido en un gigante de referencia no sólo del comercio electrónico, sino del comercio global a todos los niveles. Desde China, la superpotencia económica, está surgiendo con fuerza la competencia con AliBaba  —el nombre no me inspira confianza, pero ellos sabrán—. Otros casos son por ejemplo TMart, Deal Xtreme o Asia Pads.

      Tras estos acontecimientos, la rutina de «irse de compras» por medios electrónicos, con todo lo que ello conlleva —es decir, pago incluido— comenzaba a formar parte de lo habitual. El siguiente paso era la fusión del concepto de «red social» con el del mundo comercial. Es decir, una red formada por usuarios que realizan intercambios comerciales entre ellos: esto es lo mismo que decir EBay, SegundaMano, Mil Anuncios, etc., —por supuesto, también hay quien abre su propio e-comercio—.

      Esta autogestión del comercio de productos se está extendiendo a ámbitos diversos. En la literatura, por ejemplo, los autores noveles —principalmente— comienzan a editar, publicar e incluso vender de forma electrónica sus propias obras. Ejemplos de ello son Bubok, Lulu o Byeink.

      ¿Que es lo que falta por completar este escenario? ¿Cuál es el eslabón que no se ha mencionado, que puede ser el siguiente paso evolutivo del comercio electrónico?: el transporte de mercancías.

      Amazon sorprendió al mundo con la noticia de que ella misma iba a gestionar el envío y transporte de mercancías directamente a los compradores mediante drones automáticos que por geolocalización acudirían a puntos de entrega previstos. La también mencionada Alibaba notifica que ha invertido en una compañía de correos de Singapur, con la intención de expandirse al resto del mundo.

      Estas soluciones pueden ser válidas para las grandes empresas, pero los usuarios de a pie, hemos de acudir a las compañías de correos y mensajería habituales. Como respuesta, estas ponen cada vez más facilidades para que cualquier usuario con una simple llamada telefónica o rellenando un formulario en la web, pueda enviar de vivienda a vivienda un determinado producto.

      Pero, ¿qué compañía escoger entre toda la cada vez mayor oferta?. La start-up española Packlink ofrece una solución con un comparador de empresas de mensajería.

      Con tan sólo introducir origen, destino y dimensiones del paquete a enviar, el servicio selecciona y muestra las posibles empresas de mensajería que pueden satisfacer el pedido configurado, indicando datos relevantes como precio y tiempo de transporte. El sistema gestiona además todo el proceso con la empresa seleccionada, desde el formulario de pedido hasta el pago correspondiente. Se trata pues de un gestor de pedidos de envío completo.

      Y esto seguramente, es sólo el principio de lo que ha de venir.

      lunes, 21 de abril de 2014

      Marketing y redes sociales

      lunes, 21 de abril de 2014
      Parece lógico que empresas relacionadas con la comunicación y la tecnología ―informática, medios de comunicación, entretenimiento y similares― dispongan de una gran presencia en las redes sociales ―en definitiva es otro modo de comunicarse usando la tecnología―. Pero, siendo como son los usuarios un público general ¿acaso no lo es también que empresas de otras ramas usen estos medios dentro de su estrategia de marketing comercial?

      Aunque se ha convertido en un tópico decirlo, lo cierto es que la tecnología se ha introducido definitivamente en lo cotidiano. Cualquier empresa de cualquier ámbito debería entenderlo como una oportunidad, aunque en una primera instancia se aleje de su actividad primaria. No se trata de «aprovechar una burbuja» como ocurrió en la época de las «.com» ―finales de los 90― sino que los departamentos de las empresas que han de estar en comunicación con sus clientes ―publicidad, relaciones públicas o atención al cliente, entre otros― aprovechen con efectividad estos nuevos entornos de comunicación ya consolidados.

      En este caso lo más inmediato es acudir a las propias empresas que han estudiado cómo pueden aprovechar estos nuevos canales de comunicación, aunque su actividad principal se salga de dicho ámbito. Los puntos siguientes se han extraído y adaptado de un artículo de 2012 de Candace Adrian, especialista en marketing de comunicaciones en Industrial Scientific Corporation , empresa líder en el sector de detectores de CO (Monóxido de Carbono).


      El éxito de la estrategia «social»


      Las empresas utilizan su presencia en las redes sociales con el objetivo básico de lograr una mayor interacción con sus clientes. Para ello, comparten regularmente contenido relacionado con su actividad y de interés de su público potencial, con la intención de obtener buenos resultados en estos indicadores:

      Crear «conciencia de marca»

      Para Gini Dietrich y Geoff Livingston (Marketing in the Round), las redes sociales tienen como una de sus funciones el proporcionar a la empresa la imagen adecuada para identificarse mejor con el público. Por ejemplo, transmitir conceptos como: «empresa responsable», «seria» o incluso «divertida», en función de la actividad de la empresa o de la imagen que se desee mostrar. De esta manera, aportan el elemento humano que el marketing  corporativo tradicional es a menudo incapaz de hacer.

      Mayor cobertura mediática

      Gracias a las redes sociales, pueden cultivarse grupos de «clientes de base» involucrados de alguna manera con la marcha de la empresa y con los que se mantiene una comunicación periódica. Estos grupos de «fans» difunden tanto historias de éxito como otro tipo de anécdotas que en cualquier caso, supone dar a conocer los productos de la empresa a un mayor público.

      Aumentar la satisfacción del cliente

      El contacto regular y mantenido con los clientes ayuda a conocer más sobre sus necesidades, así como la opinión del usuario final sobre la calidad de los productos o servicios. Esta información es tenida en cuenta y puede aplicarse posteriormente en su diseño y definición futuros, con el objeto de mejorar la experiencia del cliente.

      Por supuesto, aumentar los ingresos

      Naturalmente, el objetivo final y primordial de lo anterior es el de aumentar los ingresos. Sólo de esta manera es posible reinvertir en mejoras sobre los productos o en la creación de otros que cubran necesidades aún no satisfechas por el mercado.


      Impacto en ámbitos distintos a las nuevas tecnologías de la información


      Hasta ahora se ha mostrado la situación en términos genéricos que pueden ser aplicados a cualquier campo de actividad. Pero todavía existe la duda del impacto que pueden producir en otros ámbitos como el industrial —continuando con el ejemplo escogido—, cuyos profesionales son de mediana edad en su mayoría, y se cree que tengan poca presencia en las redes sociales. 

      Sin embargo, según un estudio de Tom Webster —investigador de medios de comunicación social de Edison Research—, el mayor crecimiento en los EEUU en el 2012 de cualquier grupo de edad en el uso de redes sociales, fue de 45 a 55 años de edad. También hay que señalar que un 55 % de la población de dicho país tiene un perfil en una red social, lo que da unas cifras de publico potencial que, aun descontando menores de edad, son relevantes.

      En los reportes anuales que la compañía GlobalSpec emite para los EEUU se observa que, aunque el uso de los medios sociales para fines relacionados con el trabajo se centra en un selecto grupo de plataformas, la adopción es cada vez mayor.

      Algunos datos tomados de los informes para el periodo 2010~2011:
      • La participación en LinkedIn creció de un 37% en 2010 a un 55% en 2011.
      • En Facebookla plataforma de medios sociales de mayor adopción entre los profesionales de la industria se acostumbra a mezclar las actividades relacionadas con el trabajo, con las personales. El 60 por ciento le da al «me gusta» en temas de negocios relacionados con su sector industrial, el 39 por ciento participa en debates sobre en el trabajo y el 37 por ciento lee artículos relacionados con el trabajo.
      • Un 29% de los profesionales del sector industrial de los EEUU ha creado un perfil en la red social Google+, creada en el 2011.
      Notas (del autor): aunque estas cifras son de hace dos años, la situación se ha mantenido en aumento hasta el 2013 según el reciente estudio publicado en el 2014, al menos para LinkedIn —un 73% en el 2013—. No es el caso de Facebook cuyo número de usuarios sufre oscilaciones y se mantiene en el 60%. En el caso de España habría que revisar presumiblemente a la baja estas cifras, aunque es de esperar que la evolución en años venideros registre aumentos similares.


      Dirigirse a la audiencia


      Este crecimiento constante sugiere que es razonable que empresas de ámbitos de actividad diferentes a los de las redes sociales, enfoquen su atención a la integración de herramientas de este tipo en sus estrategias de marketing. La decisión de cuales utilizar se deberá tomar teniendo en cuenta las preferencias de uso del público objetivo, escogiendo aquellos canales que lógicamente, registren una mayor participación de potenciales clientes. Estas herramientas pueden resumirse en las siguientes.

      Blog corporativo

      En un blog pueden compartirse con la audiencia recomendaciones de seguridad, tendencias, desarrollos de nuevos productos, etc. Si se cuenta con la participación de líderes de opinión, puede convertirse en una referencia en asuntos relacionados con la actividad principal de la empresa.

      Grupos de LinkedIn

      Estos grupos permiten tener un canal de comunicación permanente entre toda la comunidad relacionada con la empresa y su actividad: desde usuarios finales, proveedores, ingenieros hasta empleados o representantes de empresas de ensamblado de productos manufacturados. Se puede considerar la creación de grupos de usuarios relacionados con un producto o servicio determinado, para compartir experiencias con la empresa.

      Vídeos de YouTube

      «Una imagen vale más que mil palabras». Los vídeos permiten transmitir casi cualquier concepto de una forma creativa y atractiva. Su contenido puede variar desde testimonios de clientes hasta demostraciones de productos, y permiten ser incrustados dentro de otras paginas web para facilitar su acceso.

      En definitiva, las redes sociales permiten a cualquier empresa independientemente de su sector industrial, hacer llegar su imagen y mensajes más rápido y a un mayor público concreto que nunca. Los informes periódicos consultados indican que esta situación va en aumento, con un 61% en 2012 de encuestados que indican que utilizan las redes sociales para estar al día con las últimas noticias de las empresas, sus productos y de la tecnología.

        sábado, 1 de marzo de 2014

        Kit del escéptico, de Carl Sagan

        sábado, 1 de marzo de 2014
        Un joven Carl Sagan
        Carl Sagan (Foto: ver fuente)
        El conocido científico y divulgador Car Sagan, dejó meses antes de su fallecimiento una obra en la que vuelca su conocimiento sobre cómo evitar engaños y manipulaciones presentes en la propaganda o a través de la transmisión de bulos, falsos mitos y otros tantos peligros a los que últimamente se enfrenta la sociedad: El mundo y sus demonios. La ciencia como una luz en la oscuridad (Carl Sagan, 1995)

        En esta obra, Sagan intenta explicar el método científico al ciudadano corriente como forma principal de evitar caer en engaños. Para ello resumió nueve reglas básicas:
        1. Siempre que sea posible debe haber una confirmación independiente de los «hechos».
        2. Estimular un exhaustivo debate involucrando a los defensores y detractores mejor informados, desde todos los puntos de vista.
        3. Los argumentos de autoridad tienen poco peso. Las «autoridades» han cometido errores en el pasado. Lo harán de nuevo en el futuro. Puede que sea mas correcto decir que en la ciencia no hay autoridades; como máximo, hay expertos.
        4. Barajar más de una hipótesis. Si hay algo que explicar, piense en todas las diferentes formas en las que se podría hacer. Luego piense en formas con las que poner a prueba y poder refutar sistemáticamente cada una de las alternativas. Lo que sobrevive, la hipótesis que resiste la refutación en esta selección darwiniana entre «múltiples hipótesis de trabajo», tiene la mejor oportunidad de ser la respuesta correcta que si simplemente se hubiera quedado con la primera idea que pasó por su mente.
        5. Intente no encariñarse con una hipótesis sólo porque es la suya. No es más que una estación de paso en la búsqueda del conocimiento. Pregúntese por qué le gusta la idea. Compárela a fondo con las alternativas. Vea si se pueden encontrar razones para rechazarla. Si usted no lo hace, otros si lo harán.
        6. Cuantificar. Si aquello a lo que se busca explicación es susceptible de medirse, de atribuirle alguna cantidad numérica, tendrá mucha más capacidad para ser discriminada entre hipótesis rivales. Lo que es ambiguo y cualitativo está abierto a muchas explicaciones. Por supuesto que hay verdades que han de ser buscadas en numerosos ámbitos cualitativos a los que estamos obligados a enfrentarnos, pero encontrarlas es más difícil.
        7. Si hay una cadena de argumentos, todos los eslabones deben ser correctos (incluyendo la premisa) —no sólo la mayoría de ellos .
        8. Navaja de Occam. Esta conveniente regla de oro nos insta a elegir la solución más simple cuando se enfrentan dos hipótesis, que explican igualmente bien los datos.
        9. Siempre pregúntese si la hipótesis puede ser, al menos en principio, falsable. Las proposiciones que son incontrastables o infalsables no sirven de mucho. Considérese la abrumadora idea de que nuestro universo y todo en él es sólo una partícula elemental un electrón, por ejemplo en un cosmos mucho más grande. Pero, si nunca podemos adquirir información de fuera de nuestro universo, ¿cómo se puede saber si es cierto o no? Se ha de ser capaz de verificar las afirmaciones. Hasta el mayor de los escépticos ha de tener la oportunidad de seguir su razonamiento, de forma que pueda repetir el experimento y ver si consigue el mismo resultado.

        Traducido por el autor del artículo (manteniendo el ratón por encima se accede al original en inglés)
        Fuente: Brain Picking


        lunes, 17 de febrero de 2014

        El bueno, el feo, y el malo, de la informática

        lunes, 17 de febrero de 2014

        Microsoft

        Desde el nacimiento de la informática doméstica y hasta hace bien poco, Microsoft ha dominado el mercado de ordenadores domésticos a pesar de lo rudimentario y poco atractivo de su sistema operativo. Su primitivo aspecto se debía seguramente al hecho de que el MS-DOS —basado en el QDOS, traducido literalmente como Sistema Operativo Rápido y Sucio— había sido ideado para ordenadores corporativos o entornos de oficina. Es muy probable pues que su éxito en otros ámbitos se haya debido a un factor fundamental: sus especificaciones de hardware abiertas.

        Esta circunstancia permitía que los PC's fueran montados por diversos fabricantes —como Compact, HP o Dell—, o montados por los propios usuarios adquiriendo por separado sus piezas. Este tipo de usuario optaba por el PC clónico gracias a su bajo coste, además de que podía elegirse uno mismo la configuración hardware que mejor le conviniese —procesador, memoria, tarjetas gráficas, disco duro, todo en función del uso que se le desease otorgar—. Había que armarse de ingenio, un destornillador, y paciencia. «Valía la pena para ahorrarse una pasta», eso pensaba la mayoría.

        ¿Un martillo y una llave fija?
        Fabricantes de dispositivos —con sus controladores o drivers—, programadores de juegos, utilidades que suplían las carencias del primitivo sistema operativo, y otro tipo de programas, todos ellos proliferaron pensados para la misma plataforma ahora ya universalizada. Gracias a esta presencia en el mercado doméstico, Microsoft llegó a dominar también el mercado corporativo con su suite de ofimática, la omnipresente Office y sistemas operativos de servidores.

        De estos hechos se induce que Microsoft era y continua siendo —salvo algunos ligeros cambios estratégicos recientes— una empresa de software, cuyo mercado objetivo son las empresas. A pesar de que los usuarios domésticos eran un valor estratégico importante, sus problemas particulares —paradójicamente— no les interesaban más que lo justo.
        «Surface Pro 2». Con la Surface Pro, Microsoft se incursiona por primera vez en su historia en la venta de hardware
        Es decir, contrariamente a lo que muchos piensan, los problemas de los sistemas operativos domésticos de la empresa de Redmon —los Windows 9x— en relación a su estética cutre, sus numerosos fallos y la necesidad de mantenerlos constantemente, no eran debidos a que sus programadores no conocieran su trabajo, sino a otros factores: 
        1. Lo mismo que les hizo triunfar: su sistema abierto y la gran cantidad de software y dispositivos que cumplían con las bajas exigencias de especificación técnica. La combinación particular de componentes de distintos fabricantes que se limitaban a cumplir de forma ajustada dichas especificaciones, hacía muy difícil en la práctica la validación en cuanto a estabilidad y predicción de problemas de funcionamiento. Tan sólo algunas empresas como HP o Dell —entre otras— intentaban comprobar sus equipos y dar el mayor soporte post-venta posible.
        2. Por el perfil de usuario: el publico objetivo de Microsoft no era el mercado doméstico —apenas controlaba el proceso de fabricación-distribución-venta, simplemente ponía el software—, sino el corporativo —ofimática y servidores, ámbito en donde surgió el Windows NT, base de los sistemas operativos actuales desde el XP, tanto domésticos como corporativos—. Además, el usuario doméstico siempre aceptó las deficiencias de Windows a cambio de un menor coste y de tener cierta libertad sobre su equipo.

        Estos factores ocasionaban que un sistema operativo se lanzara al mercado doméstico de forma apresurada, sin realizar suficientes comprobaciones y sin esmerarse en la estética. Al fin y al cabo, salvo las empresas, pocos iban a pagar por él.

        Apple

        Mientras tanto, el otro titan que pugnaba por alzarse vencedor en el mercado informático era Apple. El Apple II fue el primer computador que en sus inicios, logró hacer sombra a los PC's de IBM. Los factores de su éxito inicial fueron:
        1. Arquitectura abierta: Steve Wozniack diseñó al Apple II con una arquitectura bastante abierta —en un movimiento similar a lo que a posterior significó el despegue de su competidor—, lo que permitía ser ampliado y mejorado con hardware de terceros .
        2. Interfaz gráfica: este equipo fue el primero con capacidad de mostrar gráficos de forma nativa. Usaba dicha funcionalidad para añadir una capa entre el usuario y la máquina, eliminando la necesidad de la consola de comandos y con ella, conocer muchos aspectos del funcionamiento de la máquina.
        3. Montado y listo para funcionar: Steve Jobs estaba obsesionado con que sus computadores fueran lo más parecido a un electrodoméstico. A diferencia de las tendencias de la época —en las que el público más familiarizado con la tecnología adquiría los equipos en kits a falta de ser ensamblados— procuró que sus productos:
            • Se suministraran completamente montados y preparados para funcionar.
            • Les proporcionó un mejor control de la alimentación eléctrica, en cuanto a consumo y calentamiento. Gracias a estas mejoras de ingeniería podían prescindir de ventiladores, lo que los convertía también en silenciosos.
            1. Hoja de cálculo VisiCalc: la primera hoja de cálculo para computadores personales. Con este único programa, el computador pasó a ser de una herramienta de especialistas de la informática —y otras ramas de la ciencia— a una herramienta genérica profesional de negocios.
            Sin embargo, posteriores diseños fracasaron y sumieron a su empresa en décadas de ostracismo, con problemas financieros. Los motivos de esta circunstancia fueron probablemente:
            1. Estrategia de mercado incoherente: el atractivo visual de un sistema operativo no es un factor de peso para un mercado corporativo donde priman los resultados prácticos. En cuanto al mercado doméstico más propicio para sentirse atraído por dicha capacidad, el coste del equipo era excesivo en comparación con los de la competencia.
            2. Fallo de diseño: el aumento de capacidad de procesamiento no era compatible para la época con la obsesión de presentar un equipo montado y sin ventiladores de refrigeración. La intención era buena, pero no realista. Muchas unidades del Apple III tuvieron problemas de calentamiento, lo que empaño la imagen de la marca y significó un fracaso que marcó las décadas venideras.
            3. Restricciones de hardware: la necesidad obsesiva de Steve Jobs de especificar los requerimientos técnicos para que se ajustaran a su visión particular de lo que debía ser un computador —desde la estética al consumo eléctrico—, provocó finalmente que todo el proceso de fabricación y distribución para venta —desde el sistema operativo hasta el hardware— fuera controlado por la propia empresa. Esto permitía generar beneficios por la venta de los componentes, pero impedía abrir el mercado a otros fabricantes y empresas que aportaran sus ideas y sus clientes.

            De esta manera, Apple se convirtió por sus propios «méritos» en un fabricante de computadores minoritario, cuyos productos estaban restringidos normalmente a ámbitos relacionados con el diseño gráfico profesional —que podían permitirse la inversión en este tipo de tecnología— sin poder competir en ventas en el mercado doméstico. Una empresa de hardware opaca y aislada, con equipos prohibitivos para el usuario medio y cuyos repuestos eran servidos por la propia empresa a través de sus «tiendas Apple». No permitía que hubieran intermediarios.

            Algunas de las virtudes más alabadas de los computadores de la empresa fundada por Jobs, han sido —además de su atractiva estética— su gran estabilidad y su facilidad de funcionamiento y configuración. Mucha gente piensa que esto era debido a una especie de «sabiduría» de los programadores de una empresa «virtuosa». Sin embargo, la explicación más evidente y menos dogmática es mucho más prosaica: trabajar con configuraciones de hardware conocidas y completamente testeadas facilitaba la integración de los sistemas de forma que la configuración estaba preestablecida y el mantenimiento de los equipos era trivial. Debido a esto, su sistema operativo es prácticamente inservible en otros ordenadores que no entren dentro de sus caprichosas especificaciones. Con un hardware enmascarado tras una interfaz gráfica que parece pretender esconder que lo que se tiene delante es un computador.

            El iMac. Su relativo éxito salvó a la compañía y a Steve Jobs. Fuel el inicio de la inicial «i» en los modelos de la compañía. (foto: The Register)
            Aunque pueda parecer «sacrílego», se podría decir que fueron las decisiones de Steve Jobs las que condujeron a Apple por un camino complicado en sus inicios. Jobs dejó la empresa que él mismo fundó a principios de los años ochenta, por problemas con una directiva que no supo corregir ese tortuoso rumbo.

            Sin embargo, cuando regresó en 1997 su filosofía fue exactamente la misma. El cambio consistió en retirarse de la pelea por los computadores de escritorios dominados por su competidor, e introducirse en aquellos mercados incipientes en los que no estuviera. De esta manera surgió el reproductor de MP3 iPod. Pero lo más importante consistía en que el negocio se lograba —además de la venta de los reproductores— en la venta de contenidos a través —nuevamente— de su propia «tienda Apple»: iTunes —un negocio puramente comercial, que no tiene nada que ver con la informática—. Lo que vino después —iPhone, iPad— es recordado por todos.

            GNU-Linux

            En toda esta actividad del último cuarto del siglo pasado, el usuario consumista llamado a convertirse en el protagonista reciente de la economía, encontró en la tecnología una inagotable fuente de productos con el que lograr un nuevo estatus. Las mejoras tecnológicas no sólo aportaron avances a diversas áreas del conocimiento, también abrieron las fronteras del consumismo. Lo que antaño era un traje nuevo o un coche, ahora es el último modelo de smartphone, tablet, smartwatch, y sus diversas apps y accesorios de todo tipo y función.

            La informática había entrado definitivamente en lo cotidiano, sin embargo, los usuarios clásicos de computadores, aquellos pocos que heredaban el concepto original de la informática sin ninguna interfaz que «enmascarase» de forma gráfica el verdadero funcionamiento —al menos, a nivel lógico— de su equipo, eran cada vez más ninguneados.

            Se encontraban a expensas de las decisiones de las grandes corporaciones. No les satisfacían las soluciones que el mercado les ofrecía, que además de ser ineficientes, inestables o caras, eran en cualquier caso y por encima de todo, cerradas y privativas.

            Richard Stallman y Linus Torvalds

            Richard Stallman era un programador del conocido y prestigioso MIT que observó que el software que se incluía en los computadores y que permitía acceder a todo su potencial, permanecía oculto a los usuarios supuestamente dueños de los equipos, impidiéndoles en la práctica serlos plenamente. Stallman tuvo que dejar su trabajo para que su proyecto de software libre no estuviera influido por su contrato, por el cual el dueño del código que realizaba era el MIT, y no él. Así nació la Free Software Foundation (FSF).

            Torwalds y Stallman (foto: Ubuntu guía)
            Esta fundación tenía como objetivo dar soporte al proyecto de crear un sistema operativo libre, en el sentido de que su código era accesible y modificable por los propios usuarios. Esto no significaba que fuera necesario hacerlo, sino que era posible hacerlo. En definitiva, el usuario elige cómo —en función de su nivel de conocimientos en la especialidad— desea utilizar su equipo, el cual sin el software no sería nada.

            Este proyecto logró finalmente su meta cuando el ingeniero de software finlandés Linus Torwalds liberó con la licencia GNU —creada por la FSF— el núcleo de un sistema operativo equivalente al sólido y eficaz UNIX, pero adaptado a los sistemas basados en INTELx86. El mundo conoció así al pingüino más famoso de la historia: El LINUX.

            Seguro que alguien se estará preguntando a estas alturas quienes son entonces, el bueno, el feo y el malo de la informática. Que sea el lector el que tome la decisión sobre este punto.

            domingo, 9 de febrero de 2014

            La posesión como un fin en sí mismo

            domingo, 9 de febrero de 2014
            Pensamos que si seguimos poniendo grandes productos delante de los consumidores, estos seguirán abriendo sus carteras

            En los inicios de la era de la informática doméstica —años 70 del siglo pasado— el computador se convirtió en un producto comercial cuya finalidad consistía en ser vendido. Cuantos más, mejor. De esta manera se alejaba de los principios originales que llevaron a su desarrollo. Como herramienta enormemente versátil los PC's y computadores en general dieron beneficios a muchos fabricantes de hardware, así como a programadores de juegos y de aplicaciones. El liderazgo del MS-DOS —y Windows posteriormente— en los hogares apenas reportaba ingresos directos a Microsoft, aunque se valió de ello para desplazar a IBM como líder de la oficina —centrándose en el mercado corporativo, sus verdaderos clientes—.

            Y así fue como lo que en un principio fue una herramienta universal, pasó por ser una herramienta para la oficina, y de ahí, a ser simplemente una herramienta universalizada —esto es, susceptible de ser un producto vendible a todo tipo de mercados, sin que tuvieran que conocer nada de su funcionamiento necesariamente—. El computador se convirtió en muchos casos como una especie de «caja mágica» que había sido adquirido por el público por mera presión comercial, sin saber muy bien qué hacer con él. De esta manera, surgía una nueva manera de entender el computador como un fin en si mismo.

            Mientras que algunos usuarios se entretenían overclockeando su equipo o se hacían con algún entorno de programación —QBasic o Turbo Pascal— para darle de esta manera un sentido propio a su ordenador en el sentido «clásico», otros tipos genéricos de usuario aparecían: uno de ellos fue el usuario consumista —cuyo protagonismo ha ido en ascenso hasta hoy en día— que ansiaba la posesión de un computador por una mera cuestión de imagen personal y de estatus social. Necesitaban tener un «buen equipo», dotado de «lo último» en tecnología. Un segundo nuevo tipo de usuario era aquel que valoraba la informática como herramienta, pero no estaba interesado en saber apenas nada de ella. Quería que se lo dieran todo hecho. Estos dos tipos de usuario vivían en constante contradicción y lucha interior: aunque no les interesaba la informática y no deseaban hacer más que un mínimo esfuerzo en relación a ella, al mismo tiempo, la necesitaban urgentemente.

            Mientras, Microsoft y Apple peleaban por el mercado corporativo con clara ventaja del primero. No fue hasta que la empresa de la manzana comenzó a explotar a las nuevas clases de usuario cuando inició su carrera hacía el liderato actual, alejándose del PC de escritorio dominado por su competidor. Parte del primer tipo clásico de usuarios interesados en la informática como especialidad, se dieron cuenta de que eran meras marionetas y que difícilmente eran dueños de su computador plenamente. De aquí surgieron varias iniciativas que dieron forma al proyecto GNU-Linux. Pero esta, es otra historia.

            jueves, 6 de febrero de 2014

            Érase una vez, un computador

            jueves, 6 de febrero de 2014
            El ordenador nació para resolver problemas que antes no existían
            —Bill Gates


            Sala de computadores y almacenamiento en cinta magnética de los años 70
            Foto: El Cedazo
            En sus inicios, los computadores eran enormes armatostes que ocupaban salas enteras. Los ingenieros y matemáticos que diseñaban estos dispositivos lo hacían con la principal finalidad de convertirlos en herramientas universales. Unos dispositivos que dado su coste y tamaño, eran utilizados por las instituciones públicas, científicas o militares, que podían permitírselo.

            Lo que para unos era un fin en sí mismo —los desarrolladores—, para otros —gestores públicos, militares, científicos de otras áreas distintas de la informática— era un medio para lograr otros objetivos —desde cálculo de órbitas estratosféricas a trayectorias balísticas, pasando por censos estadísticos—.

            La mejora tecnológica y la consiguiente disminución de tamaño y abaratamiento de los componentes, propiciaron la existencia de ordenadores más apropiados para un negocio o domicilio. De esta forma, surgió el concepto de «computador personal». IBM acuñó el concepto de «PC» o Personal Computer, desarrollado en respuesta al Apple II de APPLE —Otros fabricantes importantes fueron WANG o SUN—.

            En esta época el mercado informático se destinaba a profesionales o empresas . Aún no existía el concepto de «informática doméstica». Por tanto, las técnicas de marketing empleadas estaban orientadas a ese tipo de usuario, que valoraba la inversión que realizaba —dinero, tiempo o esfuerzo— en función del resultado práctico que alcanzaba. Por tanto, la estética y funcionalidad de los programas —software— que se incluían en los computadores, no cumplían con más funciones preestablecidas que las propias de su gestión informática, ni se limitaba en manera alguna que el usuario pudiera configurar su sistema arreglo a sus prioridades.

            Tan sólo en su parte física —el hardware— era donde se les dotaba de elementos diseñados específicamente acorde a la función principal para la que iban destinados. De ahí que los primeros computadores personales tuvieran un diseño y estética de «herramienta de oficina», la cual perduró en el tiempo aún fuera de dicho ámbito.

            IMB PC del año catapúm
            Foto: UPM
            Hasta este momento, la importancia del computador continuaba residiendo en su concepción como «herramienta de propósito general»—. Los ingenieros los creaban con la idea de que el usuario con preparación pudiera darles la utilidad final que se ajustara a sus necesidades. Esto exigía que tuviera claro cuáles eran éstas y qué debía hacer para solucionarlas. No  hacía falta que fuera ingeniero informático o tuviera que saber diseñar un computador, pero como cualquier otra herramienta, era necesario un mínimo aprendizaje para poder usarla y mantenerla —incluso una máquina de escribir tradicional a pesar de su limitada función, requería de cierto adiestramiento y cuidados—.

            Las tareas burocráticas y de contabilidad fueron las funciones principales para las que las empresas destinaban su inversión en nuevas tecnologías, con IBM (International Business Machines, o Internacional de Máquinas de Oficina) como el rey indiscutible en la fabricación y venta de computadoras de oficina. 

            Mientras, el mercado doméstico era un campo sin explorar. Algunas marcas modestas —Sinclair, Commodore, Atari, Amstrad, entre otras— lanzaron equipos con un hardware sencillo —sin monitor incluido, con el teclado de goma o embebido en un mismo bloque junto a la CPU y sin medios de almacenamiento externo— que se popularizaron rápidamente en los hogares.

            Commodore 64
            Foto: Wikipedia
            Estos equipos —si bien no eran más que juguetes— heredaban el mismo concepto de sus antecesores: su sistema operativo apenas ofrecía más que un entorno de programación en donde el usuario debía esforzarse aprendiendo a programar, llegando a leer incluso ¡libros en papel! para aprender, pasando tardes enteras tecleando un programa en memoria y disfrutar tras horas de trabajo. Eran desde luego, otros tiempos.

            Obviamente, el futuro de la informática doméstica no podía pasar por aquí ¿verdad?. Aunque estos equipos mejoraron y surgieron publicaciones y comunidades de usuarios que compartían programas, la multiplicidad de sistemas y su incompatibilidad complicaba las cosas. Hacía falta algo más.

            El PC clónico.

            Debido a algunos errores de diseño, Apple perdió la carrera por el mercado corporativo en favor de IBM, la cual comercializó un computador de bajo coste a los que se les dotó del sistema operativo —en realidad, poco más de un mero gestor de disco— PC-DOS de Microsoft. Debido a su buen resultado en términos prácticos, otros fabricantes quisieron hacerle la competencia logrando mediante ingeniería inversa «clonar» la BIOS de un equipo de IBM. De esta forma podía comercializarse PC's bajo marcas distintas de IBM.

            PC Clónico «del montón»
            Foto: revista PC Actual
            Gracias a que Microsoft —no se sabe si en un alarde de ingenio estratégico de Bill Gates o por pura chiripa— tenía la concesión de poder comercializar su sistema de disco —MS-DOS— prescindiendo de IBM, miles y miles de clones de su PC, con el alma de Microsoft, cubrieron la superficie del planeta.