Aprender gratis en Internet: la Academia Khan

¿No te acuerdas como se calculaba una derivada y necesita que alguien te lo explique? ¿Quieres saber algo más sobre el origen del Universo? ¿No entiendes nada cuando en la tele se ponen a hablar de economía? ¿Sabes como empezó la Revolución Francesa? Pues hay un persona que va a dar respuesta a todas estas preguntas y más, su nombre es Salman Khan y el sitio donde las encontrarás, la Khan Academy.

Salman Khan. Fuente: Khan Academy

Salman Khan, de madre India y padre de Bangladesh, pero oriundo de Nueva Orleans, estudió en el MIT las carreras de Matemáticas, Ingeniería Eléctrica y Ciencias de la Computación, y como parece que se aburría un poco, también se saco un MBA en Harvard. Hace unos años, mientras estaba trabajando como gestor de fondos de inversión en Boston empezó a dar tutorías de matemáticas por Internet a sus primos, y fue colgando en Youtube los vídeos que iba grabando explicando algunos conceptos matemáticos de forma amena, siempre sin dar la cara y escribiendo en una pizarra virtual. Pronto se empezaron a popularizar sus vídeos tanto que en Septiembre de 2009 decidió dejar su trabajo y centrar todos sus esfuerzos en la Khan Academy, una organización sin ánimo de lucro cuya finalidad es llevar la enseñanza a todo el mundo de forma gratuita. Ha sido tentado varias veces para sacar beneficio formando una empresa, pero por ahora se ha negado, afirmando que  “cuando tenga 80 años, quiero sentir que he ayudado a acceder a una buena educación a miles de millones de personas en todo el mundo”. Éstas son las cosas que no te hacen perder la fe en la humanidad.

¿Y como funciona la academia? Pues lo primero decir que no hace falta registrarse para ver los vídeos y ni realizar los ejercicios, pero si quieres mantener información de lo que ya has visto o no, o ir viendo tus progresos, si tienes cuenta de Google o de Facebook te puedes autenticar en fácilmente. La academia pone a tu disposición más de 2700 vídeos, de unos 10 minutos de duración cada uno, sobre las más diversas materias, principalmente de ciencias (matemáticas, física, química, etc.), dada la formación de Sal Khan, pero también ofrece vídeos sobre historia, algunos creados por colaboradores y otros hechos por el propio Khan, que parece que no le da miedo otras ramas del conocimiento más alejadas de sus estudios. Ahora mismo un alto porcentaje de los vídeos son creados por el propio Khan y piensa seguir haciéndolos hasta que se muera (de viejo, claro).

Vamos a calcular una derivada. Fuente:Khan Academy

En los vídeos casi siempre te aparece la pantalla negra de la pizarra virtual de Khan donde va escribiendo con muchos colorines todas las explicaciones, de forma bastante didáctica y entretenida, haciendo varios ejemplos de cada procedimiento matemático para que te quede claro. Según vas viendo más y más vídeos y resolviendo más ejercicios, en el panel de estadísticas de avance te van dando pequeñas “medallas” y puntos para premiarte (virtualmente, nadie te va a pagar por aprender ;-)). La web tiene unos 240 ejercicios matemáticos para resolver, desde las operaciones aritméticas más básicas hasta sistemas de ecuaciones, y te muestra un mapa de conocimiento para que veas tus avances de forma gráfica. Eso si, los vídeos principales están todos en inglés, y aunque los vídeos se van subtitulando en distintos idiomas gracias a colaboraciones, si no eres muy ducho con la lengua de Shakespeare (como la mayoría de los españoles), puede que primero tengas que apuntarte a un curso de inglés, aunque la pronunciación de Khan es bastante clarita y fácil de seguir, por lo que además de aprender matemáticas, puedes mejorar tu inglés. Algunos de los vídeos han sido doblados a varios idiomas (los hay en español de hispanoamérica) y están también accesibles en Youtube (aunque no en la plataforma con el sistema de seguimiento). Aun así, encuentro más entretenidas las explicaciones de Khan directamente en inglés.

Las medallas "planetarias" que dan por avanzar. Fuente: Khan Academy

La academia no solo se puede usar para aprender, sino que también puedes entrar como tutor, asignándote los alumnos para luego poder ir siguiendo sus progresos. En Estados unidos se están empezando a usar en algunos colegios como complemento a las clases. Pero el fin de Khan es conseguir una gran clase mundial, donde por ejemplo un chaval de Boston pueda hacer de tutor de uno de Calcuta o viceversa.

En la actualidad al sitio web acceden más de un millón de estudiantes al mes, reproduciéndose entre cien y doscientos mil vídeos cada día. Se ha convertido en un autentico fenómeno de Internet que ya ha recibido el soporte de Google y de la fundación de Bill Gates (el propio Gates ha comentado que sus hijos son usuarios de la academia). Creo que una iniciativa cómo esta merece toda la difusión y apoyo que sea necesario para que siga adelante. Lo que empezó siendo unos simples vídeos para enseñar a los primos de Salman Khan se ha convertido en una autentica plataforma gratuita de enseñanza, con múltiples colaboradores alrededor del mundo. Y ojalá que vaya a más.

Publicado por el 15 noviembre, 2011 en Tecnología | 8 comentarios

Charlando con Flipper

En el campo de la búsqueda de vida extraterrestre siempre surge el problema de como seríamos capaces de comunicarnos con seres inteligentes no humanos, partiendo de que podrían tener unos esquemas mentales muy distintos a nosotros. Pues para investigar sobre esto no hace falta esperar a que algún extraterrestre nos visite o los investigadores del proyecto SETI reciban por fin una comunicación inteligente de más allá de los confines de la Tierra. Tenemos en nuestro planeta lo más parecido a un alienígena que podemos encontrar, la que puede ser la especie más inteligente después del propio ser humano, los delfines.

Los investigadores del WDP interactuando con los delfines | (c)Wild Dolphin Project

En la difícil tarea de conseguir descifrar su lenguaje, si es que lo tienen, para comunicarse con delfines en libertad se han embarcado los investigadores norteamericanos del Wild Dolphin Project en colaboración con la Universidad de California y con el Instituto de Tecnología de Georgia. La fundadora del proyecto, la bióloga marina Denise Herzing lleva más de 25 años investigando a estos fascinantes cetáceos y durante todo ese tiempo han recogido miles de grabaciones con sonidos y comportamientos de los delfines, que están en fase de digitalizar completamente. En base a esas muestras, por un lado investigan mediante análisis cognitivo la complejidad de su posible lenguaje, y por otro, buscan patrones en los sonidos de los delfines mediante algoritmos que puedan ayudar a descifrarlos.

Como primer resultado, gracias al trabajo de especialista en inteligencia artificial Thad Stanner y sus alumnos en el Georgia Tech, han desarrollado dentro del proyecto Cetacean Hearing and Telemetry (CHAT) el prototipo de un dispositivo con el que un submarinista puede comunicarse con los delfines. El dispositivo consiste en un pequeño ordenador, del tamaño de un smartphone, protegido del agua, con dos micrófonos capaces de registrar todas las frecuencias de los sonidos de los delfines. El buceador, con el dispositivo en su pecho y provisto de un conjunto de LEDs en su máscara que se enciende según la posición de donde viene el sonido para identificar que delfín le está hablando, dispondrá de un teclado con 8 sonidos inventados para indicar diferentes conceptos como algas o saltar las olas. El software del dispositivo determinará si los delfines imitan el sonido, en un primer acercamiento de comunicación. La idea de esto sería la misma que cuando humanos con dos lenguajes distintos se intenta comunicar por primera vez, identificando algunos objetos en la lengua del otro para empezar a entenderse. Este verano se supone que empezaron las experiencias con el dispositivo, pero todavía no han trascendido sus resultados.

El siguiente paso será intentar buscar las unidades básicas del lenguaje de los delfines mediante el software de reconocimiento de patrones diseñado por el equipo de Thad Stanner, creado originalmente para descubrir pautas en cualquier conjunto de datos, teniendo éxito por ejemplo en el reconocimiento del lenguaje de signos o en algo tan curioso como identificar ejercicios físicos en base a los datos registrados por acelerómetros portados por una persona. Si consiguen identificar esas unidades, podrían empezar a trabajar en la comunicación directa con los delfines, viendo como van respondiendo a esos sonidos básicos y poder ir descifrando así la estructura de su lenguaje.

Aunque había habido anteriores intentos de comunicarse con delfines, este es el primero en buscar un método para una comunicación bidireccional con la que llegar a comprender un poco mejor la inteligencia de estos extraordinarios cetáceos. Puede que en un futuro cercano podamos por fin confirmar que, aunque no estemos seguros de si hay vida inteligente más allá de nuestro planeta, si que la hay en la Tierra… a pesar de los humanos.

Publicado por el 13 octubre, 2011 en Tecnología | 2 comentarios

El día en que se permitieron los escritos hechos a máquina

Hace unos días, públicábamos en cornisa.net una cita de Julio Verne: “La fototelegrafía permitirá enviar escritos, firmas o ilustraciones y firmar contratos a una distancia de 20000 kilómetros. Todas las casa estarán conectadas.”

Una vez más, esa capacidad de predecir acontecimientos futuros de Julio Verne se cumplió. Hoy en día, podemos utilizar diversos certificados digitales y el DNI electrónico que tenemos implantado en España para poder firmar de una forma telemática. De hecho, existe una Ley concreta sobre el uso de la firma electrónica, una ley que otorga el mismo valor a esa firma electrónica que el que tiene una firma manuscrita.
Al tener la misma validez la firma electrónica que la manuscrita, se está empezando a ofrecer distintos servicios telemáticos que hacen uso de esto, y de la ventaja de poder firmar desde un ordenador conectado a la red. También comentamos en cornisa como se puede emplear el DNI electrónico a la hora de firmar una Iniciativa Legislativa Popular.

Pero antes de que existiera el DNI electrónico, antes de legalizar la firma electrónica, se han tenido que dar otros pequeños pasos para que las leyes y las costumbres se adapten a la tecnología. Uno de estos pequeños pasos, fue la aceptación de que los textos realizados a máquina tenían el mismo valor que los hechos a mano. En España, sucedió en el año 1900.

En julio de 1900, se publica en La Gaceta de Madrid (diario oficial antecesor del actual BOE) el siguiente texto, firmado por el entonces presidente del Gobierno Francisco Silvela:

PARTE OFICIAL

PRESIDENCIA DEL CONSEJO DE MINISTROS

SS. MM. el Rey y la Reina Regente (Q.D.G.) y Augusta Real Familia continúan en esta Corte sin novedad en su importante salud.

REAL ORDEN

Excmo. Sr.: Vista la petición formulada por D. Antonio Comyn en instancia fecha 1.º del corriente solicitando que en todas las oficinas del Estado, de las provincias y de los Municipios se admitan las instancias y demás documentos hechos con máquinas de escribir, en los mismos términos y con los mismos efectos de los escritos ó copiados á mano:
Considerando que no existe ninguna razón administrativa ni de otra índole que aconseje no admitir en las oficinas anteriormente citadas las instancias y demás documentos que en ellas se presenten hechos con máquinas de escribir, siendo más clara y fácil su lectura que muchos de los escritos á mano, y cuya legalidad consiste en la autenticidad de la firma que los suscribe y no en que estén hechos precisamente con letra manuscrita;
S. M. el Rey (Q. D. G.), y en su nombre la REINA Regente del Reino, ha tenido á bien disponer que en todas las oficinas del Estado, proviniciales y municipales se admitan cuantas instancias y documentos se presenten hechos con máquinas de escribir, en los mismos términos y con iguales efectos de los escritos o copiados á mano.
De Real orden lo digo á V. S. para su conocimiento y efectos consiguientes. Dios guarde á V. S. muchos años. Madrid 12 de Febrero de 1900.

FRANCISCO SILVELA

En la página del BOE, podemos recupera este texto que fue publicado en La Gaceta de Madrid hace más de un siglo (de hecho, se pueden consultar publicaciones desde 1661).

Gaceta de Madrid, 19 de febrero 2011

Gaceta de Madrid, 19 de febrero 2011

Real Orden

Real Orden que permite el uso de máquinas de escribir

Puede que en el futuro la anecdota sea recordar el día en que se aprobó la firma electrónica.


P.S. Quiero agradecer a la persona que me contó esta anécdota tan curiosa.
P.S.2. Después de dos meses alejado, espero volver al ritmo que cornisa.net se merece.

Publicado por el 10 octubre, 2011 en Tecnología | 2 comentarios

Google Code Jam, un concurso de programación

El próximo 29 de julio, se celebrará en Tokio la final del concurso de programación anual que organiza Google, el Google Code Jam 2011.

Google Code Jam

El concurso consiste en programar un algoritmo que sea capaz de resolver distintos problemas que son propuestos. Para ello, es posible utilizar el lenguaje de programación que cada uno estime oportuno. El problema se considerará resuelto si ante determinados datos de entrada que se proporcionen, es posible obtener una solución correcta. De esta forma, y durante varias jornadas eliminatorias, se llega a la final, donde competirán los 25 mejores concursantes.

Este año, el concurso comenzó el 6 de mayo con una ronda de clasificación.  Participaron 11832 de todo el mundo, y se emplearon para la resolución de los problemas lenguajes bastante habituales como  Java o C++, y algunos más divertidos como Haskell, Prolog o Fortran. Un punto a destacar en el desarrollo de este concurso, es que una vez que termina cada ronda, es posible descargarse las soluciones de los distintos concursantes; este sirve para ver que ideas han llevado a cabo y como las han implementado en cada uno de los lenguajes de programación.

lenguajes de programación empleados

En cuanto a la actuación española, este año participaron (participamos ;) ) en la ronda de clasificación 135 participantes, donde C++, Java y Phyton fueron los lenguajes preferidos.

En la ronda 3, la previa a la final de Tokio y que se celebró el pasado 30 de junio, llegaron los 500 mejores participantes, donde se encontraba un participante español Landertxu. Esta ronda, se realizaba en modo on-line, y tenía una duración de dos horas y media para resolver 4 problemas de distintas puntuaciones. Los 25 primeros clasificados, serían quienes ganarían una plaza para participar en la próxima final que se disputará en Japón. Nuestro representante obtuvo un mertitorio y fantástico puesto 64; y más sabiendo que la puntuación que obtuvo fue la misma que la que obtuvo el segundo mejor participante; 69 puntos sobre 100. Hubo 66 participante que obtuvieron esa misma puntuación, por lo que se tuvo que recurrir al tiempo empleado para encontrar las soluciones. Landertxu se quedó a 50 minutos de conseguir una de esas plazas para la final, en donde más de la mitad de los participantes serán de Rusia (10) y China (5).

A parte de Landertxu, destacar también el papel de AlexAlvarez (puesto 528) y polmauri (puesto 729), que al terminar entre los 1000 primeros participantes, recibiran una camiseta del Google Code Jam como premio :)

Partipación española en las fases del concurso

Habrá que esperar unas semanas más para ver quien es el ganador de la edición 2011 del Google Code Jam; de todas formas, disponemos de los problemas propuestos en esta edición, y de las soluciones desarrolladas por los participantes, por lo que disponemos de un buen material para curiosear, y participar en la próxima edición. A veces, con pasar una ronda, es suficiente :)


Entradas relacionadas:

Publicado por el 12 julio, 2011 en Tecnología | 4 comentarios

Cuando Tesla hizo temblar la tierra

Un tranquilo día de 1898 los vecinos de varios bloques de edificios de Manhattan de los concurridos barrios Chino e Italiano empezaron a experimentar un temblor que pronto comenzó a sacudir todos los edificios y romper cristales, provocando que la gente saliera asustada a las calles de Nueva York. La policía, tras comprobar que el temblor se circunscribía solo a aquella pequeña parte de la ciudad y sospechando de quién podía ser el causante, enviaron a dos de sus agentes al número 46 de la calle East Houston. Justo antes de entrar en el edificio notaron que el temblor cesaba, y al traspasar la puerta de un laboratorio, los recibió un hombre alto y delgado, con bigote, elegantemente vestido, y armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado tarde para contemplar mi experimento. He visto necesario detenerlo de forma súbita y inesperada… ” y añadió mirando el martillo “ y de una forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos dio, entre otras cosas, la corriente eléctrica alterna gracias a la cual estás leyendo esto.

Tesla Laboratory

El causante de aquel incidente había sido un pequeño oscilador electromecánico con el que Tesla estaba experimentando aquel día para su investigación en la resonancia mecánica. Tras colocarlo sobre un pilar de su laboratorio, la vibración provocada comenzó a extenderse por los subterráneos del edificio hacia los edificios colindantes creando el caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no notó que todo su laboratorio estaba temblando no decidió finalizar el experimento de forma contundente dándole un martillazo al oscilador.

Otro de sus experimentos se lo relataría algunos años después a un periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y tras localizar un edificio en construcción en el barrio de Wall Street, que aún era un esqueleto de metal, colocó el oscilador sobre una de las vigas y lo activó. En pocos minutos toda la estructura de diez pisos del edificio empezó a vibrar, asustando a los trabajadores y provocando de nuevo que la policía hiciera acto de presencia. Antes de que nadie se pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se lo guardó en el bolsillo y continuó su camino. En la misma entrevista el inventor aseguró que en menos de una hora podría derribar el puente de Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita, sería capaz partir la Tierra en dos. Esta claro que Tesla siempre pensaba a lo grande.

No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones sobre sus investigaciones, pero así nos lo relata Margaret Cheney en una de las mejores biografías hechas sobre el inventor, Tesla: The Man Out of Time, que tiene edición en español (prologada por uno de los fans letales de Tesla que es Nacho de Microsiervos). En un episodio del año 2006 del programa Cazadores de Mitos intentaron reproducir el experimento de varias formas, pero con el experimento final sobre el puente Carquinez solo consiguieron provocar una vibración que se podía sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a crear o diseñar realmente aparatos con esa potencia, probablemente nunca lo sepamos y quede como uno de los tantos misterios que rodean a este genio.

Para aquellos que quieran intentar emular a Tesla, existe un libro con el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s Original Patents Plus New Blueprints to Build Your Own Working Model,  que parece dar las claves para construirlo, pero creo que, salvo que te creas las peregrinas teorías conspirativas sobre los terremotos ocurridos los últimos años que circulan por la red,  por ahora nadie lo ha conseguido ;-).

Publicado por el 2 junio, 2011 en Historia olvidada, Tecnología | 34 comentarios

Las tres dimensiones de la Web

Las tres dimensiones hace tiempo que son compañeras de nuestros momentos de ocio, desde el comienzo de su uso en el cine para recrear escenarios y dar vida a las más increíbles criaturas, como su uso intensivo en los videojuegos llegando a las cotas de realismo actual que apenas podíamos soñar tan solo unos años atrás. Y no hablemos ya con la tecnología actual que nos permite incluso sin gafas poder contemplar el 3D real. Sin embargo en la red de redes no acaba de cuajar demasiado su uso, limitándose tan solo a los videojuegos multijugador que tanto tiempo roban a los pobres “gamers” que caen en sus garras, y algunos usos prácticamente anecdóticos para complementar webs o recreación de algún que otro edifico o lugar. ¿Donde está  “The Matrix” con la que han soñado tantos?.

El edificio de la Bodega Cooperativa, recreada con VRML, en el plugin CosmoPlayer

Mi primer (y único) contacto con la creación de escenarios virtuales para la red fue allá por el año 98 cuando estaba preparando el proyecto fin de carrera de la ingeniería técnica y se me ocurrió recrear el edificio de la Bodega Cooperativa de mi pueblo completamente en 3D. En aquel momento se estaba empezando a popularizar el VRML, que yo use en su versión 2.0. La primera versión, creada por Mark Pesce y Tony Parisi, había visto la luz en el año 94, con la demo Labyrinth que presentaron en la First WWW Conference, naciendo como vemos poco después de la propia web tal como la conocemos ahora mismo. Tres años después vería la luz una nueva versión mucho más completa, que permitía por ejemplo la inclusión de scripts con los que animar los escenarios virtuales. Recuerdo con cariño las horas y horas que dedique, sin apenas usar herramientas de modelado,  casi todo programando, a recrear aquel enorme edificio con el detalle que pude, ¡consiguiendo incluso que las puertas se abrieran y se cerraran! ;-). Lamentablemente, a pesar de que despertó cierto intereses y que se estableció como un estándar ISO, no llego a pasar más allá de una mera curiosidad, probablemente debido a que llegó demasiado pronto, antes de que se empezara a implantar la banda ancha  y recorrer mundo virtuales (que había que realizar mediante un plugin del navegador web) muy grandes y detallados podía hacerse realmente pesado.

Como sucesor de VRML surgió el estándar X3D en el año 2001, auspiciado por el Web3D Consortium, basado completamente en XML que mejoraba la anterior versión ofreciendo cosas como sombreado, geo-localización, animaciones específicas para simular comportamiento humano, etc. Pero los años han pasado y a pesar de seguir evolucionando y mejorando, sigue sin despegar su uso en la web limitándose prácticamente a ser un formato de intercambio entre herramientas de diseño 3D (como Blender) y para aplicaciones de simulación médica. En la actualidad se está trabajando en integrarlo con HTML5 mediante el framework X3DOM para poder visualizar los escenarios tridimensionales sin necesidad de plugins en el navegador. Precisamente este framework se basa en la librería javascript que últimamente está teniendo bastante repercusión en la red, WebGL.

Pecera 3D realizada con WebGL

En Marzo de este año se presentó la versión 1.0 de WebGL por parte del Khronos Group, una organización sin ánimo de lucro dedicada al desarrollo de las tecnologías 3D, y el WebGL Working Group, compuesto entre otros por Mozilla, Google, Apple y Opera. Como se ve, los grandes apuestan por el futuro de esta tecnología, aunque recientemente se han encontrado con el primer tropiezo en el camino cuando se han detectado problemas serios de seguridad en la implementación actual. WebGL está basada en la API OpenGL ES 2.0, una versión un poco más light de la clásica usada en multitud de juegos, y mediante el uso del nuevo elemento Canvas de HTML5 nos promete traer nuevas experiencias a la web. Por ahora solo es soportado a partir de Firefox 4.0 y Chrome 9, y si teneis Windows XP como yo puede que os encontréis con la sorpresa que en Firefox por defecto no funciona (para solventarlo, basta con teclear about:config en la barra de direcciones y poner a true webgl.force-enabled). Con estos antecedentes parece que todavía esta un poco verde para vislumbrar si tendrá futuro o se limitará de nuevo a ser una curiosidad cuyo uso más importante sea el de pequeños juegos web, ya que cualquier intento de crear mundos virtuales que no sean juegos parece condenado al fracaso, como ocurrió con Second Life.

Seguro que muchos recordáis este mundo virtual creado por Linden Lab que saltó a la fama hace unos años. Una realidad paralela donde podías tener tu avatar, comprar tus terrenos, construir tu casa, comprar todo los objetos que quisieras y ganar dinero (mediante la moneda Linden Dollar). Todo el mundo quería estar ahí, las empresas, las universidades, hasta los políticos (Gaspar Llamazares llegó a dar un mitín ahí). Pero el tiempo pasó, llegaron Facebook y Twitter, las reinas de las redes sociales, y Second Life paso prácticamente al olvido. Siguen activos, eso si, e insisten que tienen mucha actividad, pero ¿conocéis a alguien que lo use actualmente? Yo no. Parece que Matrix nos sigue quedando muy lejos aún.

Publicado por el 25 mayo, 2011 en Tecnología | Lee el primer comentario

Los Nóbel de la Informática: Premios Turing

Steve Jobs, Mark Zuckerberg, Bill Gates, Enrique Dans…, son algunos nombres muy conocidos por su aporte al mundo de la informática y las nuevas tecnologías. No hay duda de su contribución, siendo alguno de ellos persona del año para la revista Time, y han llegado a ser conocidos por el gran público gracias a sus logros. ¿Quién no sabe lo que es un iPod/iPhone/iPad, o ha usado alguna vez Microsoft Office con un Windows?

Sin embargo, si digo nombres como, Richard Hamming, Edsger W. Dijkstra, Edgar F. Codd o Dennis M. Ritchie, entre otro, seguramente sepa mucha menos gente quiénes son y que han hecho. Los miembros de este segundo grupo también han realizado aportes en el mundo de la informática, más concretamente, en el de las ciencias de la computación. La diferencia entre estos dos grupos, es que los del segundo han ganado en alguna ocasión el premio Turing.

Los premios Turing son conocidos como el “Premio de Nóbel de las Ciencias de la Computación”. Son unos premios anuales que son entregados por la ACM (Association for Computing Machinery) a las personas que realizan aportaciones importantes en el campo de las Ciencias de la Computación.

El premio se entrega desde 1966 en Nueva York, y lleva el nombre de Alan Turing, un matemático e informático británico que es uno de los pioneros de las Ciencias de la Computación. Su vida y sus logros bien merecen uno o más post; simplemente como breve ejemplo, mencionar su contribución en el criptoanálisis para romper los códigos de la máquina Enigma en la Segunda Guerra Mundial.

De hecho, todos los que aparecen en el listado de ganadores del premio, se merecerían al menos un post para resumir brevemente algunas de sus contribuciones a la ciencia y la tecnología. Y es que gracias a sus aportaciones, se ha construido una base, y no hace muchos años, sobre la cual se han asentado las herramientas y utilidades que empleamos hoy de forma totalmente rutinaria.

El siguiente listado muestra los ganadores del premio Turing. (Fuente: www.wikipedia.org).

Galardonados con el Premio Turing
Año País Nombres Motivo
1966 Estadounidense Alan Perlis Por su influencia en las áreas de técnicas de programación avanzadas y construcción de compiladores.
1967 Británico Maurice Wilkes Por el diseño y construcción de EDSAC, la primera computadora de programa almacenado en memoria interna.
1968 Estadounidense Richard Hamming Por su trabajo en métodos numéricos, sistemas de codificación automáticos, y por el desarrollo de códigos de detección y corrección de errores.
1969 Estadounidense Marvin Minsky Por sus aportes en inteligencia artificial.
1970 Británico James Wilkinson Por sus investigaciones en análisis numérico para facilitar el uso de computadores digitales de alta velocidad.
1971 Estadounidense John McCarthy Por sus aportes al campo de inteligencia artificial.
1972 Holandés Edsger Dijkstra Por sus contribuciones a la “ciencia y arte” de los lenguajes de programación.
1973 Estadounidense Charles Bachman Por sus aportes a la tecnología de bases de datos.
1974 Estadounidense Donald Knuth Por sus contribuciones a análisis de algoritmos y el diseño de lenguajes de programación.
1975 Estadounidense

Estadounidense

Allen Newell

Herbert Alexander Simon

Por sus aportes en inteligencia artificial, la psicología de la percepción humana y procesamiento de listas.
1976 Alemán

Estadounidense

Michael Oser Rabin

Dana Scott

Por su trabajo en autómatas finitos, introduciendo la idea de máquinas no deterministas.
1977 Estadounidense John Backus Por sus contribuciones al diseño de sistemas de programación de alto nivel y por la publicación de procedimientos formales para la especificación de lenguajes de programación.
1978 Estadounidense Robert W. Floyd Por su influencia en metodologías para la creación de software eficiente y fiable, y por sus aportes en los siguientes campos: teoría de análisis sintáctico, semántica en lenguajes de programación, verificación automática de programas, síntesis automática de programas y análisis de algoritmos.
1979 Canadiense Kenneth E. Iverson Por sus pioneros esfuerzos en lenguajes de programación y notación matemática, dando como resultado APL.
1980 Británico C. Antony R. Hoare Por sus importantes contribuciones a la definición y diseño de lenguajes de programación.
1981 Británico Edgar F. Codd Por sus continuas e importantes aportes a la teoría y práctica de los sistemas de gestión de bases de datos, ideando el enfoque relacional de la gestión de bases de datos.
1982 Estadounidense Stephen A. Cook Por sus aportes en el campo de la complejidad computacional. Ideó los fundamentos de la teoría de NP-completitud.
1983 Estadounidense

Estadounidense

Kenneth L. Thompson

Dennis M. Ritchie

Por sus contribuciones al desarrollo de sistemas operativos en general y la creación de Unix en particular.
1984 Suizo Niklaus Wirth Por el desarrollo de una serie de innovadores lenguajes de programación como EULER, ALGOL-W, MODULA y PASCAL.
1985 Estadounidense Richard M. Karp Por sus contribuciones a la teoría de algoritmos, la identificación de problemas computables en tiempo polinomial y a la teoría de NP-completitud.
1986 Estadounidense

Estadounidense

John Hopcroft

Robert Tarjan

Por sus logros en el análisis y diseño de algoritmos y estructuras de datos.
1987 Estadounidense John Cocke Por su aporte a la teoría de compiladores, arquitectura de grandes sistemas y el desarrollo de juego de instrucciones reducido RISC.
1988 Estadounidense Ivan Sutherland Por sus aportes a la computación gráfica.
1989 Canadiense William (Velvel) Kahan Por sus contribuciones al análisis numérico, particularmente en computación en coma flotante.
1990 Estadounidense Fernando J. Corbató Por su trabajo liderando el desarrollo de CTSS y Multics.
1991 Británico Robin Milner Por tres logros:

  • Desarrollo del sistema LCF, probablemente la primera herramienta de demostración automática de teoremas.
  • Desarrollo del lenguaje ML, metalenguaje para escribir estrategias y tácticas en LCF. Primer lenguaje en poseer un sistema polimórfico de tipos con inferencia automatizada y manejo de excepciones seguro desde el punto de vista de tipos.
  • Desarrollo de un marco teórico para el análisis de sistemas concurrentes, el cálculo de sistemas comunicantes (CCS) y su sucesor, el pi-cálculo.
1992 Estadounidense Butler Lampson Por sus contribuciones al desarrollo de entornos distribuidos y la tecnología para su implementación: estaciones de trabajo, redes, sistemas operativos, sistemas de programación, monitores, publicación de documentos y seguridad.
1993 Estadounidense

Estadounidense

Juris Hartmanis

Richard Stearns

Por establecer los fundamentos del campo de la teoría de complejidad computacional.
1994 Estadounidense

Hindú

Edward Feigenbaum

Raj Reddy

Por el diseño y construcción de grandes sistemas de inteligencia artificial.
1995 Venezolano Manuel Blum En reconocimiento por sus aportes a los fundamentos de la teoría de complejidad computacional y su aplicabilidad a la criptografía.
1996 Israelí Amir Pnueli Por su trabajo introduciendo la lógica temporal en informática y por sus importantes aportes a la verificación de programas y sistemas.
1997 Estadounidense Douglas Engelbart Por su trabajo en computación interactiva.
1998 Estadounidense Jim Gray Por sus contribuciones en bases de datos, investigación en el procesamiento de transacciones e implementación de sistemas.
1999 Estadounidense Frederick Brooks Por sus contribuciones a arquitectura de computadores, sistemas operativos e ingeniería del software.
2000 Chino Andrew Chi-Chih Yao En reconocimiento de sus importantes aportes a la teoría de la computación, criptografía.
2001 Noruego

Noruego

Ole-Johan Dahl

Kristen Nygaard

Por su trabajo en los lenguajes de programación Simula I y Simula 67, que permitieron la aparición de la programación orientada a objetos.
2002 Estadounidense

Israelí
Estadounidense

Ronald Rivest

Adi Shamir

Leonard Adleman

Importantes aportes a la criptografía, en particular el algoritmo RSA.
2003 Estadounidense Alan Kay Pionero de la programación orientada a objetos y padre del lenguaje Smalltalk.
2004 Estadounidense

Estadounidense

Vinton Cerf

Robert Kahn

Por el protocolo TCP/IP.
2005 Danés Peter Naur Por sus contribuciones fundamentales en el desarrollo y definición del ALGOL 60, su diseño del compilador y el arte en la práctica de la programación.
2006 Estadounidense Frances Allen Por sus contribuciones que mejoraron fundamentalmente el rendimiento de los programas de computador y aceleraron el uso de sistemas de computación de alto rendimiento.
2007 Estadounidense

Estadounidense

Estadounidense

Edmund Clarke

E. Allen Emerson
Joseph Sifakis

Por su trabajo pionero en un método automatizado (llamado “model checking” en inglés) para encontrar errores de diseño en software y hardware.
2008 Estadounidense Barbara Liskov Por su contribución a los fundamentos teóricos y prácticos en el diseño de lenguajes de programación y sistemas, especialmente relacionados con la abstracción de datos, tolerancia a fallos y computación distribuida.
2009 Estadounidense Charles Thacker Por su contribución al desarrollo de Alto, el primer ordenador personal, así como de Ethernet y el Tablet PC.
2010 Británico Leslie Valiant Por sus transformadoras contribuciones a la teoría de la computación, incluyendo la teoría del aprendizaje probable, aproximadamente correcto, la complejidad de la enumeración y de la computación algebraica, y teorías de la computación paralela y distribuida.

Por destacar cuatro ejemplos de los ganadores del premio y algunos de sus éxitos:

  • Richard Hamming: Sus trabajos en los códigos para transmitir la información, incluídos los códigos correctores, que desarrollo a partir de 1946, se siguen empleando para la transmisión de datos en distintas redes de telecomunicaciones.
  • Edsger Dijkstra: A este holandes le debemos terminos como “Crisis del software”, que se empleo en la conferencia de la OTAN de 1968, el destierro de la sentencia GOTO en la programación, y algún algoritmo, como puede ser el algoritmo de Djikstra, que se describió en 1959. Cuando desde un dispositivo GPS, google maps o similares buscamos el camino entre dos puntos, se esta empleando al final una variante de este algoritmo. Su algoritmo lo usamos a menudo sin darnos cuenta.
  • Donald Knuth: Recibió el premio en 1978, y existe un premio con su nombre. Es muy conocido por su libro “The art of computer programming”, y si alguien es capaz de encontrar un error en alguno de sus libros, es recompensado con un dólar hexadecimal; 2,56 dolares. Podéis visitar su página web para saber más de él.
  • Edgar F. Codd: Este matemático creo los fundamentos de las Bases de Datos Relacionales, una herramienta básica que almacena información y sin la que no se podrían entender los sistemas actuales. Todavía me acuerdo del cuando murió en 2003, poco después de que empezara a conocer sus aportaciones.

Creo que es necesario que de vez en cuando nos acordemos de quienes trabajaron y siguen trabajando en esa parte más de ciencia y menos comercial que existe en el mundo de la informática.

Y para terminar, una pregunta: ¿A cuál de los premiados valoras más por sus contribuciones a las ciencias de la información? ¿Destacarías algún éxito concreto?

http://es.wikipedia.org/wiki/Bill_gates

Publicado por el 23 mayo, 2011 en Tecnología | 5 comentarios

La nueva edad de los imperios

Han pasado ya más de trece años desde que Ensemble Studios revolucionara, de la mano de Microsoft, el género de la estrategia en tiempo real con Age of Empires. A éste le seguirían una segunda y tercera parte, con varias expansiones cada una, formando una saga que se ha convertido por méritos propios en una de las más relevantes de la historia del videojuego y también en una de las más vendidas, superando los 20 millones de copias en todo el mundo.

Age of Empires Online

El que fuera en su día un clásico del juego en red que robó horas de sueño a buena parte de una generación (“¿echamos un Age?”) regresa en 2011 convertido en Age of Empires Online, una versión específica para disfrutar online a través de internet que pretende reinventar la experiencia de juego manteniendo la esencia y promete muchas horas de divertidas guerras entre imperios. AOE Online , primer juego de Robot Entertainment, empresa abanderada por el fundador de Ensemble Studios, combinará la estrategia en tiempo real con juego multijugador masivo, existiendo misiones y un sistema de niveles, y potenciará la interrelación entre jugadores, la diplomacia y el comercio. Presentará una sorprendente estética de dibujos animados, incorporando algunas novedades, como la existencia de una ciudad capital y, algo realmente destacable, se basará en un modelo de juego gratuito, aunque existirán packs premium con extras que podrán ser adquiridos previo pago.

En este enlace es posible obtener un código para participar en el testing de la versión beta, que cuenta con las civilizaciones egipcia y griega, y poder ver de primera mano el funcionamiento del nuevo AOE. Para ello será necesario instalarse el cliente de Games for Windows – LIVE y crearse un gamertag para poder acceder al área de juego online. Tras esto se rellenará cierta información de usuario y se introducirá el código promocional, que nos permitirá descargar los elementos necesarios para jugar.

Buena noticia. Ha vuelto un mito.

Age of Empires Online Gameplay Trailer [HD]

Publicado por el 5 mayo, 2011 en Tecnología | 2 comentarios

Telescopio de uso libre a través de Internet

Los aficionados a la astronomía están de enhorabuena.

Desde el Instituto de Astrofísica de Canarias (IAC) se coordina esta iniciativa para que cualquier mortal, con acceso a Internet, pueda observar el espacio exterior mediante un telescopio robótico. En el observatorio del Teide está situado el Telescopio Abierto Divulgación TAD

TAD Telescopio Abierto de Divulgación

TAD Telescopio Abierto de Divulgación

 No se ha concebido exclusivamente como un telescopio para uso profesional, sino que puede ser controlado de forma remota, de manera libre y gratuita mediante la página del telescopio

El día de apertura será el próximo 1 de julio de 2011.

Tal y como se comenta desde fayerwayer, se realizarán una serie de serie de charlas virtuales y gratuitas en las próximas semanas, con temas como el apuntado y observación con un telescopio robótico, astronomía con webcams o astrofotografía con CCD, la cámara que incorpora TAD.

Para apuntarse sólo hay que acceder a Astroaula e inscribirse para ello. Las charlas son limitadas a 50 personas por lo que no hay tiempo que perder, si te apetece probar la experiencia adelante.

Se agradece que en este mundo consumista, existan iniciativas para proporcionar herramientas a las que no todo el mundo puede tener acceso, sobretodo si son de forma gratuita y altruista.

Publicado por el 3 mayo, 2011 en Tecnología | 3 comentarios

La nube: el desafío de una idea

“Del inglés Cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Internet. La nube es una metáfora de Internet.” Wikipedia dixit.
Ésta es una posible definición de lo que se entiende por “computación en la nube”, término cada vez más oído en los círculos tecnológicos, en la que se presenta el concepto el software como servicio (Software as a Service, SaaS). Pero ¿qué es realmente la nube y qué ventajas aporta?

La nube está sobre nosotros en nuestro día a día, cuando etiquetamos nuestras fotos en Facebook, guardamos algunos pdfs interesantes en nuestra cuenta de Dropbox o compartimos una hoja de cálculo en Google Docs y muchos la definen sin ninguna duda como el enfoque de gestión de tecnologías de la información para el futuro (¿o ya es presente?)
El concepto de la orientación a la provisión y el consumo de servicios en red es un punto central en el paradigma. Y en este contexto es relevante la separación de responsabilidades entre clientes y proveedores, siendo el objetivo último de este esquema el acceso por parte de los usuarios a su información desde cualquier medio de la red internet y a través de servicios.

Hoy en día existen escritorios web, como eyeOS o Cloudo, (¿podrían considerarse sistemas operativos?) sobre los que podemos trabajar desde cualquier punto de acceso a internet, así como sistemas operativos pensados para funcionar en netbooks e integrarse con aplicaciones en la nube (como las distribuciones Jolicloud o gOS, basadas en Ubuntu) y plataformas de servicios como Google Apps (la plataforma de servicios para empresas de Google que ya utilizan más de tres millones de compañías en todo el mundo), Amazon EC2 (servicio basado en tecnologías de virtualización para ofrecer servidores y capacidad de computación bajo pago) o Windows Azure (la plataforma de Microsoft para que los desarrolladores creen aplicaciones en la nube)

Google Apps

Fuente: lainterweb..net

Sin ánimo de hacer un repaso exhaustivo, algunas de las ventajas del modelo basado en la nube (facilidad de integración, ubicuidad en el acceso, eficiencia, simplicidad, reducción de costes e inversiones iniciales…) saltan a la vista. Sin embargo, la nube también tiene zonas sombrías (que podrían descargar alguna precipitación), fundamentalmente en lo referente a la seguridad, la privacidad y el rendimiento.

Las amenazas potenciales sobre los datos que no están en los PCs y servidores de los propios usuarios u organizaciones son algo a tener presente y una de las principales preocupaciones generales, aunque posiblemente sea discutible si la inseguridad es mayor en la nube que en los entornos tradicionales. Otro reto tiene que ver con la privacidad y la legislación asociada a la nueva realidad que se presentará, por no hablar de dos conceptos, el control de la información por grandes corporaciones y gobiernos, y la censura, que se recogen profusamente en infinidad de obras de ciencia ficción ambientadas en un futuro de alta tecnología e interconexión global. Muy recomendable a este respecto el artículo La seguridad en el éter, publicado por Technology Review.

En cuanto a las empresas, es evidente que la nube ofrece nuevas oportunidades, especialmente a las PYMES, por el posible ahorro de costes y la facilidad de integración. En cualquier caso supondrá un cambio de cultura y una transformación en la forma de ver las infraestructuras de servicios empresariales. Y parece que este nuevo enfoque ya se está extendiendo en España.

Cloud computing

Fuente: nuevastecnologias.com

Como ejemplo de iniciativa en la nube surgida en España podemos encontrar eyeOs, escritorio virtual open source accesible vía web, que permite gestionar nuestra información y ejecutar varias aplicaciones desde cualquier navegador. Su última versión, adaptada para dispositivos móviles, y que apuesta por HTML5 desterrando a Flash, puede ser descargada gratuitamente e instalada en cualquier servidor web. En esta entrevista uno de los fundadores de eyeOs nos cuenta más cosas sobre el proyecto.

Para algunos, sin embargo, la nube no deja de ser una moda, con importantes riesgos para la seguridad de la información, dependencia de unos pocos proveedores grandes (problemas de Amazon EC2 dejaron fuera de combate a muchos servicios de internet hace una semana) y sometida a imprevistos muy terrenales. Sea como fuere, la nube ya está aquí.

Publicado por el 28 abril, 2011 en Tecnología | 2 comentarios