Búsqueda personalizada

domingo, 15 de mayo de 2011

Historia de la computación

La Computación surgió ante la necesidad de realizar cálculos laboriosos, aunque de naturaleza sencilla. Las Matemáticas involucradas en su desarrollo han llegado a ser tan complejas que actualmente una computadora es capaz de demostrar un teorema.

Computadora” es una palabra que, de momento, no figura en el diccionario de la Real Academia. Según el diccionario María Moliner, “computar” significa “contar”, o “medir o expresar una magnitud con ciertas unidades o medidas”. En inglés, el término computer significa literalmente “calculador”. Según esto, una historia de la Computación debería hacer referencia a objetos capaces de hacer un cálculo, en el sentido de hacer cuentas (operaciones aritméticas) de forma automática. De manera que, en este contexto, vamos a utilizar el término “computadora”, en un sentido genérico, para expresar un dispositivo al que se le dan unos datos de entrada (Input) y del que esperamos un resultado, o sea unos datos de salida (Output).Según este criterio la historia de la computación tendría su origen en el 500 a. de C. con la aparición del ábaco.

El nivel de automatismo y la complejidad de las operaciones efectuadas son dos factores determinantes en el desarrollo de la Computación. La diferencia entre tener que mover las fichas de un ábaco con la mano o que esta acción la lleven a cabo dispositivos electromecánicos, señala un avance tecnológico. Que el dispositivo en cuestión esté diseñado para efectuar sumas en las que intervienen números de varios dígitos o que sea capaz de resolver ecuaciones diferenciales, también es un problema técnico aunque de otra naturaleza.

En cualquier caso, los dispositivos de cálculo surgen ante la necesidad de aliviarnos del penoso trabajo de tener que realizar tareas de cálculo totalmente mecánicas en las que no se exige pensar, sino llevar a cabo un proceso absolutamente rutinario y susceptible, por tanto, de responder a las instrucciones de un programa.

Es obvio que las Matemáticas van a jugar un papel absolutamente esencial en todo este asunto ya desde los mismos inicios. Sea un conjunto de piedrecillas (cálculos), un ábaco, la máquina de Babbage o el Mare Nostrum de IBM, para hacer una suma necesitamos primero un algoritmo, unas reglas de juego que nos especifiquen claramente cómo se suman dos números.

Actualmente, la historia de la Computación suele dividirse en cuatro apartados, a los que se califica de generaciones. Según esto se puede hablar de computadoras de primera generación, de segunda generación, etc; aunque todo ello preludiado por un largo período en el que se desarrollaron iniciativas muy importantes, la mayoría de las cuales fracasaron parcialmente debido a problemas tecnológicos, una época a la que algunos autores denominan la Era Mecánica.

La Era Mecánica

Si los inicios de la Era Mecánica hay que hacerlos coincidir con la aparición de mecanismos en los que, una vez introducidos los datos, sólo interviene la máquina hasta la obtención del resultado, no deberíamos incluir en ella ni al ábaco y ni a las varillas de Napier (1550-1617), pero sí marcar su principio con la aparición de la “pascalina” en 1632, una máquina construida por B. Pascal (1623-1662) y con la que se podían llevar a cabo sumas sencillas.

El siguiente paso importante lo daría Leibniz (1646-1716) al construir una máquina que, en teoría, ya era capaz de realizar las cuatro operaciones, y en la que sobre todo hay que destacar el haber incluido en su diseño un sistema binario, que sería el predecesor de los actuales bits de “unos y ceros”. Estas máquinas calculadoras y otras que aparecieron posteriormente fracasaron porque los elementos mecánicos que la formaban simplemente no funcionaban.

A diferencia de las ciencias básicas, en las que la aportación de una sola persona puede producir un resultado sorprendente, en tecnología el desarrollo suele ser más lento y se produce de forma escalonada. Fabricar mecanismos de ruedas dentadas, ejes y acoplamientos, no sólo requiere un diseño adecuado, sino también de una industria capaz de fabricar la piezas.

Ésta es la razón por la que las famosas máquinas, analítica y diferencial, de Charles Babbage (1791-18171), estuvieron también condenadas al fracaso. Una buena prueba de ello es que actualmente se han construido, con ánimo museístico, máquinas de Babbage que funcionan perfectamente. Aún así, se considera a estas máquinas como el gran hito de la Era Mecánica de la Computación, especialmente si se contemplan junto a la presencia de Ada Augusta Byron, condesa de Lovelace, responsable del primer lenguaje de programación de la historia, que significó la aparición de un elemento decisivo a tener en cuenta en la evolución de la Computación, lo que actualmente entendemos por software, el programa.

A partir de entonces, la computadora va a tener “cuerpo y alma”, es decir, hardware y software. En este aspecto, 1854 es también una fecha señalada, pues es la de la publicación de Las leyes del pensamiento del matemático George Boole, obra en la que tiene lugar el nacimiento de la llamadas Álgebras Booleanas, una nueva Álgebra de la Lógica en la que las variables sólo pueden tomar dos valores, cero y uno, y en la que operan tres funciones elementales, AND (y), OR (o) y NOT (no), en base a las que se construirán las futuras puertas lógicas de las modernas computadoras.

En esta época que precede a las diferentes generaciones de computadoras, hay que hacer una especial mención al año 1801, fecha en que aparece el telar automático del francés Joseph Jacquard (1752-1834), basado en una serie de tarjetas perforadas capaces de conservar una determinada información de procesos repetitivos.

Primera Generación

La Primera Generación de computadoras está marcada por la aparición de nuevos elementos electromecánicos, los relés y posteriormente las lámparas de vacío, y por un fuerte impulso a nivel estrictamente teórico de lo que iban a ser las nuevas ciencias de la computación. Se suele datar el inicio de la nueva generación en 1890, coincidiendo con el censo de la población que el gobierno de los Estados Unidos quería llevar a cabo y para el cual tenía previsto una duración de diez años. Con el dispositivo de Herman Hollerith (1860-1929), basado en las tarjetas perforadas de Jacquard para el hardware y en las álgebras de Boole para el software, el censo se llevó a cabo en un tiempo récord de dos años. A raíz de este trabajo, se fundó en 1924 la primera empresa dedicada a la fabricación de este tipo de máquinas calculadoras, la International Business Machines Corporation (IBM).

Pero el primer computador en el sentido más moderno que le damos a este término, fue el ENIAC, originalmente diseñado para calcular trayectorias balísticas y construido en 1946 en la Universidad de Pennsylvania, bajo el asesoramiento de John von Neuman, al que sin duda debe considerarse como uno de los padres de la Computación, ya que fue quien ideó por primera vez una arquitectura gracias a la cual cualquier programa pudiera ser rediseñado en la misma memoria de la máquina. Actualmente todos los computadores funcionan según la arquitectura Von Neumann.

Como dato curioso, añadiremos que el ENIAC pesaba 32 toneladas. Funcionaba con 17.468 válvulas que disipaban tanto calor que la temperatura de la habitación en la que estaba ubicado podía subir fácilmente hasta los 50ºC. Pero su defecto fundamental era que para cambiar un programa se necesitaba reconfigurar sus circuitos, de forma muy parecida a como lo hacían las telefonistas en las antiguas centralitas, en una operación que podía llevar varios días.

Segunda Generación

La función básica de un relé o de las válvulas de vacío era la de permitir o no el flujo de una corriente, que no es más que la materialización física del cero y el uno de las Álgebras de Boole. 1947 es, en este sentido, una fecha clave, ya que Bardeen, Walter Brattain y William Shockley inventan el transistor (por el que les fue otorgado el Premio Nobel de Física nueve años después).

La sustitución de las válvulas de vació por el transistor supuso mayor velocidad, menor tamaño, menor disipación de calor y un coste muy inferior, ya que la materia prima, el silicio (de lo que está formada la arena de playa) es muy abundante. El siguiente gran avance fue la aparición en 1959 de los primeros circuitos integrados, una tecnología mediante la cual se podían implantar en una pastilla metálica varias componentes, todas interconectadas entre sí. Había nacido el chip, y con él se había producido el pistoletazo de salida para una carrera en la que la miniaturización y el bajo coste iniciaban su asombroso crecimiento exponencial.

Pero todo esto hubiera sido de muy poca utilidad sin una evolución paralela del software. En 1950, el matemático inglés Alan Turing publicó en la revista Mind un artículo titulado Computing Machinery and Intelligence, en el que se establecían las bases de lo que se conoce como la “máquina de Turing”, la teoría sobre la que se habrían de basar todos los futuros programas informáticos. Éstos fueron sucediéndose en cadena a partir del primer compilador que dio lugar al COBOL, al LISP y más tarde el lenguaje ALGOL. Simultáneamente, tuvieron lugar importantes avances matemáticos en el área de los algoritmos, especialmente gracias a los trabajos de Edsger Dijkstra con el establecimiento de los recorridos minimales en la Teoría de Grafos.

Tercera Generación

La Tercera Generación está marcada por la progresiva miniaturización de los circuitos integrados y los revolucionarios diseños de S. Cray, que en 1964 ya había dado a luz a un computador capaz de realizar un millón de operaciones por segundo, velocidad que se multiplicaría por diez tan sólo cinco años después. En 1971 Intel lanzaba al mercado su primer microprocesador, el 4004, capaz de realizar 60.000 operaciones por segundo, cifra que rápidamente sería doblada por el 8008.

También en los años sesenta aparece el lenguaje de programación PASCAL y los primeros diseños en Inteligencia Artificial. Hasta entonces las grandes computadoras eran de uso exclusivo de instituciones gubernamentales o militares, pero la fabricación del primer microcomputador de la historia, Altair 8800 en 1975, empezó a abrir las puertas a muchos sectores del la industria y el comercio. Fue la época en la que el responsable de una gran negocio, un aeropuerto o un hospital, podía afirmar, no sin cierto orgullo, que “todo esto que ves aquí lo lleva una computadora”.

Cuarta Generación

La Cuarta Generación es la de los PC’s, los Computadores Personales, que tuvo su origen en 1981 con el lanzamiento al mercado del primer Personal Computer de IBM. Anteriormente, los microcomputadores de Altair adolecían del tremendo defecto de que se procesaban en lenguaje máquina, lo que suponía por parte del usuario conocimientos avanzados en informática.

Fue entonces cuando Bill Gates y Paul Allen crearon un programa en BASIC que era capaz de correr en el Altair. Se trataba de un sistema operativo sencillo de manejar y sumamente eficaz, que les permitió financiar su propia empresa, a la que llamaron Microsoft. Antes de la aparición del primer IBM, Wozniak y Steve Jobs habían construido el Apple Computer, en el que habían incorporado color en los gráficos. Además, tuvieron la genial y sencilla ocurrencia de introducirlo todo en una carcasa de plástico. Era el antecesor del Macintosh, el primer PC que utilizaba un ratón y una interface gráfica. Una auténtica revolución en el mercado.


La nube contra la tierra

O dicho de otra forma: la computación tradicional de escritorio contra la nueva computación que propone Google para el día a día, y que se ha dado en llamar computación "en la nube". Así que yo, por contraposición de ideas, me referiré a la computación tradicional en el resto de este artículo como computación "en la tierra". Pero como diría Jack el Destripador, vayamos por partes.
Google acaba de presentar Chromebook, o lo que es lo mismo, lo que todos llamaríamos el notebook de Google. Aunque la empresa se ha empeñado ya en dejar claro que no es un notebook "tradicional" (palabra que está empezando a perder su significado original, ya que se está entendiendo por "tradicional" un producto que hace 5 años no existía). En cualquier caso, sí que es verdad que la nueva máquina no sigue el concepto que todos tenemos en la cabeza cuando nos hablan de un notebook. Lo primero, y lo más impactante a primera vista para mí, es sin lugar a dudas que no tiene disco duro. Y dirán ustedes, ¿como es posible? Pues sí, es posible. Obviamente tiene una memoria flash que hace las funciones de disco duro, pero lo que sí es cierto, y esta vez sin mentira alguna o verdades a medias, es que no se especifica su capacidad. Y esto es simplemente porque Google pretende que toda nuestra tarea con este nuevo artilugio se base en el uso de Internet. Es decir, que almacenemos nuestras fotos en Picasa o en Facebook, que guardemos nuestros documentos en Google Docs, etcétera.

Obviamente, tiene cosas buenas. Prometen que arrancará en 8 segundos, que su batería durará en activo más de 8 horas y en reposo más de 8 días. Es decir, dicen que será súper rápido y súper eficiente. Y la verdad es que no lo dudo, pero el hecho de que esté pensado para utilizarse con Internet sí o sí no termina de convencerme. Parece que han dejado la posibilidad de utilizar las aplicaciones también en modo offline, pero como si eso fuera un sacrificio para la empresa. También parece que se actualizarán solos cada vez que se enciendan y estén conectados a Internet, por lo que según afirman sus creadores, la configuración que necesitarán será prácticamente nula. Y por último, está el sistema operativo, Chrome OS. Ha sido desarrollado desde cero y siempre pensando en la seguridad. Lo que más ha llamado la atención a todos los expertos que estuvieron en la presentación, es que no tienen antivirus, porque según Google "no lo necesita". El tiempo dirá si llevan razón o no, porque esto ya me parece más difícil de creer simplemente porque lo diga alguien, aunque ese alguien sea Google.

Chomebook son en realidad dos equipos distintos, uno será fabricado por Samsung y el otro por Acer. Son marcas de renombre, de eso no hay lugar a dudas, aunque la elección de Acer no me gusta demasiado. Estas son sus características técnicas:

Samsung Chromebook:
Pantalla de 12,1
3,26 lb / 1,48 Kg
Más de 8,5 horas de uso continuado1
Procesador Intel® AtomTM Dual-Core
Wi-Fi con banda doble y 3G World-mode (opcional) integrados
Webcam de alta definición con micrófono con cancelación de ruido
2 puertos USB 2.0
Ranura para tarjeta de memoria 4 en 1
Minipuerto VGA
Teclado Chrome de tamaño estándar
Panel táctil completamente interactivo de gran tamaño

Acer Chromebook:
Pantalla panorámica LCD CineCrystalTM de alta definición de 11,6 pulgadas
3,19 lbs | 1,45 kg
Más de 6 horas de uso continuado1
Procesador Intel® AtomTM Dual-Core
Wi-Fi con banda doble y 3G World-mode (opcional) integrados
Webcam de alta definición con micrófono con cancelación de ruido
Compatibilidad con audio de alta definición
2 puertos USB 2.0
Ranura para tarjeta de memoria 4 en 1
Puerto HDMI
Teclado Chrome de tamaño estándar
Panel táctil completamente interactivo de gran tamaño

Sobre estas características me llaman la atención varias cosas. La primera es que no se especifica la velocidad del procesador en ninguna de las dos versiones. Además, teniendo en cuenta que intentan venderlo como un producto de ultimísima tecnología, es curioso que no tengan puerto USB 3.0, pero sobre todo me decepciona que el Samsung no tenga salida HDMI. También falta por especificar si las pantallas son multitáctiles, y si no lo pone, se puede suponer que no lo son.

En España se podrá reservar en Pixmanía a partir del 15 de Junio. Se espera que los equipos ronden los 500 euros, y que se podrá contratar con Movistar un servicio de Internet 3G para el que ya vendrá configurado el equipo.

Como resumen y a modo de conclusión, solo me queda decir que la computación "en la nube" tiene muchas ventajas, y utilizada de manera óptima puede funcionar muy bien y puede tener grandes aplicaciones. Todos los sistemas distribuidos a través de Internet son un claro ejemplo de ello. Pero intentar promover que ahora de repente pasemos a tener "máquinas tontas" (exagerándolo, obviamente) como si no hubiera tecnología puntera al alcance de los bolsillos domésticos que pueda funcionar en nuestro salón con o sin red, me parece una barbaridad. Es verdad que la red llega ya a casi cualquier punto del mundo, pero creo que aún es pronto para llevarlo hasta el extremo de hacerla indispensable para que el ordenador de funcione de verdad. Tanto es así que la propia empresa nos advierte lo siguiente en la página oficial de las características:

* Es evidente que necesitarás una red inalámbrica, por lo que deberás utilizarla respetando los términos y condiciones del proveedor y tendrás que estar preparado para afrontar las limitaciones cotidianas de la red, incluidas, por ejemplo, la velocidad y la disponibilidad. Cuando no dispongas de acceso a la red, las funciones que dependan de ella no estarán disponibles.

Supongo que pretenden que olvidemos que existen grandes discos duros donde almacenar nuestra colección multimedia, que hay geniales tarjetas gráficas (un ejemplo) que mueven unos gráficos espectaculares y que existen procesadores de cuatro núcleos capaces de realizar cálculos que un hombre casi no puede ni imaginar. Aunque más bien, puede que supongan, aunque no lo digan, que ya todos tenemos un gran disco duro externo y que no necesitamos uno nuevo dentro de este equipo doméstico, así que directamente se han ahorrado el coste de ponerlo ahí. Posiblemente esto es verdad, pero el almacenamiento no es ni mucho menos el mayor de los problemas. Los sistemas operativos Windows desde luego no son (por lo general) un ejemplo de grandes productos informáticos, pero sí lo son muchísimas aplicaciones de las millones que se han desarrollado para ella desde hace muchos años, muchas de ellas además gratuítas. ¿De verdad pretenden que dejemos de utilizar todas nuestras aplicaciones de escritorio? Yo al menos no estoy dispuesto a hacerlo. Si hay que elegir entre los dos extremos para utilizarlos en el día a día, yo me quedo con la "computación en la tierra" utilizando Internet simplemente a modo de fuente de información, y no como almacén o como procesador.


Google quiere revolucionar las computadoras


Los dos modelos presentados saldrán a la venta el 15 de junio en EE.UU., España, Reino Unido, Francia, Alemania, Italia y Holanda.

Google lanzó dos computadoras portátiles basadas en su nuevo sistema operativo Google Chrome OS que representan "un nuevo modelo de computación", según las palabras de Sergey Brin, cofundador de la empresa.

Los dispositivos basan su funcionamiento completamente en la web, en vez de apostar por un disco duro.

La empresa dice que llegara a más mercados "en los próximos meses".

El objetivo de Google es motivar a las personas a que utilicen aplicaciones web (como sus productos Gmail o Google Docs) en vez de utilizar software convencional. La empresa asegura que la gente pasa la mayor parte del tiempo en la web y que la mayoría de las cosas que la gente hace en una computadora se pueden realizar en línea.

El gigante de internet aseguró que sus ordenadores, llamados "Chromebooks", no están cargados con los programas costosos que se hallan en otros computadores, por lo que se encienden en sólo ocho segundos en vez de hacerlo en varios minutos.

La compañía también dice que la vida de la batería del dispositivo dura un día y sus actualizaciones de seguridad se realizarán automáticamente y más rápido que los productos de la competencia.

"Es una forma mucho más fácil de entrar en la computación y Chromebook se aventura en un nuevo modelo de computación que no creo que fuera posible alcanzar hace unos pocos años", aseguró Brin.

"A fin de cuentas el tiempo es lo más valioso que tiene un usuario. Creo que la complejidad de administrar las computadoras es algo que tortura a muchos usuarios. Es un modelo fracasado y creo que Chromebook representa un nuevo modelo que marcará un nuevo camino", añadió Brin.

"Sólo en la web"

Google cree que sus computadoras podrían ahorrarle dinero a los negocios.

Antes de presentar los modelos finales de sus computadoras portátiles, Google realizó pruebas con un millón de programadores, periodistas, escuelas y negocios.

"La mayoría de la gente pasa todo el tiempo en la web y por primera vez hemos concluido que toda la experiencia en las computadoras se basa sólo en en la web", aseguró a la BBC Sundar Pachai, vicepresidente de Chrome.

"De punta a punta creo que la experiencia con la computadora será mucho más fácil, simple y rápida", dijo.

Algunos analistas, sin embargo, mostraron su escepticismo ante la posibilidad de que los consumidores adopten una tecnología que se aleja de las normas convencionales.

"Creo que es el futuro de la computación, pero no estoy totalmente convencido de que es el presente", dijo Steven Levy de la revista Wired.

"Probé un prototipo anterior y encontré problemas de conectividad. No fue una experiencia tan buena como a lo que estoy acostumbrado", dijo.

Su opinión contrasta con la del blog de tecnología Engadget que, tras probar el modelo final, aseguró: "La máquina se sintió decididamente rápida y fue capaz de manejar tres ventanas simultáneas con diez paneles cada una sin que se trabara".

¿Una cuestión de precio?

Google asegura que su navegador Chrome -base de sus computadoras- es usado por 160 millones de personas.

La máquina más barata -un modelo de Acer sólo con conexión WiFi- costará US$350, en tanto que la más cara -un modelo de Samsung con WiFi y 3G- se venderá en US$499.

El precio, según Michael Gartenbe analista de la empresa Gartner, podría ser un obstáculo para el producto.

"El hardware se ve interesante, pero el problema que enfrentarán Google y sus socios será el convencer a las personas de que gasten US$499 en un dispositivo que se ve como una laptop, pero hace menos cosas", aseguró a la BBC.

"Una laptop de US$499 también puede ejecutar Chrome y sus apps. Creo que la gente no sólo esperaba que Google presentara una innovación computacional, sino también una innovación de precio y por US$349 o US$499 será difícil venderla a los consumidores", agregó.

Otros analistas creen que la gran oportunidad para Google es el mercado de las escuelas y las empresas, dominado hasta ahora por Microsoft.

Si el buscador convence a estos sectores de que al usar sus equipos se ahorrarán una gran cantidad de dinero en software, el mercado podría cambiar, aseguró Ina Fried, editora del sitio de tecnología "All Things Digital".

El buscador ofrecerá un plan especial para negocios e instituciones educativas que podrán comprar su computadora, servicios y aplicaciones por US$28 y US$20 al mes, respectivamente, siempre y cuando firmen un contrato por tres años.

Google asegura que a lo largo del año más fabricantes lanzarán Chromebooks a distintos precios.

No hay comentarios:

Publicar un comentario