Jueves, 29 de Noviembre de 2012 11:51

Cesar Hervás analiza la historia de la computación en el Foro Synthesis

GC/FS
Califica este artículo
(4 votos)
César Hervás César Hervás GC/FS


La Historia de la Computación, analizada por el catedrático de la Universidad de Córdoba, Cesar Hervás, ha constituido el nucleo central de una nueva sesión del Foro Synthesis celebrada el pasado martes. En ella Hervás repasó algunas de las máquinas para calcular más significativas y su incidencia científica hasta la moderna computacion cuántica.

 

César Hervás Martínez es Catedrático de la UCO del Área de Ciencias de la Computación e Inteligencia Artificial del Departamento de Informática y Análisis Numérico. También ha impartido docencia en las Universidades de Sevilla, Granada, Málaga, Complutense de Madrid, La Sapienza de Roma, Santa Clara (Las Villas, Cuba) y la UCI de La Habana (Cuba). Ha dirigido 15 tesis doctorales y más de 15 proyectos de investigación financiados por el Plan Nacional de I+D+i y por la Junta de Andalucía. Ha publicado más de 100 trabajos de investigación en revistas con índice de impacto y ha participado como ponente en numerosos congresos internacionales y nacionales


En su intervención Hervás explicó cómo a mediados del siglo pasado se encontraron vestigios de que el hombre desde tiempo inmemorial ha intentado construir máquinas o artefactos que le ayudarán a contar. Así, en 1960 se encontró a orillas del lago Eduardo (Zaire, África) un artefacto que luego se bautizó como hueso Ishango y que ha sido considerado por muchos como el primer documento matemático de que se tiene noticia. Este hueso data de unos 10.000 años .C. y contiene tres columnas de marcas que fueron hechas con 39 herramientas diferentes, lo que ha hecho pensar a los arqueólogos que se usó para llevar el registro de alguna actividad. Por otra parte, en 1959 el investigador Derek de Solla Price publicó sus conclusiones acerca de un mecanismo encontrado en un barco hundido y lo llamó Mecanismo de Anticitera. Este mecanismo es una computadora analógica cuya construcción parece remontarse al año 87 a.C. y consta de una serie de 30 engranajes diferentes que fueron fabricados en bronce. También se sabe que se construyeron diferentes dispositivos analógicos en la Antigüedad, sobre todo con fines astronómicos.


Uno de los dispositivos más antiguos que se conocen es el Astrolabio, cuyos orígenes parecen ubicarse en el siglo I a.C. en la Escuela de Alejandría de Grecia. Un salto importante en la computación se dio a principios del siglo XVII. De esta forma hacia el año 1614, el matemático escocés John Napier publicó la obra “Rabdología”, donde refería su invento de un dispositivo (los huesos de Napier) para auxiliarse en sus multiplicaciones y que utilizó para calcular la primera tabla de logaritmos que él inventó. Por otra parte, el clérigo inglés William Oughtred inventó en 1622 la que ha sido una de las computadoras analógicas más famosas de la historia, la regla de cálculo, la cuál, tras múltiples mejoras, se ha mantenido en uso hasta hace unas decenas de años en prácticamente todo el mundo.

 

Blaise Pascal ideó en 1640 una máquina de cálculo mecánica, la cual terminó en 1642 y a la que se conoce como Pascalina. Pascal intentó comercializar su máquina, y llegó a producir 50 copias, pero sólo se vendieron 15. Para terminar con los inventos más significativos de este siglo cabe destacar que Samuel Morland inventó tres tipos diferentes de aparatos para calcular: una máquina para  cálculos trigonométricos, una versión mecánica de los huesos de Napier y una suma mecánica y publicó en 1673 el libro “Description and Use of Two Arithmetic Instruments”, donde describía el funcionamiento de las dos últimas.


El siguiente avance significativo en el diseño de mecanismos de computación se centra en el siglo XIX, cuando en 1821 Charles Babbage construye un prototipo de “Máquina Diferencial” que usaba el método de diferencias que empleó de Prony para construir las tablas de pesos y medidas implantadas en Francia, con capacidad para resolver polinomios de segundo grado. Su trabajo “Observaciones en la aplicación de la Máquina al Cómputo de Tablas Matemáticas” obtuvo la medalla de oro de la Royal Society. Babbage entre 1833 y 1842, intentó construir una máquina que fuese programable para hacer cualquier tipo de cálculo. Ésta fue la Máquina Analítica. El diseño se basaba en el telar de Joseph Marie Jacquard, el cual usaba tarjetas perforadas para determinar como debía realizarse una costura. Adaptó su diseño para conseguir calcular funciones analíticas.


No fue hasta la segunda guerra mundial cuando el impulso a la Ciencia de la Computación se hizo más patente y sostenido. De esta manera, en 1943, en plena guerra mundial John Von Neumann se empezó a interesar por la computación para poder diseñar máquinas que aceleraran los cálculos asociados al proyecto Manhattan. Von Neumann  anticipó la teoría de autómatas celulares y defendió la adopción del bit como una medida de la memoria cibernética. Contactó con los investigadores de proyectos para desarrollar computadoras de la Universidad de Harvard; de los laboratorios Bell; de la Universidad de Columbia. También contactó con Presper Eckert y John W. Mauchly, de la Universidad de Pensilvania, que estaban desarrollando la máquina llamada ENIAC. Durante y después de la segunda Guerra Mundial, sus valiosas contribuciones incluyeron:


 Una propuesta del método de implosión para llevar el combustible nuclear a la
explosión.
 Participación en el desarrollo de la bomba de hidrógeno.
 Contribución al desarrollo de computadoras electrónicas a gran escala.


Konrad Zuse (Berlin 1910-1995) fue un pionero de la computación. Su logro más destacado fue terminar la primera computadora controlada por programas, la Z3 en 1941. La computadora Z3 era una calculadora binaria, que tenía programabilidad con ciclos, pero sin saltos condicionales, con memoria, y una unidad de cálculo basada en relevadores telefónicos, que eran en gran parte recogidos como desperdicios. Uno de los últimos hitos en la computación, es la Computación Cuántica basada en un ordenador cuántico, que es aquél que utiliza las leyes de la Mecánica Cuántica para resolver problemas. Estas leyes son del siguiente tipo:


 Las cosas no están definidas a menos que las observes.
 Un animal puede por tanto estar vivo y muerto a la vez.
 Un animal deja de estar vivo y muerto a la vez cuando uno lo observa.


La computación cuántica es un paradigma de computación donde la unidad fundamental de almacenamiento es el bit cuántico o qubit, donde cada bit cuántico puede tener múltiples estados simultáneamente en un instante determinado. Está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la tele-transportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Tres de los investigadores más prestigiosos en este campo son los premios Nobel 2012 Serge Haroche y David J. Wineland, y el español Ignacio Cirac Sasturiain.


Un párrafo aparte merece la computación software, y en este aparte, la computación y algoritmos bioinspirados o socialmente inspirados. En concreto, uno de los últimos paradigmas es la inteligencia inspirada en enjambres de partículas que emerge a partir de un grupo de agentes simples. Son algoritmos o mecanismos distribuidos de resolución de problemas inspirados en el comportamiento colectivo de colonias de insectos sociales u otras sociedades de animales. Los sistemas de enjambres inteligentes muestran que:


 La complejidad y sofisticación de la auto-organización se lleva a cabo sin un
lider/jefe de la sociedad.
 Lo que podemos aprender de los insectos sociales lo podemos aplicar al campo del
diseño de Sistemas Inteligentes.
 La modelización de los insectos sociales por medio de la auto-organización puede
ser de ayuda para el diseño de modelos artificiales distribuidos de resolución de
problemas de optimización, en transporte, distribución en planta, etc.