Contenidos
Los informáticos por su nombre
Los ordenadores son mucho más que un corrector de números ultrarrápido. Si se les da un nuevo conjunto de instrucciones, el procesador y la memoria de un ordenador pueden, al menos en principio, hacer cualquier cosa, desde procesar textos hasta pilotar un avión.
El mérito de haber sido el primero en plantearse la construcción de un dispositivo tan versátil corresponde al matemático británico Charles Babbage, que en 1834 comenzó a elaborar los planos de lo que denominó “motor analítico”. Su sueño era crear un aparato cuyos engranajes, varillas y ruedas pudieran ser dispuestos -programados- para realizar una infinidad de tareas, desde resolver ecuaciones hasta componer música. Lamentablemente, sólo se completó un fragmento de este milagro de la ingeniería victoriana.
Tuvieron que pasar otros 100 años antes de que otro matemático británico, Alan Turing, reviviera la idea de una “máquina universal” e investigara sus poderes teóricos. Durante la Segunda Guerra Mundial, sus colegas de Bletchley Park, que se dedicaban a descifrar códigos, explotaron algunos de estos poderes. Su dispositivo electrónico se llamaba Colossus, y descifró los códigos más secretos de Hitler.
Padre de la informática moderna
serie de libros (LNCS, volumen 10215)ResumenEn este artículo se presenta una reseña biográfica de Alan Turing, matemático, filósofo y uno de los primeros informáticos del siglo XX. Turing tiene derecho al título de “Padre de la informática moderna”. Sentó las bases teóricas de una máquina universal que modela un ordenador en su forma más general antes de la Segunda Guerra Mundial. Durante la guerra, Turing desempeñó un papel decisivo en el desarrollo y la influencia de los dispositivos informáticos prácticos que, según se dice, acortaron la guerra hasta en dos años al descifrar los mensajes encriptados del enemigo que, en general, se creían indescifrables. Después de la guerra, participó en el diseño y la programación de los primeros ordenadores. También escribió artículos fundacionales en las áreas de lo que hoy se conoce como Inteligencia Artificial (IA) y biología matemática poco antes de su prematura muerte. El documento también considera la influencia posterior de Turing, tanto científica como culturalmente.Palabras claveMáquina de Turing Laboratorio Nacional de Física Prueba de Turing Máquina Universal Código Secreto
Informáticos famosos
La historia de la informática comenzó mucho antes de nuestra disciplina moderna de la ciencia de la computación, apareciendo generalmente en formas como las matemáticas o la física. Los desarrollos de los siglos anteriores aludían a la disciplina que hoy conocemos como informática[1]. Esta progresión, desde los inventos mecánicos y las teorías matemáticas hasta los conceptos y las máquinas de computación modernas, condujo al desarrollo de un importante campo académico, al avance tecnológico masivo en todo el mundo occidental y a la base de un comercio y una cultura mundiales masivos[2].
La primera herramienta conocida para el cálculo fue el ábaco, desarrollado en el período comprendido entre el 2700 y el 2300 a.C. en Sumer[3]. El ábaco de los sumerios consistía en una tabla de columnas sucesivas que delimitaban los sucesivos órdenes de magnitud de su sistema numérico sexagesimal[4]: 11 Su estilo original de uso era mediante líneas dibujadas en la arena con guijarros. En la actualidad se siguen utilizando ábacos de diseño más moderno como herramientas de cálculo, como el ábaco chino[5].
Se cree que el mecanismo de Anticitera es una de las primeras computadoras mecánicas analógicas[7], diseñada para calcular posiciones astronómicas. Se descubrió en 1901 en el pecio de Anticitera, frente a la isla griega de Anticitera, entre Citera y Creta, y se ha datado en torno al año 100 a.C.[7].
Historia de la computación
La primera herramienta conocida para el cálculo fue el ábaco, desarrollado en el periodo comprendido entre el 2700 y el 2300 a.C. La historia de la informática comenzó mucho antes de la disciplina moderna de la informática que surgió en el siglo XX, y se insinuó en los siglos anteriores. Se cree que el primer ordenador mecánico analógico conocido es el mecanismo de Anticitera, que calculaba las posiciones astronómicas. En 1837, Charles Babbage describió por primera vez su máquina analítica, que se acepta como el primer diseño de un ordenador moderno. La máquina analítica tenía memoria ampliable, una unidad aritmética y capacidades de procesamiento lógico capaces de interpretar un lenguaje de programación con bucles y ramificaciones condicionales. Aunque nunca se construyó, el diseño se ha estudiado ampliamente y se considera equivalente a Turing. El motor analítico habría tenido una capacidad de memoria inferior a 1 kilobyte de memoria y una velocidad de reloj inferior a 10 hercios.
En 1702, Gottfried Wilhelm Leibniz desarrolló la lógica en un sentido formal y matemático con sus escritos sobre el sistema numérico binario. En su sistema, los unos y los ceros representan también valores verdaderos y falsos o estados de encendido y apagado. Pero tuvo que pasar más de un siglo antes de que George Boole publicara su álgebra de Boole en 1854 con un sistema completo que permitía modelar matemáticamente los procesos computacionales.