Si uno piensa en un ordenador o computadora como un dispositivo para ayudar a la computación, entonces estos existen desde hace miles de años. El ábaco ya se utilizaba en el año 2400 a. C. como "aparato" (como eso de contar con los dedos, pero ya es demasiado simple para la civilización moderna). Abū Bakr ideó un astrolabio mecánico con una calculadora de calendarios en Persia en el año 1235 d. C. La regla de cálculo se inventó alrededor del 1620. Lord Kelvin propuso por primera vez el "analizador diferencial", una calculadora analógica mecánica, en 1876; y, en la década de 1920, Vannevar Bush y otros ya habían construido algunos de esos artilugios.
Pero la mayoría piensa en un ordenador como un dispositivo que se puede programar para ejecutar y realizar una amplia variedad de tareas, algo más que una calculadora trucada. El primero de este tipo lo construyó en 1833 –alrededor de un siglo por delante de su tiempo– el "padre de la computadora", el inglés Charles Babbage. Su "equipo mecánico" programable llevaba tarjetas perforadas, una impresora, una unidad de lógica aritmética, ramificaciones condicionales e incluso una memoria integrada (por así decirlo)... todo ello reconocible para cualquier friki de los ordenadores de hoy en día.
Fue la llegada de la electricidad la que dio lugar a la "era de la informática" como tal. Alan Turing –pionero de la "informática" (en realidad, era matemático)– asentó sus principios en 1936, en el estudio "Los números computables". Durante la Segunda Guerra Mundial, diversas naciones en conflicto se dedicaron a hacer realidad las ideas de Turing, usándolas para descifrar los códigos del enemigo o para derribar sus aviones. La mayor parte de ingenieros utilizaban electricidad y tubos de vacío en lugar de conmutadores mecánicos, y dieron a sus máquinas monstruosas nombres como "ABC", "Colossus" ("Coloso", la primera computadora digital programable) y ENIAC (capaz de realizar 5000 sumas o restas por segundo) en 1946, la primera "máquina Turing-completa".
Desde entonces, gracias a la invención de los transistores bipolares, los circuitos integrados y semiconductores y a los esfuerzos de un montón de manitas, los ordenadores se han vuelto cada vez más rápidos, más compactos y se pueden usar en todo tipo de actividades humanas, desde la investigación hasta la fabricación, pasando por la guerra y el ocio. Así tenemos a HAL 9000 y Skynet.