Se pensarmos nos computadores como qualquer dispositivo que nos ajude a fazer cálculos, podemos afirmar que essa ferramenta existe há milênios. O ábaco (usado desde 2400 a.C.) é um exemplo disso. Também poderíamos considerar que a contagem com dedos entraria nessa categoria, mas aí estaríamos falando de algo muito simples para uma civilização moderna. O astrolábio mecânico com um instrumento usado para calcular o calendário foi idealizado por Abi Bakr na Pérsia em 1235 d.C. A régua de cálculo foi inventada por volta do ano 1620. O "analisador diferencial" – um tipo de calculadora analógica mecânica – foi uma ideia de Lord Kelvin em 1876 e, na década de 20, Vannevar Bush e outras pessoas já haviam construído engenhocas do tipo.
No entanto, para a maioria das pessoas, o computador é um dispositivo programado para realizar e exibir uma série de ações – algo um pouco melhor que uma calculadora veloz. O protótipo mais antigo desse tipo de dispositivo foi criado em 1833 – com cerca de um século de antecedência – pelo chamado "pai do computador", o inglês Charles Babbage. O "computador mecânico" e programável criado por Charles era composto de uma série de cartões perfurados, uma impressora, uma unidade lógico-aritmética, saltos condicionais e até uma memória integrada (ou algo do tipo)... elementos que seriam reconhecidos por qualquer fanático por computadores hoje em dia.
A chegada da eletricidade foi a responsável por iniciar a "Era da Computação". Os princípios básicos desenhados pelo "cientista da computação" mais pioneiro, Alan Turing (que, na verdade, era um matemático), surgiram pela primeira vez em seu artigo, de 1936, intitulado "Sobre os números computáveis". Durante a Segunda Guerra Mundial, diversas das nações em conflito começaram a transformar as ideias de Turing em realidade – com usos que iam da ruptura de códigos inimigos até a destruição de aeronaves adversárias. A maioria dos engenheiros utilizava eletricidade e válvulas em vez de interruptores mecânicos. Eles davam a suas máquinas monstruosas nomes como "ABC", "Colossus" (o primeiro computador digital programável) e ENIAC (capaz de realizar cinco mil adições ou subtrações por segundo). Esse último, de 1946, foi o primeiro a implementar todos os conceitos de Turing.
Desde então, graças à invenção do transistor de junção bipolar, dos circuitos integrados e dos semicondutores (assim como ao trabalho de muitos inventores), os computadores ficaram ainda mais rápidos, mais compactos e se tornaram onipresentes em todo tipo de atividade humana – da pesquisa à manufatura, passando pela guerra e pelo entretenimento. Isso explica o HAL 9000 e a Skynet.