A vida moderna não pode ser imaginada sem dispositivos de alta tecnologia e todos os tipos de dispositivos. Cada casa tem um computador pessoal e até mesmo os telefones celulares de hoje têm seu próprio processador e são um pouco inferiores em funcionalidade aos computadores comuns.
Os computadores modernos são um mundo enorme e maravilhoso de possibilidades praticamente ilimitadas, mas nem sempre foi assim. A história do desenvolvimento de computadores eletrônicos é tão complexa que possui vários marcos importantes. Os especialistas chamam os estágios de desenvolvimento do computador de "gerações", e hoje existem cinco deles.
Como tudo começou
A humanidade sempre procurou simplificar todos os tipos de cálculos e cálculos. Os primeiros dispositivos de computação começaram a aparecer na Grécia antiga e em outros estados antigos. Mas toda essa técnica simples não tem praticamente nada a ver com um computador. A característica mais importante dos computadores eletrônicos é a capacidade de programação.
No início do século XIX, o matemático inglês Charles Babbage inventou uma máquina única e incomparável, que mais tarde deu o seu nome. A máquina de Babbage era diferente de outras ferramentas de contagem existentes por poder salvar os resultados do trabalho e até mesmo ter dispositivos de saída. Muitos especialistas hoje consideram a invenção de um matemático talentoso o protótipo dos computadores modernos.
Primeira geração
O primeiro computador eletrônico, completamente semelhante em funcionalidade aos computadores modernos, foi criado em 1938. Um ambicioso engenheiro de origem alemã, Konrad Zuse, montou uma unidade que recebeu o lacônico nome - Z1. Mais tarde, ele o melhorou várias vezes e, como resultado, o Z2 e o Z3 apareceram. Contemporâneos freqüentemente argumentam que apenas o Z3 pode ser considerado um computador completo de todas as invenções de Zuse, e isso é muito engraçado: a única coisa que distingue o Z3 do Z1 é a capacidade de calcular a raiz quadrada.
Em 1944, graças à inteligência recebida da Alemanha, um grupo de cientistas americanos com o apoio da IBM conseguiu repetir o sucesso de Zuse e criou seu próprio computador, que foi batizado de MARK 1. Apenas dois anos depois, os americanos deram um salto fantástico para aqueles tempos - eles montaram uma nova máquina chamada ENIAC. O desempenho da novidade foi mil vezes superior aos modelos anteriores.
Uma característica das máquinas de primeira geração é seu conteúdo técnico. O principal elemento do design do computador daqueles anos eram tubos de vácuo elétricos. Além disso, os primeiros computadores eram realmente enormes - uma cópia ocupava uma sala inteira e parecia mais uma pequena fábrica do que algum tipo de unidade de computação.
Quanto à funcionalidade, eram bastante modestos. A capacidade computacional dos processadores não excedeu vários milhares de hertz. Mas, ao mesmo tempo, os primeiros computadores já tinham a capacidade de salvar dados - isso era feito com cartões perfurados. As primeiras máquinas não eram apenas enormes, mas também extremamente difíceis de dominar. Para trabalhar com eles, eram necessários conhecimentos e habilidades especiais, que deveriam ser dominados por mais de um mês.
Segunda geração
O início do segundo marco no desenvolvimento dos computadores eletrônicos é considerado a década de 60 do século XX. Então, o conteúdo técnico do computador começou a mudar gradualmente de lâmpadas para transistores. Essa transição reduziu significativamente o tamanho dos computadores. Sua manutenção exigia significativamente menos eletricidade, mas o desempenho das máquinas, ao contrário, aumentava.
Também nesta época, métodos de programação foram se desenvolvendo, linguagens universais para "comunicação" com computadores começaram a aparecer - "COBOL", "FORTRAN". Graças aos novos recursos de software, tornou-se muito mais fácil manter as máquinas, a dependência direta da programação em modelos de computador específicos desapareceu. Surgiram novos dispositivos de armazenamento de informações - tambores e fitas magnéticas surgiram para substituir os cartões perfurados.
Terceira geração
Em 1959, o cientista americano Jack Kilby fez outra descoberta no desenvolvimento de computadores. Sob sua liderança, um grupo de cientistas criou uma pequena placa na qual caberia um grande número de elementos semicondutores. Esses projetos são chamados de "circuitos integrados".
Além disso, no final dos anos 60, a empresa de Kilby abandonou os projetos de tubos e semicondutores e montou um computador inteiramente de circuitos integrados. O resultado era óbvio: o novo computador era mais de cem vezes menor que seus homólogos semicondutores, sem perder nada na qualidade e velocidade das operações.
Além disso, os componentes de hardware de terceira geração não só reduziram o tamanho dos computadores produzidos, mas também tornaram possível aumentar significativamente a potência dos computadores. A frequência do relógio cruzou a linha e foi calculada já em megahertz. Os elementos de ferrite na RAM aumentaram significativamente seu volume. As unidades externas tornaram-se mais compactas e fáceis de usar; mais tarde, eles começaram a criar e produzir disquetes com base nisso.
Foi durante este período que foi criada a forma mais conveniente de interagir com um computador - um ecrã gráfico. Surgiram novas linguagens de programação, mais simples e fáceis de aprender.
Quarta geração
Os circuitos integrados encontraram sua continuação em grandes circuitos integrados (LSIs), que cabem muito mais transistores em um tamanho relativamente pequeno. E em 1971, a lendária empresa Intel anunciou a criação de microcircuitos incomparáveis, que de fato se tornaram o cérebro de todos os computadores subsequentes. O microprocessador Intel tornou-se parte integrante da quarta geração de computadores eletrônicos.
Módulos de RAM também começaram a mudar de ferrite para microcircuito, a interface de trabalho dos computadores foi simplificada tanto que os cidadãos comuns agora podem usar a unidade antes intrigantemente complexa. Em 1976, uma empresa pouco conhecida Apple, liderada por Steve Jobs, montou uma nova máquina que se tornou o primeiro computador pessoal.
Alguns anos depois, a IBM assumiu a liderança na produção de computadores pessoais. Seu modelo computacional (IBM PC) tornou-se referência na produção de microcomputadores no mercado internacional. Ao mesmo tempo, surgiu uma disciplina acadêmica, sem a qual é difícil imaginar o mundo moderno - a ciência da computação.
Quinta geração
O primeiro computador de Jobs e a abordagem inovadora da IBM para a fabricação de PCs literalmente explodiram o mercado de tecnologia, mas 15 anos depois, houve outro avanço que deixou essas máquinas lendárias para trás. Na década de 90, a quinta e hoje a última geração de computadores eletrônicos começou a florescer.
O próximo avanço no campo da tecnologia da computação, em muitos aspectos, foi facilitado pela criação de tipos completamente novos de microcircuitos, cuja arquitetura de vetor paralelo tornou possível aumentar drasticamente a taxa de crescimento da produtividade dos sistemas de computador. Foi na década de noventa do século passado que ocorreu o salto mais notável de dezenas de megahertz, que pareciam irreais até recentemente, para gigahertz que são bastante familiares hoje.
Os computadores modernos permitem que qualquer usuário mergulhe no maravilhoso mundo dos jogos 3D realistas, domine linguagens de programação de forma independente ou se envolva em qualquer outra atividade científica e técnica. Os processos de computação dentro dos computadores de quinta geração tornam possível criar verdadeiras obras-primas musicais e cinematográficas literalmente no joelho.
Cientistas modernos argumentam que a próxima geração de computadores eletrônicos não está longe, usando tecnologias, materiais e linguagens de programação fundamentalmente novas. Um futuro fantástico virá, cheio de possibilidades incríveis que os carros inteligentes darão à humanidade.