O que a TI estuda?



O TI É uma ciência moderna que estuda os métodos, processos e técnicas para processar, transmitir ou armazenar dados de maneira digital.

Com o grande avanço da tecnologia a partir da segunda metade do século XX, essa disciplina ganhava importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade.

O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da internet tornam a ciência da computação uma das ciências mais em expansão nas últimas décadas.

A etimologia da palavra computador tem várias origens possíveis. Principalmente surgiu como um acrônimo para as palavras informação e automatique (informação automática).

Em 1957, foi Karl Steinbuch, que incluiu este termo em um documento chamado Informatik: Automatische Informationsverarbeitung.

Enquanto em 1962, o engenheiro francês Philippe Dreyfus nomeou sua empresa como Société d'Informatique Appliquée. No entanto, foi o russo Alexander Ivanovich Mikhailov quem primeiro usou esse termo como "estudo, organização e disseminação da informação científica".

Entre seu vasto campo de aplicação, esta ciência é dedicada ao estudo do tratamento automático de informações usando dispositivos eletrônicos e sistemas de computador, que podem ser usados ​​para diferentes propósitos.

O que a TI estuda? Aplicações

O campo de aplicação da informática estava expandindo seu espectro com o desenvolvimento tecnológico no último meio século, principalmente pelo impulso dos computadores e da Internet.

Entre suas principais tarefas estão design, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processos.

Também é responsável pela criação de robôs industriais, bem como tarefas relacionadas ao vasto campo de telecomunicações e à criação de jogos, aplicativos e ferramentas para dispositivos móveis.

Formação de tecnologia da informação

A ciência da computação é uma ciência na qual convergem conhecimento e conhecimento de diferentes disciplinas, começando com matemática e física, mas também computação, programação e design, entre outros.

Essa união sinérgica entre diferentes ramos do conhecimento é complementada na ciência da computação com as noções de hardware, software, telecomunicações, internet e eletrônica.

História

Primeiro computador.

A história da ciência da computação começou muito antes da disciplina que leva seu nome. Ele acompanhou a humanidade quase desde suas origens, embora sem ser reconhecido como uma ciência.

Desde a criação do ábaco chinês, registrado no ano 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, podemos falar em ciência da computação.

Esta tabela dividida em colunas, permitida através dos movimentos de suas unidades para realizar operações matemáticas, como adição e subtração. Pode haver o ponto de partida dessa ciência.

Mas a evolução da ciência da computação apenas começara com o ábaco. No século XVII, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu mais um passo evolutivo.

Este dispositivo só serviu para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século XVIII, desenvolver um aparelho similar, mas com multiplicações e divisões.

Essas três criações foram os primeiros processos de computador que foram registrados. Foi necessário esperar quase mais 200 anos para que essa disciplina se torne relevante e se torne uma ciência.

Nas primeiras décadas do século XX, o desenvolvimento da eletrônica foi o impulso final da computação moderna. A partir daí, esse ramo da ciência começa a resolver problemas técnicos decorrentes de novas tecnologias.

Nessa época houve uma mudança dos sistemas baseados em engrenagens e hastes para os novos processos de impulsos elétricos, catalogados por um 1 quando a corrente passa e por um 0 quando não, o que revolucionou essa disciplina.

O passo final foi dado durante a Segunda Guerra Mundial com a criação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento que ainda está em expansão.

Noções básicas de ciência da computação

A tecnologia da informação, entendida como o processamento de informações automaticamente por meio de dispositivos eletrônicos e sistemas de computadores, deve ter alguns recursos para desenvolver.

Três operações principais são fundamentais: entrada, que se refere à coleta de informações; o processamento dessa mesma informação e a saída, que é a possibilidade de transmitir resultados.

O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.

Através desses processos, o computador desenvolveu vários tipos de dispositivos que começaram a facilitar as tarefas da humanidade em todos os tipos de atividades.

Embora sua área de aplicação não tenha limites estritos, é usada principalmente em processos industriais, gerenciamento de negócios, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação.

Gerações

Dentro da ciência da computação e computação, podemos falar de cinco gerações de processadores que marcaram a história moderna desde o seu surgimento em 1940 até o presente.

Primeira geração

A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade foram principalmente em um ambiente científico-militar.

Estes dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para serem programados de acordo com as finalidades necessárias.

Segunda geração

A segunda geração foi desenvolvida entre 1952 e 1964, com o aparecimento de transistores que substituíram as antigas válvulas. Foi assim que surgiram os dispositivos comerciais, que desfrutavam de programação prévia.

Outro fato central deste estágio é o aparecimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Para aqueles que anos depois foram seguidos por novos.

Terceira geração

A terceira geração teve um período de desenvolvimento um pouco mais curto que o de seus antecessores, foi estendida entre 1964 e 1971 quando os circuitos integrados surgiram.

A redução de custos na produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram esse estágio.

Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam em especificidade e aptidões, os primeiros programas utilitários começaram a florescer.

Quarta geração

A quarta geração foi produzida desde 1971 e durou uma década, até 1981, com componentes eletrônicos como os principais protagonistas da evolução.

Assim, os primeiros microprocessadores começaram a aparecer no mundo da informática, que incluía todos os elementos básicos do computador antigo em um único circuito integrado.

Quinta geração

Finalmente, a quinta geração começou em 1981 e se estende até o presente, em que a tecnologia invade todos os aspectos das sociedades modernas.

O principal desenvolvimento desta fase evolutiva da informática foram os computadores pessoais (PC), que logo levaram a um vasto conjunto de tecnologias associadas que hoje governam o mundo.

Referências

  1. InformarÁtica, informação e comunicação, Documentação Social: Revista de Estudos Sociais e Tecnologia Aplicada, 1999.
  2. Tratamento (Automático) de Informação, Diego Dikygs, site digital Notions of Computing, 2011.
  3. História da ComputaçãonPatricio Villalva.
  4. Revista Revista Horizonte InformáÉtica educacionalBuenos Aires, 1999.