O que a TI estuda?
O TI É uma ciência moderna que estuda os métodos, processos e técnicas para processar, transmitir ou armazenar dados de maneira digital.
Com o grande avanço da tecnologia a partir da segunda metade do século XX, essa disciplina ganhava importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade.
O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da internet tornam a ciência da computação uma das ciências mais em expansão nas últimas décadas.
A etimologia da palavra computador tem várias origens possíveis. Principalmente surgiu como um acrônimo para as palavras informação e automatique (informação automática).
Em 1957, foi Karl Steinbuch, que incluiu este termo em um documento chamado Informatik: Automatische Informationsverarbeitung.
Enquanto em 1962, o engenheiro francês Philippe Dreyfus nomeou sua empresa como Société d'Informatique Appliquée. No entanto, foi o russo Alexander Ivanovich Mikhailov quem primeiro usou esse termo como "estudo, organização e disseminação da informação científica".
Entre seu vasto campo de aplicação, esta ciência é dedicada ao estudo do tratamento automático de informações usando dispositivos eletrônicos e sistemas de computador, que podem ser usados para diferentes propósitos.
O que a TI estuda? Aplicações
O campo de aplicação da informática estava expandindo seu espectro com o desenvolvimento tecnológico no último meio século, principalmente pelo impulso dos computadores e da Internet.
Entre suas principais tarefas estão design, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processos.
Também é responsável pela criação de robôs industriais, bem como tarefas relacionadas ao vasto campo de telecomunicações e à criação de jogos, aplicativos e ferramentas para dispositivos móveis.
Formação de tecnologia da informação
A ciência da computação é uma ciência na qual convergem conhecimento e conhecimento de diferentes disciplinas, começando com matemática e física, mas também computação, programação e design, entre outros.
Essa união sinérgica entre diferentes ramos do conhecimento é complementada na ciência da computação com as noções de hardware, software, telecomunicações, internet e eletrônica.
História
A história da ciência da computação começou muito antes da disciplina que leva seu nome. Ele acompanhou a humanidade quase desde suas origens, embora sem ser reconhecido como uma ciência.
Desde a criação do ábaco chinês, registrado no ano 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, podemos falar em ciência da computação.
Esta tabela dividida em colunas, permitida através dos movimentos de suas unidades para realizar operações matemáticas, como adição e subtração. Pode haver o ponto de partida dessa ciência.
Mas a evolução da ciência da computação apenas começara com o ábaco. No século XVII, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu mais um passo evolutivo.
Este dispositivo só serviu para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século XVIII, desenvolver um aparelho similar, mas com multiplicações e divisões.
Essas três criações foram os primeiros processos de computador que foram registrados. Foi necessário esperar quase mais 200 anos para que essa disciplina se torne relevante e se torne uma ciência.
Nas primeiras décadas do século XX, o desenvolvimento da eletrônica foi o impulso final da computação moderna. A partir daí, esse ramo da ciência começa a resolver problemas técnicos decorrentes de novas tecnologias.
Nessa época houve uma mudança dos sistemas baseados em engrenagens e hastes para os novos processos de impulsos elétricos, catalogados por um 1 quando a corrente passa e por um 0 quando não, o que revolucionou essa disciplina.
O passo final foi dado durante a Segunda Guerra Mundial com a criação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento que ainda está em expansão.
Noções básicas de ciência da computação
A tecnologia da informação, entendida como o processamento de informações automaticamente por meio de dispositivos eletrônicos e sistemas de computadores, deve ter alguns recursos para desenvolver.
Três operações principais são fundamentais: entrada, que se refere à coleta de informações; o processamento dessa mesma informação e a saída, que é a possibilidade de transmitir resultados.
O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.
Através desses processos, o computador desenvolveu vários tipos de dispositivos que começaram a facilitar as tarefas da humanidade em todos os tipos de atividades.
Embora sua área de aplicação não tenha limites estritos, é usada principalmente em processos industriais, gerenciamento de negócios, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação.
Gerações
Dentro da ciência da computação e computação, podemos falar de cinco gerações de processadores que marcaram a história moderna desde o seu surgimento em 1940 até o presente.
Primeira geração
A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade foram principalmente em um ambiente científico-militar.
Estes dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para serem programados de acordo com as finalidades necessárias.
Segunda geração
A segunda geração foi desenvolvida entre 1952 e 1964, com o aparecimento de transistores que substituíram as antigas válvulas. Foi assim que surgiram os dispositivos comerciais, que desfrutavam de programação prévia.
Outro fato central deste estágio é o aparecimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Para aqueles que anos depois foram seguidos por novos.
Terceira geração
A terceira geração teve um período de desenvolvimento um pouco mais curto que o de seus antecessores, foi estendida entre 1964 e 1971 quando os circuitos integrados surgiram.
A redução de custos na produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram esse estágio.
Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam em especificidade e aptidões, os primeiros programas utilitários começaram a florescer.
Quarta geração
A quarta geração foi produzida desde 1971 e durou uma década, até 1981, com componentes eletrônicos como os principais protagonistas da evolução.
Assim, os primeiros microprocessadores começaram a aparecer no mundo da informática, que incluía todos os elementos básicos do computador antigo em um único circuito integrado.
Quinta geração
Finalmente, a quinta geração começou em 1981 e se estende até o presente, em que a tecnologia invade todos os aspectos das sociedades modernas.
O principal desenvolvimento desta fase evolutiva da informática foram os computadores pessoais (PC), que logo levaram a um vasto conjunto de tecnologias associadas que hoje governam o mundo.
Referências
- InformarÁtica, informação e comunicação, Documentação Social: Revista de Estudos Sociais e Tecnologia Aplicada, 1999.
- Tratamento (Automático) de Informação, Diego Dikygs, site digital Notions of Computing, 2011.
- História da ComputaçãonPatricio Villalva.
- Revista Revista Horizonte InformáÉtica educacionalBuenos Aires, 1999.