Teoria da Informa o
A Teoria da Informação, que é uma teoria matemática proposta por Claude
Elwood Shannon, para encontrar limites fundamentais sobre as operações de processamento de sinais, tais como compressão de dados e de forma confiável armazenamento e comunicação de dados, e possui três principais conceitos que estão ligados entre si:
Eficácia: Transmissão clara, sem ruído com que a mensagem é recebida. Técnica: A condições ou características técnicas dos dispositivos para uma boa comunicação.
Semântico: Não interessa o significado da mensagem, mas sim aquilo que é enviado e recebido.
Formalmente, temos:
“Dada uma fonte de informação e um canal de comunicação, existe uma técnica de codificação tal que a informação pode ser transmitida através do canal a qualquer ritmo inferior à capacidade do canal e com uma freqüência de erros arbitrariamente pequena apesar da presença do ruído” A Teoria de Informação que Shannon construiu, contudo, transcende em muito as aplicações em comunicações. Shannon mostrou que aos elementos básicos do trabalho científico, massa e energia, precisamos acrescentar um terceiro: a informação.
Mais do que isso, usando a Teoria das Probabilidades, Shannon mostrou como medir a quantidade de informação. Sempre dando preferência ao sistema de numeração binário, introduziu a unidade de medida de informação: o bit : binary digit. Dizemos que recebemos um bit de informação quando ficamos sabendo qual, dentre duas alternativas equiprováveis, a que efetivamente ocorreu. Por exemplo: recebemos um bit de informação quando soubermos qual o resultado do lance de uma moeda, não viciada.
Aplicações dos fundamentos da Teoria da Informação incluem a compressão de dados sem perdas (por exemplo, arquivos ZIP), compressão de dados com perdas (por exemplo, MP3 e JPEG), codificação de canal (por exemplo, para Digital Subscriber Line (DSL)), aplicação na criptografia, criptoanálise etc.
O seu impacto tem sido crucial para o sucesso das missões Voyager ao