Teoria da informaçao
A teoria da informação surgiu com a pesquisa Claude E. Shannom Warren Weaver para a Bell Telephone Company , no campo da telegrafia e telefonia ,em 1949.Ambos formulam uma teoria geral da informação ,desenvolvendo um método para medir e calcular a quantidade de informação, com base e resultado da física estatística. A preocupação de Shannom era uma aferição quantitativa de informações .Sua teoria sobre comunicações diferia das anteriores em dois aspectos: por introduzi noções de estatística e por sua teoria ser macroscópica não microscópica ,pois visualizam só aspecto amplos e gerais dos dispositivos de comunicações.
Conceito de Redundância
Redundância é a repetição de mensagem para que sua recepção correta seja mais garantida .A redundância introduz no sistema de comunicação uma certa capacidade de eliminar o ruído e prevenir distorções e enganos na recepção da mensagem .Por isso, quando se quer entrar em uma sala, bate –se na porta mais de duas vezes, ou quando se quer comprovar o resultado de uma operação aritmética complexa, torna-se a fazê-la.
Conceito de Entropia e Sinergia
Entropia(transformação) :significa que partes do sistema perdem sua integração ,desintegração e comunicação entre si, fazendo com que o sistema se decomponha ,perca energia e informação e degenere .Se a entropia é um processo pelo qual um sistema tende a exaustão ,a desorganização e , por fim à morte ,para sobreviver o sistema precisa saber abrir-se e reabastecer-se de energia e de informação para manter a sua estrutura .A esse processo reativo de obtenção de reservas de energia e de informação dar-se o nome de entropia negativa ou negentropia . À medida que aumenta a informação, diminui a entropia, pois a informação e a base da configuração e da ordem.
Sinergia(com trabalho):significa literalmente “trabalho conjunto”. Existe sinergia quando duas ou mais causas produzem ,atuando conjuntamente ,um efeito maior do que a soma dos efeitos que produziriam