Teoria de shannon

Disponível somente no TrabalhosFeitos
  • Páginas : 5 (1199 palavras )
  • Download(s) : 0
  • Publicado : 15 de abril de 2011
Ler documento completo
Amostra do texto
TEORIA DA INFORMAÇÃO

Claude Elwood Shannon, matemático e engenheiro elétrico norte-americano, nascido em 1916; publicou em 1948, a monografia “The Mathematical Theory of Communication”.
Em 1941, foi admitido pelos laboratórios Bell Systems, filial da AT&T, onde trabalhou na área de criptografia. Após publicar sua monografia em 1948, a publicou pela Universidade de Illinois no ano seguinte cominformações revisadas por Warre Weaver, coordenador das pesquisas a respeito das máquinas de calcular.
Shannon elaborou o “sistema geral de comunicação”, delineando uma comunicação composta por componentes específicos:
- Fonte : a origem da informação;
- Mensagem : o conteúdo da informação;
- Codificador : transforma a informação em códigos;
- Canal : meio que transporta os códigos;
-Decodificador (receptor): transforma o código recebido em informação;
- Destinatário : pessoa ou local destinado a receber a mensagem transmitida.

Segundo Shannon, o objetivo da comunicação seria reproduzir num ponto de forma exata, uma mensagem selecionada em outro ponto. Porém, segundo ele, toda transmissão de informação poderia chegar acarretada de interrupções e ruídos. A teoria de Shannon, emparte, já havia sido precedida desde 1910, em pesquisas do matemático russo Andrei A. Markov, do norte-americano Ralph V.L. Hartley, em 1927; e a partir de 1936, pelo matemático britânico Alan Turing.
O emissor teria a liberdade de escolher a mensagem a ser transmitida a um destinatário, havendo possíveis níveis de “ruídos”. A teoria de Shannon foi utilizada em 1943, por Erwin Shrödinger paraexplicar os modelos de desenvolvimento do indivíduo contido nos cromossomos.
A teoria matemática da comunicação, segundo Shannon, possibilitou aos biólogos uma ferramenta de elaboração de explicações no processo comunicativo entre as partes internas reprodutivas de uma célula. Assim ocorreu nos trabalhos de Oswald Avery, que em 1944, descobriu no DNA a substância da hereditariedade, na revelação dadupla hélice do DNA, pelo inglês Francis Crick e James Watson, em 1953.
No seu livro Teorias da Comunicação, Mauro Wolf (1987: 98) indica que a teoria da informação nasce nos trabalhos de engenharia das telecomunicações. Shannon, em 1948, considerou a teoria da informação como teoria do rendimento informacional, destinada a melhorar a velocidade de transmissão das mensagens (Wolf, 1987: 102) ediminuir as suas distorções (ruído). É uma teoria sobre a transmissão óptima das mensagens. A transferência de informação efetua-se da fonte para o destinatário enquanto a transferência da energia se efetua do transmissor para o receptor. Um dos méritos de Shannon foi avaliar a entropia, os defeitos da cadeia de energia informacional (Wolf, 1987: 100).

Em A Obra Aberta (2009), Umberto Eco faladas poéticas contemporâneas e das suas propostas de reconstrução variável do material ao fruidor. Este tem um campo de probabilidades interpretativas (Eco, 2009: 121). Para perceber melhor a interpretação das poéticas, Eco socorre-se da teoria da informação. Esta (para quem Mauro Wolf prefere a designação de teoria matemática da comunicação) procura calcular a quantidade de informação contida numadeterminada mensagem, delimitada pelos conhecimentos que o indivíduo possa ter sobre a credibilidade de uma fonte. A informação é uma quantidade aditiva, em que a quota de novidade depende das expectativas e capacidades do destinatário (Eco, 2009: 122). Eco (2009: 132) também lhe chama acrescentativa, ligada à originalidade e não à probabilidade. Eu acrescento o papel central da notícia: o que énovo, transmitido rapidamente e partilhado, original.

A informação é uma medida (estatística) da probabilidade de ocorrência = grau de novidade ou imprevisibilidade (Abril, 1997: 17). O bit (binary digit) é a unidade base de medida da informação entre duas alternativas igualmente prováveis. Exemplo: amanhã vai fazer sol/amanhã vai chover ↔ um bit de informação: sim/não.

Escreve Umberto Eco...
tracking img