Diferenças entre edições de "Teoria da informação"

Da Thinkfn

Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home1/thinkfnw/public_html/wiki/includes/diff/DairikiDiff.php on line 390
({{Links externos}})
 
Linha 1: Linha 1:
A '''Teoria da informação''' é um  ramo da teoria da [[probabilidade]] e da matemática [[estatística]] que lida com sistemas de [[comunicação]], [[transmissão de dados]], [[criptografia]], [[codificação]], teoria do ruído, correção de erros, [[compressão de dados]], etc. Ela não deve ser confundida com [[tecnologia da informação]] e [[biblioteconomia]].
+
A '''Teoria da informação''' é um  ramo da teoria da [[probabilidade]] e da matemática [[estatística]] que lida com sistemas de comunicação, transmissão de dados, [[criptografia]], codificação, teoria do ruído, correção de erros, compressão de dados, etc. Ela não deve ser confundida com [[tecnologia da informação]] e [[biblioteconomia]].
  
[[Claude E. Shannon]] (1916-2001) é conhecido como "o pai da teoria  da informação". Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente embasado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de [[bit]]s. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressão e na transmissão de mensagens com ruído no canal.
+
[[Claude E. Shannon]] (1916-2001) é conhecido como "o pai da teoria  da informação". Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente baseado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressão e na transmissão de mensagens com ruído no canal.
  
 
É geralmente aceito que a moderna disciplina da '''teoria da informação'''
 
É geralmente aceito que a moderna disciplina da '''teoria da informação'''
começou com a publicação do artigo "[http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf "The Mathematical Theory of Communication"]" por [[Claude E. Shannon]] no [[Bell System Technical Journal]] em julho e outubro de [[1948]]. No processo de desenvolvimento de uma teoria da comunicação que pudesse ser aplicada por engenheiros elétricos para projetar sistemas de telecomunicação melhores, Shannon definiu uma medida chamada de [[entropia]], definida como:
+
começou com a publicação do artigo "[http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf "The Mathematical Theory of Communication"]" por [[Claude E. Shannon]] no Bell System Technical Journal em julho e outubro de 1948. No processo de desenvolvimento de uma teoria da comunicação que pudesse ser aplicada por engenheiros elétricos para projetar sistemas de telecomunicação melhores, Shannon definiu uma medida chamada de [[entropia]], definida como:
  
 
:<tex> H(X) = -\sum_{x \in \mathbb{X}} p(x) \log p(x)</tex>
 
:<tex> H(X) = -\sum_{x \in \mathbb{X}} p(x) \log p(x)</tex>
Linha 12: Linha 12:
 
A medida de entropia de Shannon passou a ser considerada como uma medida da ''informação'' contida numa mensagem, em oposição à parte da mensagem que é estritamente determinada (portanto prevísivel) por estruturas inerentes, como por exemplo a redundância da estrutura das linguagens ou das propriedades estatísticas de uma linguagem, relacionadas às frequências de ocorrência de diferentes letras ([[monema]]s) ou de pares, trios, ([[fonema]]s) etc., de palavras. Veja [[cadeia de Markov]].
 
A medida de entropia de Shannon passou a ser considerada como uma medida da ''informação'' contida numa mensagem, em oposição à parte da mensagem que é estritamente determinada (portanto prevísivel) por estruturas inerentes, como por exemplo a redundância da estrutura das linguagens ou das propriedades estatísticas de uma linguagem, relacionadas às frequências de ocorrência de diferentes letras ([[monema]]s) ou de pares, trios, ([[fonema]]s) etc., de palavras. Veja [[cadeia de Markov]].
  
A entropia como definida por Shannon está intimamente relacionada à entropia definida por físicos. [[Boltzmann]] e [[Gibbs]] fizeram um trabalho considerável sobre termodinâmica estatística. Este trabalho foi a inspiração para se adotar o termo entropia em teoria da informação. Há uma profunda relação entre entropia nos sentidos termodinâmico e informacional. Por exemplo, o [[demônio de Maxwell]] necessita de informações para reverter a entropia termodinâmica e a obtenção dessas informações equilibra exatamente o ganho termodinâmico que o demônio alcançaria de outro modo.
+
A entropia como definida por Shannon está intimamente relacionada à entropia definida por físicos. [[Boltzmann]] e [[Gibbs]] fizeram um trabalho considerável sobre termodinâmica estatística. Este trabalho foi a inspiração para se adotar o termo entropia em teoria da informação. Há uma profunda relação entre entropia nos sentidos termodinâmico e informacional. Por exemplo, o [[demónio de Maxwell]] necessita de informações para reverter a entropia termodinâmica e a obtenção dessas informações equilibra exatamente o ganho termodinâmico que o demónio alcançaria de outro modo.
  
 
Outras medidas de informação úteis incluem informação mútua, que é uma medida da correlação entre dois conjuntos de eventos. Informação mútua é definida por dois eventos ''X'' e ''Y'' como:
 
Outras medidas de informação úteis incluem informação mútua, que é uma medida da correlação entre dois conjuntos de eventos. Informação mútua é definida por dois eventos ''X'' e ''Y'' como:
Linha 31: Linha 31:
  
 
=={{Ver também}}==
 
=={{Ver também}}==
 
 
*[[Distância Levenshtein]]
 
*[[Distância Levenshtein]]
 
*[[Informação]]
 
*[[Informação]]
Linha 45: Linha 44:
 
[[Categoria:Estatística]]
 
[[Categoria:Estatística]]
 
[[Categoria:Teoria das probabilidades]]
 
[[Categoria:Teoria das probabilidades]]
[[Categoria:Telecomunicações]]
 

Edição atual desde as 14h37min de 30 de dezembro de 2007

A Teoria da informação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. Ela não deve ser confundida com tecnologia da informação e biblioteconomia.

Claude E. Shannon (1916-2001) é conhecido como "o pai da teoria da informação". Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente baseado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressão e na transmissão de mensagens com ruído no canal.

É geralmente aceito que a moderna disciplina da teoria da informação começou com a publicação do artigo ""The Mathematical Theory of Communication"" por Claude E. Shannon no Bell System Technical Journal em julho e outubro de 1948. No processo de desenvolvimento de uma teoria da comunicação que pudesse ser aplicada por engenheiros elétricos para projetar sistemas de telecomunicação melhores, Shannon definiu uma medida chamada de entropia, definida como:

 H(X) = -\sum_{x \in \mathbb{X}} p(x) \log p(x)

onde \log é o logaritmo na base 2, que determina o grau de caoticidade da distribuição de probabilidade p_i e pode ser usada para determinar a capacidade do canal necessária para transmitir a informação.

A medida de entropia de Shannon passou a ser considerada como uma medida da informação contida numa mensagem, em oposição à parte da mensagem que é estritamente determinada (portanto prevísivel) por estruturas inerentes, como por exemplo a redundância da estrutura das linguagens ou das propriedades estatísticas de uma linguagem, relacionadas às frequências de ocorrência de diferentes letras (monemas) ou de pares, trios, (fonemas) etc., de palavras. Veja cadeia de Markov.

A entropia como definida por Shannon está intimamente relacionada à entropia definida por físicos. Boltzmann e Gibbs fizeram um trabalho considerável sobre termodinâmica estatística. Este trabalho foi a inspiração para se adotar o termo entropia em teoria da informação. Há uma profunda relação entre entropia nos sentidos termodinâmico e informacional. Por exemplo, o demónio de Maxwell necessita de informações para reverter a entropia termodinâmica e a obtenção dessas informações equilibra exatamente o ganho termodinâmico que o demónio alcançaria de outro modo.

Outras medidas de informação úteis incluem informação mútua, que é uma medida da correlação entre dois conjuntos de eventos. Informação mútua é definida por dois eventos X e Y como:

M(X,Y)=H(X,Y)-H(X)-H(Y)

onde H(X,Y) é a entropia conjunta (join entropy) ou

H(X,Y)=-\sum_{x,y} p(x,y)\log p(x,y)

Informação mútua está relacionada de forma muito próxima com testes estatísticos como o teste de razão logarítmica e o teste Chi-square.

A teoria da informação de Shannon é apropriada para medir incerteza sobre um espaço desordenado. Uma medida alternativa de informação foi criada por Fisher para medir incerteza sobre um espaço ordenado. Por exemplo, a informação de Shannon é usada sobre um espaço de letras do alfabeto, já que letras não tem 'distâncias' entre elas. Para informação sobre valores de parâmetros contínuos, como as alturas de pessoas, a informação de Fisher é usada, já que tamanhos estimados tem uma distância bem definida.

Diferenças na informação de Shannon correspondem a um caso especial da distância de Kullback-Leibler da estatística Bayesiana, uma medida de distância entre distribuições de probabilidade a priori e a posteriori.

Andrei Nikolaevich Kolmogorov introduziu uma medida de informação que é baseada no menor algoritmo que pode computa-la (veja complexidade de Kolmogorov).

Ver também

Links relevantes


Smallwikipedialogo.png

Esta página usa conteúdo da Wikipedia. O artigo original estava em Teoria_da_informação. Tal como o Think Finance neste artigo, o texto da Wikipedia está disponível segundo a GNU Free Documentation License.