Conceito de entropia


Mar 05, 14

Entropia é uma noção que deriva de um vocábulo grego que se pode traduzir por “volta” (regresso) ou “transformação” (em sentido figurado). Trata-se de um conceito que se utiliza na física, na química, na informática, na matemática e na linguística, entre outros âmbitos.

A entropia pode ser a magnitude (grandeza) física termodinâmica que permite medir a parte não utilizável da energia contida num sistema, o que significa que essa parte da energia não pode ser usada para produzir um trabalho.

Entende-se também por entropia a medida da desordem de um sistema. A entropia, neste sentido, está associada a um grau de homogeneidade.

A entropia de formação de um composto químico é a diferença de entropia no processo formativo a partir dos elementos constituintes. Quanto maior a entropia de formação, mais favorável a sua formação.

Na teoria da informação, a entropia é a medida da incerteza que existe face a um conjunto de mensagens (das quais só se receberá uma única). Trata-se de uma medida da informação que é necessária para reduzir ou eliminar a incerteza.

Entende-se, por outro lado, por entropia como sendo a quantidade média de informação que contêm os símbolos transmitidos. Palavras como “o” ou “que” são os símbolos mais frequentes num texto mas que, no entanto, são os que fornecem menos informação. A mensagem tem informação relevante e máxima entropia desde que todos os símbolos sejam igualmente prováveis.

A linguística, por conseguinte, considera a entropia como o grau de informação discursiva ponderado em função da quantidade de lexemas.