[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[escepticos] =?x-user-defined?q?RE:_=5Bescepticos=5D_acerca_de_entrop=EDa?=



buenas,
no sé si esto ha sido contestado ya o no, si es así disculpadme. En teoría
de la información, se mide la entropía de un determinado sistema como
(considerando una variable aleatoria discreta)
S = - sum(Pi·log(Pi))
donde i se mueve desde 1 hasta el número de valores que puede tomar la
variable, y Pi es la probabilidad de que se dé cada uno de esos valores. A
mayor valor de S, mayor entropía -> mayor desorden. Para casos en los que el
número de valores es fijo, la entropía será máxima cuando los sucesos sean
equiprobables. Y a mayor número de valores posibles de la variable, se
incrementa la entropía.

--------------------------------------------------
Javier de La Torre Cubillo
Grupo de Estudios en Biomimética - UNIVERSIDAD DE MÁLAGA
Instituto Andaluz de Procesamiento de la Imagen, PTA
Tel.: +34 952 13 7037/7036
E-mail: jtc en eva.psi.uma.es     URL: http://eva.psi.uma.es