De par sa forme mathématique (un logarithme de probabilités) la mesure de l'information contenue dans un message ou un système physique est identique à la mesure de l'entropie d'un système. Faut-il, ou non, mettre un signe "moins" devant l'entropie pour définir l'information, qui deviendrait alors de l'entropie négative?  

Ce n'est nullement intuitif, mais l'information au sens de Shannon peut être considérée comme de l'entropie, quand nous voyons plutôt dans un texte, ou dans un génome, un gain d'ordre, et donc de l'entropie négative, de la contre-entropie.Certes, comme l'a montré Schroendinger, l’évolution crée des négentropies, mais tout ordre créé ainsi  produit un surcroît de désordre dans l'environnement: la négentropie est particulièrement efficace pour produire de l’entropie, cette grandeur de l’univers qui ne cesse et ne cessera jamais d’augmenter! C’est le second principe de la thermodynamique et une loi universelle, fondamentale, de la nature. Un verre se casse tout seul en mille morceaux. Mille morceaux ne se rassemblent pas tout seuls en un verre…L’ordre devient ainsi surcroît de désordre. La nature a "inventé" les organismes vivant comme "pour" dégrader encore plus vite les sources d’ordre. C'est ce que fait avec un certain enthousiasme l'économie moderne, on ne le sait que trop. Or, l'information adéquate transforme ce désordre en ordre, par exemple si je suis capable d'identifier chaque éclat de verre, et sa position, si je passe ainsi du macro-état "verre brisé" au micro-état "disposition exacte, forme exacte, origine exacte des éclats de verre".

L'information qui me permet de lutter contre le désordre n'est qu'une dette, elle n'augmente pas ma richesse absolue, bien au contraire elle appauvrit de façon accélérée les ressources. Tout ordre entraîne un désordre accru, c'est-à-dire une baisse accélérée des ressources de l'environnement (on considère ici le génôme d'un animal ou d'une plante comme de l'information!).    

Comme l'explique une fois de plus Gell-Mann, en fait, pour sauver la seconde loi de la thermodynamique on définit l'entropie totale comme la somme du désordre et de l'information, puisque les deux ont la même forme mathématique. L'entropie stricte diminue mais non l'entropie corrigée. Cela signifie qu'on donne le même signe à l'ignorance et à l'information: quand l'information croit, l'ignorance diminue, mais la somme tend toujours à augmenter...

Mais voici en réalité ce qui m'intéresse ici : avec la théorie de l'information, la théorie scientifique elle-même, en tant qu' information, entre dans la boucle des calculs du physicien. En d'autres termes, nature entropique et information (ou plutôt théorie de la nature, théorie 1), même combat!

Apparaît ainsi une théorie 2, théorie de la théorie, qui appartient elle-même au monde physique. Peut-on l'intégrer à ses propres calculs? Ou faut-il une théorie 3? Et ainsi à l'infini ...

Au passage, Bergson avait en somme raison de nier le désordre: l'entropie traduit notre ignorance de la constitution fine d'un macro-état. Une foule, macro-état, peut être étudiée de près, afin de définir son ordre précis, son micro-état.

Où se trouve précisément Jacques dans le macro-état "foule" ?

 Internet le sait, pour lui c'est de l'ordre, à compenser dans le calcul par de l'information.

Bref, le métalangage, la langue qui théorise la langue, a de l'avenir et Wittgenstein, qui en niait la possibilité au nom de l'irréductibilité des jeux de langues, moins.