De par sa forme mathématique (un logarithme de probabilités) la mesure de l'information contenue dans un message ou un système physique est identique à la mesure de l'entropie d'un système. Faut-il, ou non, mettre un signe "moins" devant l'entropie pour définir l'information, qui deviendrait alors de l'entropie négative?  

L'information sur un système donné semble bien faire croitre l'ordre de ce système, puisque nous substituons le savoir précis de la disposition de ce système au désordre, qui repose d'un point de vue statistique sur l'assimilation à un même état très probable de plusieurs états finement distincts. Cependant, comme l'explique  Gell-Mann,  pour sauver la seconde loi de la thermodynamique (à savoir que l'ordre d'un système isolé décroit toujours, ne croit jamais)  on définit l'entropie totale comme la somme du désordre et de l'information, puisque les deux ont la même forme mathématique. L'entropie stricte diminue mais non l'entropie corrigée. Cela signifie qu'on donne le même signe à l'ignorance et à l'information: quand l'information croit, l'ignorance diminue, mais la somme tend toujours à augmenter... Cela veut dire qu'on peut considérer l'observateur et le système observé comme un seul et même système global. 

Bergson considérait à juste titre que d'une part le désordre n'existait pas en soi: les choses sont forcément disposés en un certain ordre; que d'autre part l'entropie existait objectivement, puisque la vie n'était autre chose que la lutte contre ce désordre, à savoir contre la mort.

Voici la solution moderne de cette difficulté bergsonienne: quand nous regardons de plus près un système, le désordre devient plus ordonné, l'entropie du système décroît. Je sais où est Jacques dans la foule, cette information produit de l'ordre, on passe d'un macro-état (foule indistincte, où je ne vois pas Jacques en tant que tel) à un état plus fin.

Alors, c'est donc le sujet qui par magie transforme le système, comme dans une philosophie idéaliste de la représentation?

Non. Je fais partie de la réalité physique. Il faut donc remplacer (sur un plan pour ainsi dire comptable!)  l'entropie détruite par ma propre activité pour produire de l'information. Mon information "est" de l'entropie et l'entropie en apparence détruite s'est déplacée dans mon propre système, par exemple dans mon cerveau.

Ainsi, et ce n'est nullement intuitif, l'information au sens de Shannon peut être considérée comme de l'entropie, quand nous voyons plutôt dans un texte, ou dans un génome, un gain d'ordre, et donc de l'entropie négative, de la contre-entropie, ou négentropie.

 L'information, qui est de l'ordre, se voit contrainte par le raisonnement, ou plutôt le calcul, à être mesurée comme de l'entropie, à se voir conférer un signe positif (plus d'entropie).Mais faut-il réduire cela à une simple question comptable, dont l'objectif est d'en finir avec un certain idéalisme du sujet, ou de l'observateur? Le prix semble élevé, à savoir l'assimilation sophistique du désordre et de l'ordre, qui devient une sorte de dette. Si je paie une dette par une nouvelle dette, ma dette n'est point annulée, mais augmente.

Sur un plan plus empirique, trop d'informations produit sans doute du désordre, c'est de nouveau une foule où tout semble se mêler, et ce désordre demande d'ailleurs à être ordonné à son tour. D'où les catalogues par exemple, rangés par ordre alphabétique.

De plus toute information sera à son tour détruite, soit d'un coup, si le livre est brûlé, soit progressivement, s'il est rongé par les rats, ou... par l'entropie (de copie en copie de copie, etc...) 

Ajoutons que, comme l'a montré Schroendinger, si l’évolution crée bien des négentropies, tout ordre ainsi "créé"  produit un surcroît de désordre dans l'environnement: la négentropie est même tout particulièrement efficace pour produire de l’entropie, cette grandeur de l’univers qui ne cesse et ne cessera jamais d’augmenter! C’est le second principe de la thermodynamique et une loi universelle, fondamentale, de la nature. Un verre, quel que soit le chaos de ses molécules, a une forme, qui est de l'ordre. Mais si cette forme suppose une information par l'artisan ou la machine, il se cassera tout seul tôt ou tard, en mille morceaux. Mille morceaux ne se rassemblent pas tout seuls en un verre…

L’ordre devient ainsi à terme surcroît de désordre. La nature a "inventé" les organismes vivant comme "pour" dégrader encore plus vite les sources d’ordre. C'est ce que fait avec un certain enthousiasme l'économie moderne, on ne le sait que trop. Certes, comme l'avait entrevu Bergson, l'information adéquate transforme ce désordre en ordre, par exemple si je suis capable d'identifier chaque éclat de verre, et sa position, si je passe ainsi du macro-état "verre brisé" au micro-état "disposition exacte, forme exacte, origine exacte des éclats de verre".

L'information qui me permet elle aussi à sa façon de lutter contre le désordre n'est à son tour qu'une dette, elle n'augmente pas ma richesse absolue, bien au contraire elle appauvrit de façon accélérée les ressources au même titre que la fabrication physique du verre à pied. Tout ordre entraîne un désordre accru, c'est-à-dire une baisse accélérée des ressources de l'environnement (on considère ici le génôme d'un animal ou d'une plante comme de l'information!).    

 

Mais voici en réalité ce qui m'intéresse ici : avec la théorie de l'information, la théorie scientifique elle-même, en tant qu' information, entre dans la boucle des calculs du physicien. En d'autres termes, nature entropique et information (ou plutôt théorie de la nature, théorie 1), même combat!

Apparaît ainsi une théorie 2, théorie de la théorie, qui appartient elle-même au monde physique. Peut-on l'intégrer à ses propres calculs? Ou faut-il une théorie 3? Et ainsi à l'infini ...

Au passage, Bergson avait en somme raison de nier le désordre: l'entropie traduit notre ignorance de la constitution fine d'un macro-état. Une foule, macro-état, peut être étudiée de près, afin de définir son ordre précis, son micro-état.

Où se trouve précisément Jacques dans le macro-état "foule" ?

 Internet le sait, pour lui c'est de l'ordre, à compenser dans le calcul par de l'information.

Bref, le métalangage, la langue qui théorise la langue, a de l'avenir et Wittgenstein, qui en niait la possibilité au nom de l'irréductibilité des jeux de langues, moins.