PLAN DU SITE PREAMBULE COMPLEXITE ENTROPIEE RESEAUX COMPLEXES SYSTEMES COMPLEXES AUTO-ORGANISATION
EMERGENCE MODELISATION / SIMULATION REDUCTIONISME / HOLISME SYSTEMES COMPLEXES ADATATIFS TERMES DES PHENOMENES NON-LINEAIRES
Grandeur qui mesure le degré de désordre d’un système par rapport à son état initial :
En thermodynamique, mesure la dégradation d’énergie d’un système (deuxième principe)
En théorie de l’information, mesure le contenu d’information statistique d’un message
Principe d’entropie maximale
Caractérise l’orientation de la « flèche du temps »
Trois démarches convergentes:
Clausius: entropie en thermodynamique (S=∫dQ/T)
Boltzmann: entropie en mécanique statistique (S= k Log W)
Shannon: néguentropie en théorie de l’information (H=-Σ p log p)
En Physique: thermodynamique (moteurs); astrophysique (trous noirs)
En Biologie et en Evolution
En informatique et en théorie de l’Information: codage et mémoire
En mathématiques
Néguentropie, Ordre, Désordre, Organisation
Structures dissipatives
Hypothèse ergodique (approche réductionniste d‘étude d’un système)
Théorie des Systèmes dynamiques
Auto organisation
Carnot, Clausius, Boltzmann
Shannon, Brillouin
Kolmogorov/Sinaï, Prigogine
La Nouvelle Alliance, de Prigogine et Stengers, Gallimard 1986
Complex Systems de Prigogin
1091Biologie et évolution
L’entropie d’un système est associée au niveau de désordre de ce système
L’entropie a « inventé l’eau tiède »
Le démon de Maxwell (expérience de pensée niant le deuxième principe)
Trois démarches convergentes : thermodynamique, mécanique statistique, théorie de l’information
Paradoxe entropique : le démon de Maxwell