hephaestos Sanctis Recorda, Sanctis deus. | Reprise du message précédent :
Fnord a écrit :
Sur l'aspect fondamental ou non, voici mon acceptation du terme : est-ce que cette incertitude découle des modèles et théories qui fondent la physique contemporaine. Et pour le coup, la physique statistique est tout aussi importante et fondatrice que la mécanique quantique. Mais je suis d'accord, j'aurais du préciser la manière dont j'avais lu le terme. Cela dit, je ne comprends pas ce que tu entends par "paramètres définissant l'univers". A partir du moment où l'univers ne permet pas quelque chose, on sort du domaine de la physique en se demandant ce qu'il se passerait s'il était plus grand.
|
Le terme de "physique statistique" est une escroquerie en soit : la physique statistique n'est qu'un formalisme mathématique qui permet de tirer des informations sur le comportement global d'un système lorsqu'il est constitué d'un grand nombre de particules dont on connait les propriétés statistiques. Lors du passage d'une boule de billard à un gaz parfait par la physique statistique, aucune physique n'a été faite, on a juste déduit des lois de comportement macro à partir des propriétés micro des particules composant le système.
Je dirais que "statistiques pour la physiques" serait un terme plus approprié, même si ça fait un peu institut IPSOS.
Fnord a écrit :
J'ai eu l'occasion de voir ce genre de simulations pour des systèmes granulaires, avec un nombre comparable de particules. D'ailleurs, on doit bosser sur des sujets assez voisins. Tu bosserais pas sur la montagne Ste Genevievre, par hasard?
|
Non... Mais ça me dit quelque chose, c'est dans quel coin ?
Fnord a écrit :
Un système constitué de 10 000 particules n'est pas assez grand pour utiliser les résultats de physique statistique, et effectivement sur des systèmes de cette taille, on peut contrevenir au second principe de la thermo et à ce genre de choses, ça n'a pas de sens de parler de température pour des systèmes de cette taille. Néanmoins, on parle ici de systèmes macroscopiques contenant un nombre de particules de l'ordre de la mole (mettons 10^24), et extrapoler des résultats sur 20 ordres de grandeur me semble assez peu rigoureux d'un point de vue de physicien. D'autant que la complexité des simulations ne croit pas linéairement avec la taille du système.
|
Mais NON, on NE PEUT PAS circonvenir aux principes de la thermo, quelle que soit la taille du système étudié ! Simplement, ces principes ne sont utiles que pour de grands systèmes, ils ne sont plus pertinents pour des systèmes plus petits. Et, pour des gouttes d'eau de quelques nanomètres, ils sont parfaitement pertinents.
Fnord a écrit :
Concernant l'approche microscopique pour des systèmes macroscopique, il s'agit du vieux démon de Maxwell, et le jour où l'on aura réussi à le faire, on aura dans la foulée trouvé le mouvement perpétuel. La physique moderne ne permet pas de dire que ça soit possible, et prétendre avoir une approche microscopique d'un système macroscopique sort du cadre de la physique.
|
Non, le démon de Maxwell c'est simplement les fluctuations thermiques (ou statistiques) d'un système macroscopique. Circonvenir au "démon de Maxwell", c'est simplement prendre en compte le système particulaire, et surement pas inventer le mouvement perpétuel. Même si cela peut sembler tout aussi irréalisable pour le moment, l'un est autorisé par les lois de la physique, l'autre non.
Fnord a écrit :
Bref, je viens de me rendre compte que j'avais répondu à côté, mais j'ai pas envie d'avoir écrit le passage précédent pour rien, alors je le laisse quand même.
Même en considérant ton objection sur les systèmes de 10 000 particules, on parle ici de prédire le comportement d'un système, et dans le cas d'un système chaotique, injecter des conditions initiales aléatoires comme on le fait dans les simulations que tu cites ne permet pas cette prédiction de l'évolution du système. On en revient au problème que je posais, à savoir la détermination des conditions initiales de nos 10^24 particules, qui est indispensable pour la prédiction de l'évolution d'un système chaotique au delà d'un certain temps raisonnablement court. Qu'on soit capable de faire le calcul ne change rien au fait qu'il faille déterminer leurs positions et vitesses initiales afin de les injecter dans l'ordinateur. Et cette détermination me semble interdite par les lois de la physique statistique et par le second principe de la thermodynamique.
|
Eh bien, en effet, outre l'effarante puissance de calcul nécessaire pour faire un calcul particulaire sur des objets à échelle humaine, la barrière expérimentale est (attention : ce qui suit est un euphémisme) considérable pour connaitre les conditions initiales. Je n'ai pas le soupçon du commencement d'un idée permettant d'avoir accés en temps réel aux paramètres décrivant toutes les particules d'un objet macroscopique.
Mais cette impossibilité ne reste "qu"'une impossibilité technologique, et n'est interdite par aucune loi physique, et surement pas par la physique statistique.
Puisqu'il est possible de connaitre la position et la vitesse d'une particule unique, et qu'on le fait couramment, qu'est-ce qui, selon toi, empêcherait de connaitre la position et la vitesse de 602200000000000000000000 particules ?
Fnord a écrit :
Dans le loto, j'en sais rien. Par contre, dans le problème du comportement de 49 boules dans une boîte qui sont maintenues en rotation avec des petites barres qui tournent dans l'urne, je suis persuadé que ces fluctuations thermiques à t=0 doivent être prises en compte dans les conditions initiales pour prédire l'état du système à t=quelques jours (1). Et selon moi, même si la simulation était possible en théorie (ce dont je ne suis pas convaincu, mais admettons), la détermination expérimentale de ces fluctuations à t=0 resterait impossible(2).
|
1 : Disons que ni toi ni moi ne nous sommes penché sérieusement sur la question, alors tout ce qu'on pourra dire ne restera que de la spéculation pifométrique. Reste qu'en effet, si l'on veut prédire le résultat avec plusieurs jours d'avance, les fluctuations thermiques vont peut-être jouer un rôle...
2 : voir au dessus, impossible n'est pas le mot, irréalisable certainement.
Fnord a écrit :
Profond désaccord sur ce point là. Et je pense qu'aucun de nous deux n'arrivera à faire changer l'autre d'avis.
D'une part, je pense que l'impossibilité de déterminer l'état microscopique d'un système macroscopique, impossibilité qui est prédite par la physique statistique, est une impossibilité théorique et pas expérimentale.
D'autre part, pour moi, la physique statistique a la même valeur que la physique quantique, et je ne comprends pas pourquoi tu prétends que la première peut être ignorée et pas la seconde.
|
La physique statistique ne prévoit rien du tout, elle permet de faire un changement d'échelle pertinent pour les grands systèmes, et c'est tout. Et elle inclut lors de ce changement d'échelle une perte d'information qui implique que certains phénomènes ne seront pas correctement pris en compte, c'est ce que l'on appelle les fluctuations thermiques.
Une fois ce changement d'échelle accompli, c'est vrai, il est impossible de restaurer les informations perdues, et les fluctuations thermiques agissent dans les faits comme des fluctuations parfaitement aléatoires, imprévisibles et imprévues.
Mais, rien n'oblige de passer au formalisme statistique lorsque l'on parle de grands système (rien à part le bon sens bien sur : ce dont on est en train de parler, à savoir simuler un objet macroscopique en prenant tout en compte, est dans bien des cas d'une stupidité sans nom...), rien ne nous force à faire le premier pas du raisonnement de la physique statistique, qui est d'attribuer à chaque particule une densité de probabilité pour chacune de ses caractéristiques physiques. Message édité par hephaestos le 09-09-2005 à 07:37:07
|