Thermodynamique.
Transformation de l'énergie

Énergie thermique I de combustion.
Effets de la thermodynamique

Entropie

Entropie

Entropie

Qu'est-ce que l'entropie? L'entropie (S) est une grandeur thermodynamique définie à l'origine comme un critère de prédiction de l'évolution des systèmes thermodynamiques.

L'entropie est une fonction de l'état de caractère étendu. La valeur de l'entropie, dans un système isolé, croît au cours d'un processus qui se produit naturellement. Entropy décrit comment un système thermodynamique est irréversible.

La signification de l'entropie est l'évolution ou la transformation. Le mot entropie vient du grec.

L'entropie dans le monde de la physique

En physique, l'entropie est la grandeur thermodynamique qui nous permet de calculer la part de l'énergie thermique qui ne peut pas être utilisée pour produire du travail si le processus est réversible. L'entropie physique, dans sa forme classique, est définie par l'équation.

Équation d'entropie

ou plus simplement, si la température reste constante dans le processus 1 →; 2 (processus isotherme):

Ainsi, si un corps chaud à température T1 perd une quantité de chaleur Q1, son entropie diminue en Q1 / T1, s'il donne cette chaleur à un corps froid à température T2 (inférieure à T1) l'entropie du corps froid augmente de plus de que l'entropie du corps chaud a diminué parce que

perte d'entropie

Une machine réversible peut donc transformer une partie de cette énergie thermique en travail, mais pas tous.

La performance de la machine réversible (qui est le maximum que n'importe quelle machine peut donner) est:

Performance réversible de la machine

Pour que toute l'énergie thermique puisse être transformée en travail, il faudrait que soit le foyer chaud soit à une température infinie, soit que le foyer froid soit à zéro kelvin; dans un autre cas, la performance thermodynamique de la machine réversible est inférieure à 1.

L'expression de l'entropie est une conséquence logique du second principe de la thermodynamique et de la façon dont la température est mesurée.

Le deuxième principe de la thermodynamique dit que, si le travail n'est pas consommé, la chaleur des corps chauds aux corps froids, soit directement par conduction comme si elle était faite par n'importe quelle machine.

La température doit être mesurée sur une échelle thermodynamique; sinon, l'expression de l'entropie n'est pas aussi élégante et dépend de la substance thermométrique utilisée pour construire le thermomètre. Lors de la définition de l' échelle de température thermodynamique, il existe un degré de liberté qui peut être choisi arbitrairement. Si imposée entre le point d'ébullition et de congélation de l'eau a 100 degrés, l'échelle de Kelvin est obtenue et la température de congélation de l'eau à 273 K.

Entropie et énergie

Si l'on suppose que l'univers est un système isolé, à savoir un système pour lequel il est impossible de matériau d'échange et de l'énergie vers l'extérieur, la première loi de la thermodynamique et de la seconde loi de la thermodynamique peuvent être résumés comme suit: & quot; l'énergie totale de l'univers est entropie constante et le total augmente de façon continue jusqu'à ce qu'il atteigne un équilibre & quot;

Cela signifie que non seulement ne peut pas créer ou détruire l'énergie, ou peut complètement transformer d'une forme à l'autre sans un côté, dissiper sous forme de chaleur.

L'histoire de l'entropie

Rudolf Clausius fut le premier à introduire le concept d'entopia Le concept d'entropie est développé en réponse à l'observation d'un certain fait: il y a une certaine quantité d'énergie libérée dans les réactions de combustion qui est perdue à cause de la dissipation ou du frottement. De cette façon, l'énergie perdue ne se transforme pas en travail utile.

Les premiers moteurs thermiques tels que Thomas Savery (1698), le moteur Newcomen (1712) et le Stug Cugnot à trois roues (1769) étaient inefficaces. De l'énergie d'entrée, seulement 2% ont été convertis en énergie utile. Une grande quantité d'énergie utile s'est dissipée ou a été perdue dans ce qui semblait être un état d'aléatoire incommensurable. Au cours des deux siècles suivants, les physiciens ont étudié cette énigme de l'énergie perdue. Le résultat de ces études a conduit les scientifiques à la notion d'entropie.

Le physicien Rudolf Clausius fut le premier à l'introduire en 1865. Depuis, plusieurs définitions de l'entropie sont apparues. La définition la plus pertinente de l'entropie est celle qui a élaboré Ludwig Boltzmann. Boltzmann relie le concept d'entropie au degré de désordre d'un système. Cette nouvelle perspective sur l'entropie a permis d'étendre le concept à différents domaines, tels que la théorie de l'information, l'intelligence artificielle, la vie ou le temps.

valoración: 3 - votos 1

Dernier examen: 20 octobre 2017