Termodinâmica.
Transformação de energia

Energia térmica I combustão.
Efeitos da termodinâmica

Entropia

Entropia

Entropia

O que é entropia? Entropia (S) é uma quantidade termodinâmica originalmente definida como um critério para prever a evolução dos sistemas termodinâmicos.

Entropia é uma função do estado de caractere extenso. O valor da entropia, em um sistema isolado, cresce no curso de um processo que ocorre naturalmente. Entropia descreve como um sistema termodinâmico é irreversível.

O significado da entropia é evolução ou transformação. A palavra entropia vem do grego.

Entropia no mundo da física

Em física, a entropia é a magnitude termodinâmica que nos permite calcular a parte da energia térmica que não pode ser usada para produzir trabalho se o processo for reversível. A entropia física, em sua forma clássica, é definida pela equação.

Equação de entropia

ou mais simplesmente, se a temperatura permanece constante no processo 1 →; 2 (processo isotérmico):

Assim, se um corpo quente na temperatura T1 perde uma quantidade de calor Q1, sua entropia diminui em Q1 / T1, se dá este calor a um corpo frio a temperatura T2 (menor que T1) a entropia do corpo frio aumenta mais que que a entropia do corpo quente diminuiu porque

perda de entropia

Uma máquina reversível pode, portanto, transformar uma parte dessa energia térmica em trabalho, mas não todas.

O desempenho da máquina reversível (que é o máximo que qualquer máquina pode fornecer) é:

Desempenho da máquina reversível

Para que toda a energia de calor pudesse ser transformada em trabalho, seria necessário que o foco quente estivesse em uma temperatura infinita, ou que o foco frio estivesse em zero kelvin; em outro caso, o desempenho termodinâmico da máquina reversível é menor que 1.

A expressão da entropia é uma conseqüência lógica do segundo princípio da termodinâmica e do modo como a temperatura é medida.

O segundo princípio da termodinâmica diz que, se o trabalho não for consumido, o calor dos corpos quentes para os corpos frios, diretamente por condução, como se feito através de qualquer máquina.

A temperatura deve ser medida em uma escala termodinâmica; caso contrário, a expressão da entropia não é tão elegante e depende da substância termométrica usada para construir o termômetro. Ao definir a escala de temperatura termodinâmica, há um grau de liberdade que pode ser escolhido arbitrariamente. Se for imposto que entre a temperatura de ebulição e a temperatura de congelamento da água haja 100 graus, a escala Kelvin é obtida e verifica-se que a temperatura de congelamento da água deve ser de 273 K.

Entropia e energia

Assumindo que o universo é um sistema isolado, ou seja, um sistema para o qual é impossível material de troca de energia e para o exterior, a primeira lei da termodinâmica e a segunda lei da termodinâmica pode ser resumido como se segue: & ldquo; a energia total do universo é constante e a entropia total aumenta continuamente até atingir um equilíbrio & rdquo;

Isto significa que não só não pode criar ou destruir energia, ou pode transformar completamente a partir de uma forma para outra, sem um dos lados está dissipar na forma de calor.

História da entropia

O conceito de entropia é desenvolvido em resposta à observação de um certo fato: há uma certa quantidade de energia liberada nas reações de combustão que é perdida devido à dissipação ou fricção. Assim, a energia que se perde não se transforma em trabalho útil.

 

Os primeiros motores térmicos como o Thomas Savery (1698), o motor Newcomen (1712) e o Steam Cugnot de três rodas (1769) eram ineficientes. Da energia de entrada, apenas 2% foram convertidos em energia útil. Uma grande quantidade de energia útil se dissipou ou foi perdida no que parecia ser um estado de aleatoriedade incomensurável. Nos dois séculos seguintes, os físicos investigaram esse enigma da energia perdida. O resultado desses estudos levou os cientistas ao conceito de entropia.

O físico Rudolf Clausius foi o primeiro a introduzi-lo em 1865. Desde então, várias definições de entropia surgiram. A definiçà £ o mais relevante de entropia à © a que elaborou â € “â €“ Ludwig Boltzmann. Boltzmann relaciona o conceito de entropia ao grau de desordem de um sistema. Essa nova perspectiva da entropia permitiu que o conceito fosse estendido a diferentes campos, como teoria da informação, inteligência artificial, vida ou tempo.

valoración: 3 - votos 1

Última revisão: 20 de outubro de 2017