¿Qué es la "entropía"?
Entropía
Término físico, el cociente que se obtiene al dividir el calor por la temperatura, que marca el grado de conversión del calor en trabajo.
Significado físico: Cuando una sustancia sufre un movimiento térmico microscópico, una señal del nivel de confusión.
Uno de los parámetros que caracterizan el estado de la materia en termodinámica, habitualmente representado por el símbolo S. En termodinámica clásica, el incremento disponible se define como dS = (dQ/T), donde T es la temperatura termodinámica de la sustancia; dQ es el calor agregado a la sustancia durante el proceso de aumento de entropía. El subíndice "reversible" indica que el proceso de cambio provocado por el proceso de calentamiento es reversible. Si el proceso es irreversible, entonces dS>(dQ/T) es irreversible. La entropía por unidad de masa de materia se llama entropía específica y se registra como s. La entropía fue originalmente un parámetro del estado material que reflejaba la irreversibilidad de los procesos espontáneos derivados de la segunda ley de la termodinámica. La segunda ley de la termodinámica es una regla resumida basada en una gran cantidad de observaciones. Tiene la siguiente expresión: ① El calor siempre se transfiere de objetos de alta temperatura a objetos de baja temperatura y es imposible transferirlo en la dirección opuesta. sin causar otros cambios; ② El trabajo se puede convertir completamente en calor, pero cualquier máquina térmica no puede convertir completa y continuamente el calor recibido en trabajo (es decir, no puede crear un segundo tipo de máquina de movimiento perpetuo); El proceso real siempre aumenta el valor de entropía de todo el sistema. Grande, este es el principio de aumento de entropía. La fricción hace que parte de la energía mecánica se convierta irreversiblemente en calor, aumentando la entropía. El calor dQ se transfiere de un objeto de alta temperatura (T1) a un objeto de baja temperatura (T2). La entropía del objeto de alta temperatura disminuye en dS1=dQ/T1, y la entropía del objeto de baja temperatura aumenta en. dS2=dQ/T2. Tome los dos objetos juntos como un sistema. El cambio de entropía es dS=dS2-dS1>0, es decir, la entropía aumenta.
En ciencia y tecnología, generalmente se refiere a un grado cuantitativo del estado de ciertos sistemas materiales y al grado en que ciertos estados de los sistemas materiales pueden ocurrir. También es utilizado por las ciencias sociales como metáfora del grado de ciertos estados de la sociedad humana.
En teoría de la información, la entropía representa una medida de incertidumbre.
"Entropía" (entropía) es un término acuñado por el físico alemán Rudolf Clausius (1822-1888) en 1850. Lo utilizó para representar cualquier tipo de energía en el espacio. Cuanto más uniformemente se distribuya la energía, mayor será la entropía. Si la energía del sistema que estamos considerando se distribuye de manera completamente uniforme, entonces la entropía del sistema alcanza su valor máximo.
Según Clausius, en un sistema, si se le permite desarrollarse de forma natural, la diferencia de energía siempre tenderá a eliminarse. Ponga en contacto un objeto caliente con un objeto frío, y el calor fluirá de la siguiente manera: el objeto caliente se enfriará y el objeto frío se calentará, hasta que ambos objetos alcancen la misma temperatura. Si dos embalses están conectados y el nivel del agua de un embalse es más alto que el del otro, entonces la fuerza gravitacional bajará el nivel del agua de un embalse y elevará el nivel del agua del otro hasta que los niveles de agua de los dos embalses sean iguales, y la energía potencial también hasta que sea par.
La energía sólo se puede convertir en trabajo si la densidad de energía en el sistema particular con el que estás trabajando varía. En este caso, la energía tiende a fluir de mayor densidad a menor densidad hasta que todo esté parejo. Es a través de este flujo de energía que puedes obtener trabajo de la energía.
El nivel del agua en el nacimiento del río es relativamente alto y la energía potencial del agua allí es mayor que la del agua en la desembocadura del río. Por esta razón, el agua fluye por los ríos hacia el océano. Si no hubiera llovido, toda el agua del continente habría desembocado en el océano y el nivel del mar habría aumentado ligeramente. La energía potencial total permanece sin cambios en este momento. Pero la distribución es relativamente pareja.
Es cuando el agua fluye hacia abajo cuando se puede girar la rueda hidráulica, para que el agua pueda trabajar. El agua al mismo nivel no puede realizar trabajo. Incluso si el agua está en una meseta muy alta y por lo tanto tiene una energía potencial anormalmente alta, no puede realizar trabajo. Lo que juega un papel decisivo aquí es la diferencia en la densidad de energía y el flujo en la dirección de la homogeneización.
La entropía es una medida de caos y desorden. Cuanto mayor sea el valor de la entropía, mayor será el grado de desorden. Nuestro universo es un universo de entropía creciente.
La segunda ley de la termodinámica incorpora esta característica. La vida está muy ordenada y la inteligencia está muy ordenada. ¿Por qué aparece la vida en un universo con una entropía creciente? ¿Evolucionará la sabiduría? (entropía negativa). La segunda ley de la termodinámica también revela que el orden local es posible, pero sólo a expensas de un mayor desorden en otros lugares. La supervivencia humana requiere energía y alimentos, a expensas de la muerte de animales y plantas (aumento de entropía). Todas las cosas se vuelven dependientes del sol. El orden de los animales y las plantas se produce a expensas del agotamiento de las reacciones nucleares solares (aumento de entropía) u otras formas de aumento de entropía. Las personas están encerradas en una caja de plomo completamente cerrada y no pueden mantener su propia entropía negativa cuando la entropía aumenta en otros lugares. En este sistema relativamente cerrado, la ley del aumento de entropía destruye el orden de la vida. La entropía es la flecha del tiempo y es irreversible en este universo. La entropía está estrechamente relacionada con el tiempo. Si el tiempo deja de "fluir", no habrá aumento de entropía. "Todo lo que sabemos que la materia puede contener" no es otro que "tiempo". La baja temperatura también detiene el "tiempo". La vida es una "estructura" ordenada de la materia. "Estructura" no es un concepto al mismo nivel que materia específica. Al igual que los materiales de construcción y el estilo del edificio no están al mismo nivel. La biología ha demostrado que a medida que las personas envejecen, ninguno de los átomos de sus cuerpos es el mismo que cuando nacieron. Sin embargo, tú sigues siendo tú, yo sigo siendo yo y la vida continúa. Por otro lado, los muertos no tienen metabolismo y las moléculas en sus cuerpos pueden retenerse durante mucho tiempo. La conciencia es un nivel de orden más elevado que la vida y puede transmitirse entre vidas. Dicho esto, creo que la relación jerárquica entre materia y conciencia debería quedar relativamente clara. (Extraído del foro BBS en línea del People's Daily)
Este es el caso sin importar qué tipo de energía sea. En una máquina de vapor, hay un depósito caliente que convierte el agua en vapor y un depósito frío que condensa el vapor en agua. Es esta diferencia de temperatura la que juega un papel decisivo. A cualquier temperatura única e indiferenciada, por alta que sea, es imposible obtener trabajo.
Por tanto, decía Clausius, una ley universal en la naturaleza es: las diferencias en la densidad de energía tienden a igualarse. En otras palabras, "la entropía aumentará con el tiempo".
En el pasado, los estudios sobre el flujo de energía desde áreas de mayor densidad a áreas de menor densidad se realizaban principalmente en forma de energía calor. Por lo tanto, la ciencia del flujo de energía y la conversión de trabajo en energía se llama "termodinámica", que proviene de la palabra griega "movimiento térmico".
Durante mucho tiempo se ha llegado a la conclusión de que la energía no se puede crear ni destruir. Ésta es la ley más básica; por eso la gente la llama la "primera ley de la termodinámica".
La afirmación de Clausius de que la entropía aumenta con el tiempo parece ser casi una ley universal muy básica, por eso se la denomina "Segunda Ley de la Termodinámica".
Una de las funciones de estado importantes que describen los sistemas termodinámicos. El tamaño de la entropía refleja la estabilidad del estado del sistema. El cambio de entropía indica la dirección del proceso termodinámico. La entropía proporciona una expresión cuantitativa de la segunda ley de la termodinámica.
Para expresar cuantitativamente la segunda ley de la termodinámica, deberíamos encontrar una función de estado que permanezca sin cambios durante procesos reversibles y cambie monótonamente durante procesos irreversibles. Cuando Clausius estaba estudiando la máquina térmica de Carnot, derivó una fórmula basada en el teorema de Carnot que es aplicable a cualquier proceso cíclico. En la fórmula, Q es la pequeña cantidad de calor absorbida por el sistema de una fuente de calor con una temperatura de T. El signo igual y el signo de desigualdad corresponden respectivamente a procesos reversibles e irreversibles. El ciclo reversible muestra que existe una función de estado de entropía, que puede definirse como otra fórmula (ver trabajos relacionados).
Para el proceso adiabático Q=0, entonces S≥0, es decir, la entropía del sistema permanece sin cambios durante el proceso adiabático reversible y aumenta monótonamente durante el proceso adiabático irreversible. Este es el principio del aumento de entropía. Dado que todos los cambios dentro de un sistema aislado no tienen nada que ver con el mundo exterior y deben ser un proceso adiabático, el principio de aumento de entropía también se puede expresar como: la entropía de un sistema aislado nunca disminuirá. Muestra que cuando un sistema aislado pasa de un estado de no equilibrio a un estado de equilibrio, su entropía aumenta monótonamente. Cuando el sistema alcanza un estado de equilibrio, la entropía alcanza un valor máximo. El cambio y el valor máximo de entropía determinan la dirección y el límite del proceso de un sistema aislado. El principio de aumento de entropía es la segunda ley de la termodinámica.
La energía es una medida del movimiento de la materia, en diversas formas, y pueden convertirse entre sí. Cuanta más energía haya en una determinada forma, como la energía interna, mayor será el potencial de conversión. La palabra original entropía significa transformación y describe la dirección y el grado de conversión espontánea de la energía interna y otras formas de energía. A medida que avanza la conversión, el sistema tiende a un estado de equilibrio y el valor de entropía se vuelve cada vez mayor, lo que muestra que aunque el valor de la energía total permanece sin cambios durante este proceso, cada vez hay menos energía disponible para su utilización o conversión. La energía interna, la entropía y la primera y segunda leyes de la termodinámica permiten a las personas tener una comprensión integral y completa de las características básicas del proceso de conversión de energía asociado con el movimiento térmico.
Desde una perspectiva microscópica, la entropía es una medida del desorden de un gran número de partículas microscópicas que forman un sistema. Cuanto más desordenado y caótico es el sistema, mayor es la entropía. La esencia microscópica y el significado estadístico de la irreversibilidad de los procesos termodinámicos es que el sistema tiende del orden al desorden, de un estado con baja probabilidad a un estado con alta probabilidad.
La razón de este fenómeno también es muy simple: hay muchas más formas de desordenar que de ordenar, por ejemplo, se necesita que un grupo de estudiantes haga fila en el patio de recreo. pero es muy sencillo hacerlos correr por el patio de recreo.
La entropía en la teoría de la información: una unidad de medida de la información. Shannon, el fundador de la teoría de la información, propuso la medición de la información basada en modelos probabilísticos y estadísticos en su libro "Teoría matemática de la comunicación". Definió la información como “algo que se utiliza para eliminar la incertidumbre”.
Fórmula de Shannon: I(A)=-logP(A)
I(A) mide la cantidad de información proporcionada por la ocurrencia del evento A, que se denomina auto- información del evento A. P(A) es la probabilidad de que ocurra el evento A. Si un experimento aleatorio tiene N resultados posibles o un mensaje aleatorio tiene N valores posibles, y las probabilidades de que ocurran son p1, p2,..., pN respectivamente, entonces la suma de la autoinformación de estos eventos:
H=-SUM(pi*log(pi)), i=1, 2...N
se llama entropía.
En teoría de la información, la entropía se puede utilizar como medida de la incertidumbre de un evento. Cuanto mayor es la cantidad de información, más regular es la estructura del sistema, más completa es la función y menor es la entropía. Utilizando el concepto de entropía, se puede estudiar teóricamente la medición, transferencia, transformación y almacenamiento de información. Además, la entropía también tiene determinadas aplicaciones en campos como la cibernética, la teoría de la probabilidad, la teoría de números, la astrofísica y las ciencias de la vida.
En física, Boltzmann dijo: "Cuando se reduce la energía, los átomos adoptan un estado más desordenado". La entropía es una medida del desorden: es un concepto de gran alcance derivado de la nueva interpretación de Boltzmann. Sorprendentemente, se puede hacer una medida del desorden, que es la probabilidad de un estado particular, definido aquí como el número de formas en que los átomos se agrupan. Su expresión muy precisa es:
S=KlogW
S es la entropía, que es proporcional al logaritmo de la probabilidad W de un estado dado K es la constante de proporcionalidad, ahora. llamada constante de Boltzmann.
Si no fuera por Boltzmann, nuestro progreso se retrasaría décadas, tal vez cien años.
Su fórmula inmortal S=KlogW está grabada en su lápida.
La entropía era originalmente un símbolo en termodinámica, que expresaba el grado de promediación de calor dentro de un determinado sistema. Posteriormente, este concepto fue tomado prestado por muchas otras disciplinas, dando lugar a más conceptos. Pero no importa cómo cambie entre disciplinas, el concepto que expresa es siempre el mismo, es decir, el grado de igualación de la distribución material dentro del sistema. La entropía se ha convertido ahora en un concepto generalizado y no exclusivo de la física.
La entropía es un concepto físico. En el lenguaje cotidiano, a menudo significa desorden. Pero la entropía es muy diferente del desorden en el sentido común. La segunda ley de la termodinámica dice que la entropía de un sistema cerrado no se puede reducir. El llamado sistema cerrado es un sistema en el que ni materia ni energía pueden entrar ni salir libremente.
-----------------------Entropía (teoría de la información)
El concepto de entropía se introdujo por primera vez en 1864 Introducido por Rudolf Clausius y utilizado en termodinámica.
Posteriormente, Claude Elwood Shannon lo introdujo por primera vez en la teoría de la información en 1948.
Definición
La definición de entropía en la teoría de mensajes es la siguiente:
Si hay múltiples eventos S = {E1,...,En en un sistema S }, la distribución de probabilidad de cada evento P = {p1, ..., pn}, entonces la información de cada evento en sí es
Es decir = ? log2pi
(El el logaritmo es 2 es la base, la unidad es bit)
Es decir = ? lnpi
(El logaritmo es e como base, la unidad es nats/nats)
Por ejemplo, hay 26 letras en inglés, y si cada letra aparece uniformemente en el artículo, la cantidad de información por letra es
I_e = -\log_2 {1\over 26} = 4,7
p>; Hay 2500 caracteres chinos de uso común. Si cada carácter chino aparece uniformemente en el artículo, la cantidad de información de cada carácter chino es
I_e = -\log_2 {. 1\over 2500 } = 11,3
El volumen promedio de mensajes de todo el sistema es
H_s = \sum_{i=1}^n p_i I_e = -\sum_{i= 1}^n p_i \ log_2 p_i
Este volumen promedio de mensajes es la entropía del mensaje. Debido a que tiene la misma forma que la fórmula de Boltzmann que describe la entropía termodinámica en termodinámica, también se le llama "entropía".
Si los dos sistemas tienen el mismo gran volumen de mensajes, como el mismo artículo escrito con diferentes caracteres, ya que es la suma de los volúmenes de mensajes de todos los elementos, entonces los caracteres chinos utilizados en el artículo chino son más grandes que los utilizados en el artículo en inglés. Debería haber menos letras. Por lo tanto, los artículos impresos con caracteres chinos son más cortos que los artículos impresos con otras aplicaciones que utilizan un número total menor de letras. Incluso si un carácter chino ocupa el espacio de dos letras, un artículo impreso con caracteres chinos utilizará menos papel que uno impreso con letras inglesas.
De hecho, el número de veces que aparece cada letra y cada carácter chino en el artículo no es par, por lo que el valor real no es el anterior, pero el cálculo anterior es un concepto general. Cuanto más texto utilice en las unidades de escritura, mayor será la cantidad de información contenida en cada unidad.
Características de la entropía
1. La entropía es mayor o igual a cero, es decir, H_s \ge 0.
2. Supongamos que N es el número total de eventos en el sistema S, luego la entropía H_s \le log_2N. Si y sólo si p1=p2=...=pn, el signo igual se mantiene y la entropía del sistema S es máxima en este momento.
3. Entropía conjunta: H(X, Y) \le H(X) H(Y), el signo igual es verdadero si y sólo si X e Y son estadísticamente independientes entre sí.
4. Entropía condicional: H(X|Y) = H(X, Y) - H(Y) \le H(X), si y sólo si X e Y son estadísticamente independientes entre sí Cuando se establece el signo igual.
Significado sociológico: Desde una perspectiva macro, representa el grado de caos en el mundo y la sociedad en el proceso evolutivo.
Según la opinión de algunos sociólogos occidentales posmodernos, el concepto de entropía ha sido trasplantado a la sociología. Significa que a medida que la sociedad humana desarrolle la ciencia y la tecnología y mejore la civilización, la "entropía" social, es decir, el grado de caos en las condiciones de vida y los valores sociales, seguirá aumentando. Según su punto de vista académico, en la sociedad moderna, el terrorismo furioso, las epidemias, las revoluciones sociales, los períodos más cortos de crisis económica y la materialización de la naturaleza humana son síntomas de una creciente "entropía" social.