¡Urgente, urgente, urgente! Amigos, compartan su comprensión de la "entropía". ¡Gracias a todos!
Definición 1 de Entropía: En física, se refiere al cociente de la energía térmica dividido por la temperatura, que marca el grado de conversión del calor en trabajo. 2: Función utilizada en ciencia y tecnología para describir y caracterizar el caos de un sistema. También es utilizado por las ciencias sociales como metáfora del grado de ciertos estados de la sociedad humana. 3: La entropía es el orden biológico y el fenómeno portador de conducta. Los científicos han inventado una cantidad para medir el desorden, llamada entropía. La entropía es también el grado de caos, la cantidad total de estructura interna desordenada. La traducción al inglés de entropía se refiere al grado de caos de un sistema. Tiene aplicaciones importantes en cibernética, teoría de la probabilidad, teoría de números, astrofísica, ciencias de la vida y otros campos. También tiene definiciones más específicas derivadas de diferentes disciplinas. Parámetro importante en varios campos. La entropía fue propuesta por Rudolf Clausius y utilizada en termodinámica. Más tarde, Claude Elwood Shannon introdujo por primera vez el concepto de entropía en la teoría de la información. [Editar este párrafo] Historia En 1850, el físico alemán Rudolf Clausius propuso por primera vez el concepto de entropía, que se utiliza para expresar la uniformidad de cualquier tipo de distribución de energía en el espacio. Cuanto más uniforme es la distribución de energía, mayor es la entropía. Cuando la energía de un sistema se distribuye de manera completamente uniforme, la entropía del sistema alcanza su valor máximo. Según Clausius, en un sistema, si se le permite desarrollarse naturalmente, la diferencia de energía siempre tenderá a eliminarse. Ponga en contacto un objeto caliente con un objeto frío, y el calor fluirá de la siguiente manera: el objeto caliente se enfriará y el objeto frío se calentará, hasta que ambos objetos alcancen la misma temperatura. Cuando Clausius estudiaba la máquina térmica de Carnot, derivó una fórmula basada en el teorema de Carnot que es aplicable a cualquier proceso cíclico: dS = (dQ/T). Para el proceso adiabático Q = 0, entonces S≥0, es decir, la entropía del sistema permanece sin cambios durante el proceso adiabático reversible y aumenta monótonamente durante el proceso adiabático irreversible. Este es el principio del aumento de entropía. Dado que todos los cambios dentro de un sistema aislado no tienen nada que ver con el mundo exterior y deben ser un proceso adiabático, el principio de aumento de entropía también se puede expresar como: la entropía de un sistema aislado nunca disminuirá. Muestra que cuando un sistema aislado pasa de un estado de no equilibrio a un estado de equilibrio, su entropía aumenta monótonamente. Cuando el sistema alcanza un estado de equilibrio, la entropía alcanza un valor máximo. El cambio y el valor máximo de entropía determinan la dirección y el límite del proceso de un sistema aislado. El principio de aumento de entropía es la segunda ley de la termodinámica. En 1948, Shannon publicó el artículo "Una teoría matemática de la comunicación" en el Bell System Technical Journal, introduciendo el concepto de entropía en la teoría de la información. [Editar este párrafo] El origen de la función de entropía La primera ley de la termodinámica es la ley de conservación y conversión de energía, pero no implica si el proceso de conversión de energía puede proceder espontáneamente y en qué medida puede proceder. La segunda ley de la termodinámica es una ley que determina la dirección y los límites de los procesos espontáneos. Tiene diferentes expresiones: el calor no puede transferirse espontáneamente de un objeto de baja temperatura a un objeto de alta temperatura; el calor no puede transferirse de un objeto de baja temperatura a otro; un objeto de alta temperatura sin provocar otros cambios; es imposible extraer calor de una sola fuente de calor y convertirlo todo en trabajo sin otros cambios; el segundo tipo de máquina de movimiento perpetuo es imposible de crear. La segunda ley de la termodinámica es un resumen de la experiencia humana. No puede derivarse de otras leyes más generales, pero hasta el momento no existe ningún hecho experimental que la contradiga. Es una de las leyes básicas de la naturaleza. Dado que la dirección y los límites de todos los cambios termodinámicos (incluidos los cambios de fase y los cambios químicos) pueden atribuirse a la conversión mutua entre calor y trabajo y sus límites de conversión, entonces se debe encontrar una función termodinámica universal para identificar la dirección y los límites de los procesos espontáneos. Se puede imaginar que esta función es una función de estado y una función discriminante (diferencia con signo), que puede explicar cuantitativamente la tendencia del proceso espontáneo. Esta función de estado es la función de entropía. Si cualquier ciclo reversible se divide en muchos ciclos pequeños de Carnot, se puede concluir que ∑(δQi/Ti)r=0 (1) Es decir, la suma de los cocientes calor-temperatura de cualquier proceso de ciclo reversible es cero.
Entre ellos, δQi es la cantidad de intercambio de calor entre el sistema y el medio ambiente en cualquier ciclo reversible infinitesimal; Ti es la temperatura del sistema en cualquier ciclo reversible infinitesimal. La fórmula anterior también se puede escribir como ∮(δQr/T)=0 (2) Clausius resumió esta regla y llamó a esta función de estado "entropía", representada por S, es decir, dS=δQr/T (3) Para procesos irreversibles , entonces podemos obtener dS>δQr/T (4) o dS-δQr/T>0 (5) Esta es la desigualdad de Clausius, que muestra que después de que un sistema aislado sufre un pequeño cambio irreversible, la entropía del sistema se vuelve mayor que el cociente de temperatura calor en el proceso. Para cualquier proceso (incluidos los procesos reversibles e irreversibles), dS-δQ/T≥0 (6) donde: el signo de desigualdad se aplica a procesos irreversibles y el signo igual se aplica a procesos reversibles. Dado que el proceso irreversible es la característica común de todos los procesos espontáneos, y cada pequeño cambio en el proceso reversible está infinitamente cerca del estado de equilibrio, este estado de equilibrio es el límite que el proceso irreversible puede alcanzar. Por lo tanto, la fórmula anterior también se puede utilizar como criterio para juzgar si este proceso es espontáneo o no, lo que se denomina "criterio de entropía". Para el proceso adiabático, δQ = 0. Sustituyendo en la fórmula anterior, entonces dSj≥0 (7) Se puede ver que en el proceso adiabático, el valor de entropía del sistema nunca disminuye. Entre ellos, para un proceso adiabático reversible, dSj=0, es decir, el valor de entropía del sistema permanece sin cambios; para un proceso adiabático irreversible, dSj>0, es decir, el valor de entropía del sistema aumenta. Este es el "principio de aumento de entropía", que es la expresión matemática de la segunda ley de la termodinámica, es decir, en condiciones de aislamiento o adiabáticas, la dirección del proceso espontáneo del sistema es siempre la dirección en la que aumenta el valor de entropía. hasta que el valor de entropía alcanza el valor máximo, momento en el cual el sistema alcanza un estado de equilibrio. [Editar este párrafo] La importancia estadística de la función de entropía. Boltzmann propuso la fórmula basada en el estudio de los fenómenos estadísticos del movimiento molecular: S = k × LnΩ (8) Entre ellos, Ω es el número de estado de las moléculas del sistema, y k es la constante de Ertzmann del vaso. Esta fórmula refleja la importancia estadística de la función de entropía. Conecta la cantidad física macroscópica S y la cantidad física microscópica Ω del sistema, convirtiéndose en uno de los puentes importantes entre lo macroscópico y lo microscópico. Con base en la relación anterior entre entropía y probabilidad termodinámica, se puede concluir que el valor de entropía del sistema refleja directamente la uniformidad de su estado. Cuanto menor es el valor de entropía del sistema, más ordenado e inestable es el estado en el que se encuentra. Uniforme; cuanto mayor es el valor de entropía del sistema, más desordenado y uniforme es el estado en el que se encuentra. El sistema siempre se esfuerza por transformarse espontáneamente de un estado con un valor de entropía menor a un estado con un valor de entropía mayor (es decir, del orden al desorden). Este es el significado microfísico del "principio de aumento de entropía" de los sistemas aislados. [Editar este párrafo] Características básicas: La entropía es mayor o igual a cero, es decir, H_s \ge 0. ·Supongamos que N es el número total de eventos en el sistema S, entonces la entropía H_s \le log_2N. Si y sólo si p1=p2=...=pn, el signo igual se mantiene y la entropía es máxima en este momento. ·Entropía conjunta: H(X, Y) \le H(X) H(Y), el signo igual es verdadero si y sólo si X, Y son estadísticamente independientes entre sí. ·Entropía condicional: H(X|Y) = H(X, Y) - H(Y) \le H(X), el signo igual es verdadero si y sólo si X e Y son estadísticamente independientes entre sí. ·Significado sociológico: Desde una perspectiva macro, indica el grado de caos en el mundo y la sociedad en el proceso evolutivo. [Editar este párrafo] Aplicación Termodinámica La entropía es uno de los parámetros que caracteriza el estado de la materia en termodinámica, generalmente representado por el símbolo S. En termodinámica clásica, el incremento disponible se define como dS = (dQ/T), donde T es la temperatura termodinámica de la sustancia; dQ es el calor agregado a la sustancia durante el proceso de aumento de entropía. El subíndice "reversible" indica que el proceso de cambio provocado por el proceso de calentamiento es reversible. Si el proceso es irreversible, entonces dS>(dQ/T) es irreversible. Desde una perspectiva microscópica, la entropía es una medida del desorden de una gran cantidad de partículas microscópicas que forman un sistema. Cuanto más desordenado y caótico es el sistema, mayor es la entropía. La esencia microscópica y el significado estadístico de la irreversibilidad de los procesos termodinámicos es que el sistema tiende del orden al desorden, de un estado con menor probabilidad a un estado con mayor probabilidad. La entropía por unidad de masa de materia se llama entropía específica y se registra como s. La entropía fue originalmente un parámetro del estado material que reflejaba la irreversibilidad de los procesos espontáneos derivados de la segunda ley de la termodinámica.
La segunda ley de la termodinámica es una regla resumida basada en una gran cantidad de observaciones. Se expresa de la siguiente manera: ① El calor siempre se transfiere de objetos de alta temperatura a objetos de baja temperatura, y es imposible transferirlo en el. dirección opuesta sin provocar otros cambios; ② El trabajo se puede convertir completamente en calor, pero cualquier máquina térmica no puede convertir completa y continuamente el calor recibido en trabajo (es decir, no puede crear un segundo tipo de máquina de movimiento perpetuo ③ de forma aislada); sistema, el proceso real siempre aumenta el valor de entropía de todo el sistema. Grande, este es el principio de aumento de entropía. La fricción hace que parte de la energía mecánica se convierta irreversiblemente en calor, aumentando la entropía. El calor dQ se transfiere de un objeto de alta temperatura (T1) a un objeto de baja temperatura (T2). La entropía del objeto de alta temperatura disminuye en dS1=dQ/T1, y la entropía del objeto de baja temperatura aumenta en. dS2=dQ/T2. Tome los dos objetos juntos como un sistema. El cambio de entropía es dS=dS2 dS1>0, es decir, la entropía está aumentando. El físico Boltzmann definió la entropía como la probabilidad de un estado particular: el número de formas en que los átomos pueden agruparse. Se puede expresar con precisión como: S=KlogW K es la constante de proporcionalidad, ahora llamada constante de Boltzmann. Filosofía de la ciencia En ciencia y tecnología, generalmente se refiere a un grado del estado de ciertos sistemas materiales y al grado en que ciertos estados de sistemas materiales pueden ocurrir. También es utilizado por las ciencias sociales como metáfora del grado de ciertos estados de la sociedad humana. La entropía es una medida de la cantidad total de energía que ya no se puede convertir en trabajo. El nombre fue acuñado por el físico alemán Rudolf Clausius (1822-1888), físico alemán y uno de los fundadores de la termodinámica. Construido por primera vez en 1868. Pero el joven oficial francés Sardy Carnot (1796-1832), generalmente traducido como "Carnot", un físico e ingeniero francés, propuso el "ciclo de Carnot" en el proceso de estudiar el "teorema de la eficiencia de las máquinas térmicas". Pero descubrió el principio de la entropía 41 años antes que Clausius. Cuando Carnot estaba estudiando el principio de funcionamiento de las máquinas de vapor, descubrió que la razón por la que funcionan es porque una parte del sistema de la máquina de vapor está muy fría, mientras que la otra parte está muy caliente. En otras palabras, para convertir energía en trabajo, debe haber diferencias en la concentración de energía (es decir, diferencias de temperatura) entre las diferentes partes de un sistema. Cuando la energía se convierte de una concentración más alta a una concentración más baja (o de una temperatura más alta a una temperatura más baja), funciona. Lo que es más importante es que cada vez que la energía se convierte de un nivel a otro, significa que hay menos energía disponible para realizar el trabajo la próxima vez. Por ejemplo, el agua de un río fluye a través de una presa hacia un lago. A medida que el agua del río cae, se puede utilizar para generar electricidad, impulsar ruedas hidráulicas o realizar otras formas de trabajo. Sin embargo, una vez que el agua cae al fondo de la presa, ésta se encuentra en un estado en el que ya no puede funcionar. El agua sin energía potencial en la superficie horizontal ni siquiera puede moverse con la rueda más pequeña. Estos dos estados energéticos diferentes se denominan energía "efectiva" o "libre" y energía "inactiva" o "cerrada". Un aumento de la entropía significa una disminución de la energía disponible. Siempre que sucede algo en la naturaleza, una cierta cantidad de energía se convierte en energía ineficaz que ya no puede funcionar. La energía que se convierte en un estado ineficaz constituye lo que llamamos contaminación. Mucha gente piensa que la contaminación es un subproducto de la producción, pero en realidad es simplemente la suma de toda la energía disponible en el mundo que se convierte en energía ineficaz. La energía disipada es contaminación. Dado que, según la primera ley de la termodinámica, la energía no se puede crear ni destruir, y según la segunda ley de la termodinámica, la energía sólo se puede transformar en una dirección, la dirección de disipación, entonces la contaminación es sinónimo de entropía. Es una determinada unidad de energía ineficaz presente en un determinado sistema. Teoría de la información En la teoría de la información, la entropía representa una medida de incertidumbre. Shannon, el fundador de la teoría de la información, propuso la medición de la información basada en modelos probabilísticos y estadísticos en su libro "La teoría matemática de la comunicación". Definió la información como “algo que se utiliza para eliminar la incertidumbre”.
La definición de entropía en teoría de la información es la siguiente: Si hay múltiples eventos S = {E1,..., En} en un sistema S, y la distribución de probabilidad de cada evento P = {p1,..., pn} , entonces cada El mensaje de un evento en sí es Ie = log2pi (el logaritmo es base 2, la unidad es bit) Ie = lnpi (el logaritmo es base e, la unidad es nats/nats) Si el inglés tiene 26 letras, Si cada La letra aparece un promedio de veces en el artículo, la cantidad de información para cada letra es I_e = -\log_2 {1\over 26} = 4,7 y hay 2500 caracteres chinos de uso común si cada carácter chino aparece un promedio de veces; en el artículo En promedio, la cantidad de información de cada carácter chino es I_e = -\log_2 {1\over 2500} = 11,3 La cantidad promedio de mensajes de todo el sistema es H_s = \sum_{i=1}^n p_i I_e = -\sum_{i= 1}^n p_i \log_2 p_i Este volumen promedio de mensajes es la entropía del mensaje. Debido a que tiene la misma forma que la fórmula de Boltzmann que describe la entropía termodinámica en termodinámica, también se le llama "entropía". Si los dos sistemas tienen el mismo gran volumen de mensajes, como el mismo artículo escrito en diferentes idiomas, ya que es la suma del volumen de mensajes de todos los elementos, entonces el artículo chino utiliza menos caracteres chinos que el artículo en inglés. Por lo tanto, los artículos impresos con caracteres chinos son más cortos que los artículos impresos con otras aplicaciones que utilizan un número total menor de letras. Incluso si un carácter chino ocupa el espacio de dos letras, un artículo impreso con caracteres chinos utilizará menos papel que uno impreso con letras inglesas. De hecho, el número de veces que aparece cada letra y cada carácter chino en el artículo no es par, por lo que el valor real no es como el anterior, pero el cálculo anterior es un concepto general. Cuanto más texto utilice en las unidades de escritura, mayor será la cantidad de información contenida en cada unidad. I(A) mide la cantidad de información proporcionada por la ocurrencia del evento A, que se denomina autoinformación del evento A. P(A) es la probabilidad de que ocurra el evento A. Si un experimento aleatorio tiene N resultados posibles o un mensaje aleatorio tiene N valores posibles, y las probabilidades de que ocurran son p1, p2,..., pN respectivamente, entonces la suma de la autoinformación de estos eventos: [H= -SUM( pi*log(pi)), i=1, 2...N] se llama entropía.