Casa Uva Wikcionario de entropía. El significado de la palabra "entropía". Procesos reversibles interna y externamente

Wikcionario de entropía. El significado de la palabra "entropía". Procesos reversibles interna y externamente

La entropía es un término que se usa no solo en las ciencias exactas, sino también en las humanidades. En el caso general, es una medida de aleatoriedad, desorden de un determinado sistema.

Como saben, la humanidad siempre se ha esforzado por transferir la mayor cantidad de trabajo posible a los hombros de máquinas y mecanismos, utilizando la menor cantidad de recursos posible para esto. La mención de una máquina de movimiento perpetuo se encontró por primera vez en manuscritos árabes del siglo XVI. Desde entonces, se han propuesto muchos diseños para una máquina de movimiento potencialmente perpetuo. Pronto, después de muchos experimentos fallidos, los científicos comprendieron algunas de las características de la naturaleza, que luego determinaron los fundamentos de la termodinámica.

Dibujo de una máquina de movimiento perpetuo

La primera ley de la termodinámica dice lo siguiente: para realizar un trabajo, un sistema termodinámico requerirá energía interna del sistema o energía externa de fuentes adicionales. Esta afirmación es una ley termodinámica de conservación de la energía y prohíbe la existencia de una máquina de movimiento perpetuo del primer tipo, un sistema que realiza trabajo sin gastar energía. El mecanismo de uno de estos motores se basaba en la energía interna del cuerpo, que se puede convertir en trabajo. Por ejemplo, esto puede deberse a una extensión. Pero la humanidad no conoce cuerpos o sistemas que puedan expandirse indefinidamente, lo que significa que tarde o temprano su energía interna terminará y el motor se detendrá.

Algo más tarde, apareció la llamada máquina de movimiento perpetuo del segundo tipo, que no contradecía la ley de conservación de la energía y se basaba en el mecanismo de transferencia de calor requerido para el trabajo de los cuerpos circundantes. Tomaron el océano como ejemplo, al enfriarlo, presumiblemente, uno podría obtener un impresionante suministro de calor. Sin embargo, en 1865, el científico, matemático y físico alemán R. Clausius definió la segunda ley de la termodinámica: “no puede existir un proceso repetitivo si el resultado es solo una transferencia de calor de un cuerpo menos calentado a uno más caliente, y nada más." Más tarde, introdujo el concepto de entropía: una determinada función, cuyo cambio es igual a la relación entre la cantidad de calor transferido y la temperatura.

Después de eso, la ley de entropía no decreciente se convirtió en una alternativa a la segunda ley de la termodinámica: “la entropía no decrece en un sistema cerrado”.

En palabras simples

Dado que la entropía tiene lugar en una amplia variedad de áreas de la actividad humana, su definición es algo vaga. Sin embargo, en los ejemplos más simples, uno puede entender la esencia de esta cantidad. La entropía es el grado de desorden, en otras palabras, incertidumbre, desorden. Entonces, el sistema de trozos de papel dispersos en la calle, que todavía son arrojados periódicamente por el viento, tiene una alta entropía. Y el sistema de papeles doblados en pila sobre el escritorio tiene una entropía mínima. Para reducir la entropía en un sistema con trozos de papel, debe gastar mucho tiempo y energía pegando trozos de papel en hojas completas y plegándolos en una pila.

En el caso de un sistema cerrado, todo es igual de simple. Por ejemplo, tus cosas están en un armario cerrado. Si no actúas sobre ellos desde el exterior, parecerá que las cosas conservan su valor de entropía durante mucho tiempo. Pero tarde o temprano se descompondrán. Por ejemplo, un calcetín de lana tardará hasta cinco años en descomponerse, pero los zapatos de cuero tardarán unos cuarenta años. En el caso descrito, el armario es un sistema aislado, y la descomposición de las cosas es una transición de las estructuras ordenadas al caos.

Resumiendo, cabe señalar que la entropía mínima se observa para una variedad de objetos macroscópicos (aquellos que se pueden observar a simple vista) que tienen una estructura determinada, y la máxima para el vacío.

Entropía del Universo

Como resultado de la aparición de un concepto como la entropía, aparecieron muchas otras declaraciones y definiciones físicas que permitieron describir las leyes de la naturaleza con más detalle. Uno de ellos es algo así como "procesos reversibles/irreversibles". Los primeros incluyen procesos cuya entropía del sistema no aumenta y permanece constante. Irreversible: tales procesos en un sistema cerrado en el que aumenta la entropía. Es imposible devolver un sistema cerrado al estado anterior al proceso, porque en tal caso, la entropía tendría que disminuir.

Según Clausius, la existencia del Universo es un proceso irreversible, al final del cual le espera la llamada "Muerte por calor", de lo contrario, el equilibrio termodinámico que existe para los sistemas cerrados. Es decir, la entropía alcanzará su máximo y todos los procesos simplemente desaparecerán. Pero, como pronto resultó, Rudolf Clausius no tuvo en cuenta las fuerzas de la gravedad, que están presentes en todas partes del universo. Por ejemplo, gracias a ellos, la distribución de partículas a máxima entropía no tiene por qué ser uniforme.

Además, otras deficiencias de la teoría de la "muerte térmica del Universo" incluyen el hecho de que no sabemos si es realmente finito y si se le puede aplicar el concepto de "sistema cerrado". También hay que tener en cuenta que el estado de máxima entropía, así como el propio vacío absoluto, son los mismos conceptos teóricos que un gas ideal. Esto significa que, en realidad, la entropía no alcanzará su valor máximo debido a diversas desviaciones aleatorias.

Es de destacar que lo visible en su volumen conserva el valor de la entropía. La razón de esto es un fenómeno ya conocido por muchos: el Universo. Esta interesante coincidencia demuestra una vez más a la humanidad que nada sucede así en la naturaleza. Según los científicos, en orden de magnitud, el valor de la entropía es igual al número de fotones existentes.

  • La palabra "caos" se refiere al estado inicial del universo. En ese momento, ella era solo una colección sin forma de espacio y materia.
  • Según la investigación de algunos científicos, la mayor fuente de entropía es supermasivo. Pero otros creen que debido a las poderosas fuerzas gravitatorias que atraen todo a un cuerpo masivo, una medida de caos se transfiere al espacio circundante en una cantidad insignificante.
  • Es interesante que la vida y la evolución del hombre estén dirigidas en dirección opuesta al caos. Los científicos argumentan que esto es posible debido al hecho de que a lo largo de su vida una persona, como otros organismos vivos, adquiere un valor de entropía más pequeño que el que le da al medio ambiente.

Entropía. Quizás este es uno de los conceptos más difíciles de entender que puedes encontrar en un curso de física, al menos cuando se trata de física clásica. Pocos licenciados en física pueden explicar de qué se trata. Sin embargo, la mayoría de los problemas relacionados con la comprensión de la entropía pueden resolverse comprendiendo una cosa. La entropía es cualitativamente diferente de otras magnitudes termodinámicas como la presión, el volumen o la energía interna, porque no es una propiedad de un sistema, sino de cómo consideramos este sistema. Desafortunadamente, en el curso de la termodinámica, generalmente se considera a la par con otras funciones termodinámicas, lo que exacerba el malentendido.

Entonces, ¿qué es la entropía?

En pocas palabras, entonces

La entropía es la cantidad de información que no conoces sobre un sistema.

Por ejemplo, si me preguntas dónde vivo y te respondo: en Rusia, entonces mi entropía por ti será alta, después de todo, Rusia es un país grande. Si te doy mi código postal: 603081, mi entropía por ti disminuirá a medida que obtengas más información.


El código postal contiene seis dígitos, así que le di seis caracteres de información. La entropía de tu conocimiento de mí ha disminuido en aproximadamente 6 caracteres. (En realidad, no del todo, porque algunos índices corresponden a más direcciones y otros a menos, pero lo dejaremos de lado).

O considere otro ejemplo. Supongamos que tengo diez dados (hexagonales) y, al tirarlos, les informo que su suma es 30. Sabiendo solo esto, no puede decir qué números específicos hay en cada uno de los dados: no tiene suficiente información. Estos números específicos en los huesos en la física estadística se denominan microestados, y la cantidad total (30 en nuestro caso) se denomina macroestado. Hay 2.930.455 microestados que suman 30. Entonces la entropía de este macroestado es de aproximadamente 6.5 símbolos (la mitad aparece debido a que al numerar los microestados en orden en el séptimo dígito, no todos los dígitos están disponibles para ti, sino solo 0, 1 y 2).


¿Y si te dijera que la suma es 59? Solo hay 10 microestados posibles para este macroestado, por lo que su entropía es solo un símbolo. Como puede ver, diferentes macroestados tienen diferentes entropías.

Ahora déjame decirte que la suma de los primeros cinco dados es 13 y la suma de los otros cinco es 17, por lo que el total es nuevamente 30. Sin embargo, tienes más información en este caso, por lo que la entropía del sistema debería caer por ti. Y, de hecho, 13 en cinco huesos se puede obtener de 420 formas diferentes, y 17 - en 780, es decir, el número total de microestados será solo 420x780 = 327 600. La entropía de tal sistema es aproximadamente un símbolo menos que en el primer ejemplo

Medimos la entropía como el número de caracteres necesarios para escribir el número de microestados. Matemáticamente, este número se define como un logaritmo, por lo tanto, denotando la entropía con el símbolo S, y el número de microestados con el símbolo Ω, podemos escribir:

Esto no es más que la fórmula de Boltzmann (hasta un factor k, que depende de las unidades de medida elegidas) para la entropía. Si un macroestado corresponde a un microestado, su entropía es igual a cero según esta fórmula. Si tienes dos sistemas, entonces la entropía total es igual a la suma de las entropías de cada uno de estos sistemas, porque log(AB) = log A + log B.

De la descripción anterior, queda claro por qué uno no debe pensar en la entropía como una propiedad intrínseca del sistema. El sistema tiene cierta energía interna, cantidad de movimiento, carga, pero no tiene cierta entropía: la entropía de diez huesos depende de si conoces solo su suma total, o también las sumas parciales de cinco de huesos.

En otras palabras, la entropía es cómo describimos un sistema. Y esto la hace muy diferente a otras magnitudes con las que se acostumbra trabajar en física.

Ejemplo físico: gas debajo de un pistón

El sistema clásico considerado en física es el gas en el recipiente debajo del pistón. El microestado de un gas es la posición y el momento (velocidad) de cada una de sus moléculas. Esto es equivalente a conocer el valor obtenido en cada dado en el ejemplo anterior. El macroestado de un gas se describe mediante cantidades tales como presión, densidad, volumen y composición química. Es como la suma de los valores lanzados en los dados.


Las cantidades que describen un macroestado se pueden relacionar entre sí a través de la llamada "ecuación de estado". Es la presencia de esta conexión la que permite, sin conocer los microestados, predecir qué pasará con nuestro sistema si empezamos a calentarlo o a mover el pistón. Para un gas ideal, la ecuación de estado tiene una forma simple:

aunque probablemente estés más familiarizado con la ecuación de Clapeyron-Mendeleev pV = νRT - es la misma ecuación, solo con un par de constantes añadidas para confundirte. Cuantos más microestados corresponden a un macroestado dado, es decir, cuantas más partículas forman parte de nuestro sistema, mejor lo describe la ecuación de estado. Para un gas, los valores característicos del número de partículas son iguales al número de Avogadro, es decir, son alrededor de 1023.

Los valores como la presión, la temperatura y la densidad se denominan promediados, ya que son la manifestación promediada de microestados en constante cambio correspondientes a un macroestado dado (o, más precisamente, macroestados cercanos a él). Para averiguar en qué microestado se encuentra el sistema, necesitamos mucha información: necesitamos saber la posición y la velocidad de cada partícula. La cantidad de esta información se llama entropía.

¿Cómo cambia la entropía con un cambio en el macroestado? Esto es facil de entender. Por ejemplo, si calentamos un poco el gas, entonces aumentará la velocidad de sus partículas, por lo tanto, también aumentará el grado de nuestra ignorancia sobre esta velocidad, es decir, aumentará la entropía. O bien, si aumentamos el volumen del gas retrayendo rápidamente el pistón, aumentará el grado de nuestra ignorancia de la posición de las partículas y también aumentará la entropía.

Cuerpos Rígidos y Energía Potencial

Si en lugar de gas consideramos algún cuerpo sólido, especialmente con una estructura ordenada, como en los cristales, por ejemplo, una pieza de metal, entonces su entropía será baja. ¿Por qué? Porque conociendo la posición de un átomo en tal estructura, conoces la posición de todos los demás (también están ordenados en una estructura cristalina regular), pero las velocidades de los átomos son pequeñas, porque no pueden volar lejos de su posición y sólo oscilan ligeramente alrededor de la posición de equilibrio.


Si una pieza de metal está en un campo gravitacional (por ejemplo, levantada sobre la superficie de la Tierra), entonces la energía potencial de cada átomo en el metal es aproximadamente igual a la energía potencial de otros átomos, y la entropía asociada con esta la energía es baja. Esto distingue la energía potencial de la energía cinética, que para el movimiento térmico puede variar mucho de un átomo a otro.

Si se suelta una pieza de metal elevada a cierta altura, entonces su energía potencial se convertirá en energía cinética, pero la entropía prácticamente no aumentará, porque todos los átomos se moverán aproximadamente de la misma manera. Pero cuando la pieza golpea el suelo, durante el impacto, los átomos de metal obtendrán una dirección de movimiento aleatoria y la entropía aumentará dramáticamente. La energía cinética del movimiento dirigido se convertirá en la energía cinética del movimiento térmico. Antes del impacto, sabíamos aproximadamente cómo se mueve cada átomo, ahora hemos perdido esta información.

Comprender la segunda ley de la termodinámica.

La segunda ley de la termodinámica establece que la entropía (de un sistema cerrado) siempre aumenta. Ahora podemos entender por qué: porque es imposible obtener de repente más información sobre los microestados. Una vez que haya perdido información sobre un microestado (como cuando una pieza de metal golpea el suelo), no podrá recuperarla.


Volvamos a los dados. Recordemos que un macroestado con una suma de 59 tiene una entropía muy baja, pero tampoco es tan fácil de obtener. Si lanzas los dados una y otra vez, entonces las sumas (macroestados) que corresponden a un mayor número de microestados caerán, es decir, se realizarán macroestados con alta entropía. La suma de 35 tiene la entropía más alta, y es esta suma la que caerá con más frecuencia que otras. Esto es lo que dice la segunda ley de la termodinámica. Cualquier interacción aleatoria (no controlada) conduce a un aumento de la entropía, al menos hasta que alcanza su máximo.

mezcla de gases

Y un ejemplo más para reforzar lo dicho. Supongamos que tenemos un contenedor en el que hay dos gases separados por un tabique ubicado en el medio del contenedor. Llamemos a las moléculas de un gas azul y al otro rojo.

Si abre la partición, los gases comenzarán a mezclarse, porque el número de microestados en los que se mezclan los gases es mucho mayor que los microestados en los que se separan, y todos los microestados, por supuesto, son igualmente probables. Cuando abrimos el tabique, para cada molécula perdimos información sobre en qué lado del tabique está ahora. Si hubiera N moléculas, entonces se perderían N bits de información (los bits y los símbolos, en este contexto, son, de hecho, lo mismo, y difieren solo por un cierto factor constante).

Lidiando con el Demonio de Maxwell

Y finalmente, consideremos la solución dentro de nuestro paradigma de la famosa paradoja del demonio de Maxwell. Déjame recordarte que es de la siguiente manera. Supongamos que tenemos gases mixtos de moléculas azules y rojas. Volvamos a colocar el tabique, haciéndole un pequeño agujero, en el que pondremos un demonio imaginario. Su tarea es dejar solo rojos de izquierda a derecha y solo azules de derecha a izquierda. Es obvio que después de un tiempo los gases se separarán nuevamente: todas las moléculas azules estarán a la izquierda de la partición y todas las rojas a la derecha.

Resulta que nuestro demonio bajó la entropía del sistema. Al demonio no le pasó nada, es decir, su entropía no cambió, y nuestro sistema se cerró. ¡Resulta que hemos encontrado un ejemplo cuando la segunda ley de la termodinámica no se cumple! ¿Cómo fue esto posible?

Esta paradoja se resuelve, sin embargo, de manera muy simple. Después de todo, la entropía no es una propiedad de un sistema, sino de nuestro conocimiento sobre este sistema. Usted y yo sabemos poco sobre el sistema, por lo que nos parece que su entropía está disminuyendo. Pero nuestro demonio sabe mucho sobre el sistema: para separar moléculas, debe conocer la posición y la velocidad de cada una de ellas (al menos al acercarse a él). Si sabe todo acerca de las moléculas, entonces, desde su punto de vista, la entropía del sistema es, de hecho, igual a cero: simplemente no tiene la información que falta al respecto. En este caso, la entropía del sistema, como era igual a cero, se mantuvo igual a cero, y la segunda ley de la termodinámica no se violó en ninguna parte.

Pero incluso si el demonio no conoce toda la información sobre el microestado del sistema, al menos necesita saber el color de la molécula que vuela hacia él para saber si saltársela o no. Y si el número total de moléculas es N, entonces el demonio debe tener N bits de información sobre el sistema, pero esa es la cantidad de información que perdimos cuando abrimos la partición. Es decir, la cantidad de información que se pierde es exactamente igual a la cantidad de información que se necesita obtener sobre el sistema para devolverlo a su estado original, y esto suena bastante lógico y, de nuevo, no contradice la segunda ley de la termodinámica. .

Esta publicación es una traducción libre de la respuesta que Mark Eichenlaub dio a la pregunta ¿Cuál es una forma intuitiva de entender la entropía?, preguntada en Quora.

La entropía es una medida de la complejidad de un sistema. No desorden, sino complicación y desarrollo. Cuanto mayor es la entropía, más difícil es comprender la lógica de este sistema, situación o fenómeno en particular. En general, se acepta que cuanto más tiempo pasa, menos ordenado se vuelve el universo. La razón de esto es la tasa desigual de desarrollo del Universo como un todo y de nosotros, como observadores de la entropía. Nosotros, como observadores, somos un gran número de órdenes más simples que el Universo. Por tanto, nos parece excesivamente redundante, no somos capaces de comprender la mayor parte de las relaciones de causa y efecto que lo componen. El aspecto psicológico también es importante: es difícil que las personas se acostumbren al hecho de que no son únicas. Comprenda que la tesis de que las personas son la corona de la evolución no está muy alejada de la creencia anterior de que la Tierra es el centro del universo. Es agradable para una persona creer en su propia exclusividad y no es de extrañar que tendemos a ver las estructuras que son más complejas que nosotros como desordenadas y caóticas.

Hay algunas respuestas muy buenas arriba que explican la entropía desde el paradigma científico actual. Los encuestados explican este fenómeno utilizando ejemplos sencillos. Calcetines esparcidos por la habitación, vasos rotos, monos jugando al ajedrez, etc. Pero si miras de cerca, entiendes: el orden aquí se expresa en una idea verdaderamente humana. La palabra "mejor" es aplicable a una buena mitad de tales ejemplos. Mejor calcetines doblados en el armario que calcetines esparcidos por el suelo. Un vaso entero es mejor que un vaso roto. Un cuaderno escrito con una letra bonita es mejor que un cuaderno con borrones. En la lógica humana, no está claro qué hacer con la entropía. El humo que sale del tubo no es utilitario. Un libro hecho pedazos es inútil. Es difícil extraer al menos un mínimo de información de la conversación polifónica y el ruido del metro. En este sentido, será muy interesante volver a la definición de entropía introducida por el físico y matemático Rudolf Clausius, quien vio este fenómeno como una medida de la disipación irreversible de energía. ¿De quién viene esta energía? ¿A quién le cuesta más usarlo? ¡Si hombre! El agua derramada es muy difícil (si no imposible) para volver a recoger todas las gotas en un vaso. Para reparar ropa vieja, debe usar material nuevo (tela, hilo, etc.). Esto no tiene en cuenta el significado que esta entropía puede tener para las personas. Daré un ejemplo cuando la disipación de energía para nosotros tendrá exactamente el significado opuesto para otro sistema:

Sabes que cada segundo una gran cantidad de información de nuestro planeta vuela al espacio. Por ejemplo, en forma de ondas de radio. Para nosotros, esta información parece estar completamente perdida. Pero si una civilización alienígena suficientemente desarrollada se interpone en el camino de las ondas de radio, sus representantes pueden recibir y descifrar parte de esta energía perdida para nosotros. Escuche y comprenda nuestras voces, vea nuestros programas de televisión y radio, conéctese a nuestro tráfico de Internet))). En este caso, nuestra entropía puede ser ordenada por otros seres inteligentes. Y cuanta más disipación de energía haya para nosotros, más energía podrán recolectar.

Tanto los físicos como los letristas operan con el concepto de "entropía". Traducida del griego antiguo al ruso, la palabra "entropía" se asocia con un giro, una transformación.

Representantes de las ciencias exactas (matemáticas y física) introdujeron este término en el uso científico y lo extendieron a la informática y la química. R. Clausius y L. Boltzmann, E. Jaynes y K. Shannon, K. Jung y M. Plank determinaron e investigaron el fenómeno mencionado anteriormente.

Este artículo resume y sistematiza las principales aproximaciones a la definición de entropía en varios campos científicos.

Entropía en ciencias exactas y naturales

Comenzando con el representante de las ciencias exactas R. Clausis, el término "entropía" denota una medida:

  • disipación de energía irreversible en termodinámica;
  • la probabilidad de la implementación de cualquier proceso macroscópico en física estadística;
  • incertidumbre de cualquier sistema en matemáticas;
  • capacidad de información del sistema en informática.

Esta medida se expresa mediante fórmulas y gráficos.

La entropía como concepto humanitario

K. Jung introdujo un concepto familiar al psicoanálisis, estudiando la dinámica de la personalidad. Los investigadores en el campo de la psicología, y luego de la sociología, señalan y definen la entropía de la personalidad o entropía social como un grado:

  • incertidumbre del estado de la personalidad en psicología;
  • la energía psíquica, que no puede ser utilizada al invertirla en el objeto de estudio del psicoanálisis;
  • la cantidad de energía no disponible para el cambio social, el progreso social en sociología;
  • dinámica de la entropía de la personalidad.

El concepto de entropía resultó estar en demanda, conveniente en las teorías, tanto de las ciencias naturales como de las humanidades. En general, la entropía está muy relacionada con la medida, el grado de incertidumbre, el caos, el desorden en cualquier sistema.

ENTROPIA

ENTROPIA

(del griego entropia - girar,)

parte de la energía interna de un sistema cerrado o del agregado energético del Universo que no puede ser utilizada, en particular, no puede ser transferida o convertida en trabajo mecánico. La entropía exacta se obtiene mediante cálculos matemáticos. El efecto de la entropía se ve más claramente en el ejemplo de los procesos termodinámicos. Así, nunca se transforma completamente en trabajo mecánico, transformándose en otros tipos de energía. Es de destacar que en los procesos reversibles la entropía permanece invariable, mientras que en los procesos irreversibles, por el contrario, aumenta constantemente, y este aumento se produce debido a una disminución de la energía mecánica. En consecuencia, todos los procesos irreversibles que ocurren en la naturaleza van acompañados de una disminución de la energía mecánica, lo que eventualmente debería conducir a una parálisis general o, en otras palabras, a la "muerte térmica". Pero esto sólo es válido si se postula la naturaleza totalitaria del Universo como una realidad empírica cerrada. Cristo. los teólogos, basados ​​en la entropía, hablaban de la finitud del mundo, usándolo como la existencia de Dios.

Diccionario Enciclopédico Filosófico. 2010 .

ENTROPIA

(Griego ἐντροπία - giro, transformación) - el estado de la termodinámica. sistema, que caracteriza la dirección del flujo de procesos espontáneos en este sistema y es una medida de su irreversibilidad. El concepto de energía fue introducido en 1865 por R. Clausius para caracterizar los procesos de conversión de energía; en 1877 L. Boltzmann le dio una estadística. interpretación. Con la ayuda del concepto de E., se formula la segunda ley de la termodinámica: E. de un sistema aislado térmicamente siempre solo aumenta, es decir tal, dejada a sí misma, tiende al equilibrio térmico, en el que E. es máxima. en la estadistica la física E. expresa la incertidumbre microscópica. Estado del sistema: cuanto más microscópico. Los estados del sistema corresponden a este macroscópico. estado, mayor es la termodinámica. y E. el último. Un sistema con una estructura improbable, abandonado a sí mismo, se desarrolla hacia la estructura más probable, es decir, en la dirección del aumento de E. Esto, sin embargo, se aplica solo a sistemas cerrados, por lo que E. no puede usarse para justificar la muerte por calor del universo. En la teoría de la información y la información, E. se considera como falta de información en el sistema. En cibernética, utilizando los conceptos de entropía y negentropía (entropía negativa), expresan el grado de organización de un sistema. Ser justos en relación con los sistemas sujetos a estadísticas. leyes, esta medida, sin embargo, requiere mucho cuidado al trasladarse a sistemas biológicos, lingüísticos y sociales.

Iluminado.: Shambadal P., Desarrollo y aplicaciones del concepto de E., [trad. s.], M., 1967; Pierce, J., Símbolos, Señales, Ruidos, [trad. del inglés], M., 1967.

L. Fatkin. Moscú.

Enciclopedia filosófica. En 5 volúmenes - M .: Enciclopedia soviética. Editado por F. V. Konstantinov. 1960-1970 .


Sinónimos:

Vea qué es "ENTROPIA" en otros diccionarios:

    - (del griego entropia turn, transformación), un concepto introducido por primera vez en la termodinámica para determinar la medida de la disipación de energía irreversible. E. se usa ampliamente en otras áreas de la ciencia: en física estadística como una medida de la probabilidad de la implementación de k. ... ... Enciclopedia Física

    ENTROPÍA, un indicador de la aleatoriedad o desorden de la estructura de un sistema físico. En TERMODINÁMICA, la entropía expresa la cantidad de energía térmica disponible para realizar un trabajo: cuanto menor es la energía, mayor es la entropía. En la escala del universo ... ... Diccionario enciclopédico científico y técnico.

    Una medida del desorden interno de un sistema de información. La entropía aumenta con una distribución caótica de los recursos de información y disminuye con su ordenación. En Español: Entropía Ver también: Información Diccionario Financiero Finam … Vocabulario financiero

    - [Inglés] entropía Diccionario de palabras extranjeras del idioma ruso

    entropía- Entropía ♦ Entropía Una propiedad del estado de un sistema físico aislado (o percibido como tal), caracterizada por la cantidad de cambio espontáneo que es capaz de realizar. La entropía de un sistema alcanza su máximo cuando está completamente... Diccionario filosófico de Sponville

    - (del griego entropia turn transform) (generalmente denotado S), la función de estado de un sistema termodinámico, el cambio en el que dS en un proceso de equilibrio es igual a la proporción de la cantidad de calor dQ comunicado al sistema o eliminado de él , para ... ... Gran diccionario enciclopédico

    Desorden, discordia Diccionario de sinónimos rusos. entropía sustantivo, número de sinónimos: 2 desorden (127) … Diccionario de sinónimos

    ENTROPIA- (del griego en in, interior y tropo giro, transformación), valor que caracteriza la medida de la energía ligada (DS), que no se puede convertir en trabajo en un proceso isotérmico. Está determinado por el logaritmo de la probabilidad termodinámica y ... ... diccionario ecologico

    entropía- y bueno. entropía f., alemán Entropía gr. en adentro, dentro + tropo giro, transformación. 1. Una cantidad física que caracteriza el estado térmico de un cuerpo o sistema de cuerpos y los posibles cambios en estos estados. Cálculo de entropía. ELA 1. ||… … Diccionario histórico de galicismos de la lengua rusa

    ENTROPIA- ENTROPÍA, un concepto introducido en la termodinámica y que es, por así decirlo, una medida de la irreversibilidad de un proceso, una medida de la transición de la energía a tal forma, de la cual no puede pasar espontáneamente a otras formas. Todos los procesos concebibles que ocurren en cualquier sistema, ... ... Gran enciclopedia médica

Libros

  • Mecánica estadística. Entropía, parámetros de orden, teoría de la complejidad, James P. Setna. El libro de texto "Mecánica estadística: entropía, parámetros de orden y complejidad" fue escrito por el profesor James Setna de la Universidad de Cornell (EE. UU.) y se publicó por primera vez en inglés en 2006...

Nuevo en el sitio

>

Más popular