Acasă Strugurii Entropie Wiktionar. Sensul cuvântului „entropie”. Procese reversibile intern și extern

Entropie Wiktionar. Sensul cuvântului „entropie”. Procese reversibile intern și extern

Entropia este un termen care este folosit nu numai în științele exacte, ci și în științe umaniste. În general, aceasta este o măsură a haosului, a dezordinei unui sistem.

După cum știți, omenirea s-a străduit întotdeauna să transfere cât mai multă muncă posibil pe umerii mașinilor și mecanismelor, folosind cât mai puține resurse posibil. Mențiunile despre o mașină cu mișcare perpetuă au fost descoperite pentru prima dată în manuscrisele arabe din secolul al XVI-lea. De atunci, au fost propuse multe modele pentru o mașină cu potențial mișcare perpetuă. Curând, după multe experimente nereușite, oamenii de știință au înțeles unele trăsături ale naturii, care au determinat ulterior bazele termodinamicii.

Desenul unei mașini cu mișcare perpetuă

Prima lege a termodinamicii spune următoarele: pentru a efectua munca, un sistem termodinamic va necesita fie energie internă a sistemului, fie energie externă din surse suplimentare. Această afirmație este legea termodinamică a conservării energiei și interzice existența unei mașini cu mișcare perpetuă de primul fel - un sistem care funcționează fără a consuma energie. Mecanismul unuia dintre aceste motoare se baza pe energia internă a corpului, care poate fi transformată în muncă. De exemplu, acest lucru se poate întâmpla prin extindere. Dar omenirea nu cunoaște corpuri sau sisteme care se pot extinde la nesfârșit, ceea ce înseamnă că mai devreme sau mai târziu energia lor internă se va termina și motorul se va opri.

Ceva mai târziu, a apărut așa-numita mașină cu mișcare perpetuă de al doilea fel, care nu a contrazis legea conservării energiei și s-a bazat pe mecanismul de transfer de căldură necesar pentru lucru de corpurile înconjurătoare. Au luat drept exemplu oceanul, prin răcire care, probabil, ar fi posibil să se obțină o sursă impresionantă de căldură. Totuși, în 1865, savantul, matematicianul și fizicianul german R. Clausius a definit cea de-a doua lege a termodinamicii: „nu poate exista un proces repetat dacă rezultatul este doar un transfer de căldură de la un corp mai puțin încălzit la unul mai încălzit și nimic. Mai mult." Mai târziu, el a introdus conceptul de entropie - o anumită funcție, a cărei modificare este egală cu raportul dintre cantitatea de căldură transferată și temperatură.

După care, legea entropiei nedescrescătoare a devenit o alternativă la cea de-a doua lege a termodinamicii: „într-un sistem închis, entropia nu scade”.

Cu cuvinte simple

Deoarece entropia apare într-o varietate de domenii ale activității umane, definiția sa este oarecum vagă. Cu toate acestea, cu cele mai simple exemple puteți înțelege esența acestei valori. Entropia este gradul de dezordine, cu alte cuvinte, incertitudinea, dezordinea. Apoi sistemul de bucăți de hârtie împrăștiate pe stradă, care sunt încă aruncate periodic de vânt, are entropie mare. Și un sistem de hârtii stivuite pe un desktop are entropie minimă. Pentru a reduce entropia într-un sistem cu bucăți de hârtie, va trebui să cheltuiți mult timp și energie lipindu-le resturile de hârtie în foi pline și împăturiți-le într-un teanc.

În cazul unui sistem închis, totul este la fel de simplu. De exemplu, lucrurile tale sunt într-un dulap închis. Dacă nu acționați asupra lor din exterior, atunci lucrurile vor părea că își păstrează valoarea entropiei pentru o lungă perioadă de timp. Dar mai devreme sau mai târziu se vor descompune. De exemplu, un ciorap de lână va dura până la cinci ani pentru a se descompune, dar pantofii din piele vor dura aproximativ patruzeci de ani. În cazul descris, dulapul este un sistem izolat, iar descompunerea lucrurilor este o tranziție de la structuri ordonate la haos.

Pentru a rezuma, trebuie remarcat faptul că entropia minimă se observă într-o varietate de obiecte macroscopice (cele care pot fi observate cu ochiul liber) care au o anumită structură, iar maximul se observă în vid.

Entropia Universului

Ca urmare a apariției unui astfel de concept precum entropia, au apărut multe alte afirmații și definiții fizice, care au făcut posibilă descrierea mai detaliată a legilor naturii. Unul dintre ele este conceptul de „procese reversibile/ireversibile”. Primele includ procese în care entropia sistemului nu crește și rămâne constantă. Ireversibile sunt procese în care entropia crește într-un sistem închis. Este imposibil să returnezi statului un sistem închis înainte de proces, pentru că în acest caz, entropia ar trebui să scadă.

Potrivit lui Clausius, existența Universului este un proces ireversibil, la finalul căruia îl așteaptă așa-numita „Moartea Termică”, altfel - echilibru termodinamic care există pentru sistemele închise. Adică, entropia va atinge maximul și toate procesele se vor stinge pur și simplu. Dar, după cum sa dovedit curând, Rudolf Clausius nu a ținut cont de forțele gravitaționale care sunt prezente peste tot în Univers. De exemplu, datorită lor, distribuția particulelor la entropie maximă nu trebuie să fie uniformă.

De asemenea, alte deficiențe ale teoriei „moartei termice a Universului” includ faptul că nu știm dacă este cu adevărat finit și dacă conceptul de „sistem închis” i se poate aplica. De asemenea, merită luat în considerare faptul că starea de entropie maximă, ca și vidul absolut în sine, sunt aceleași concepte teoretice ca un gaz ideal. Aceasta înseamnă că, în realitate, entropia nu își va atinge valoarea maximă din cauza diferitelor abateri aleatorii.

Este de remarcat faptul că vizibilul în volumul său păstrează valoarea entropiei. Motivul pentru aceasta este un fenomen deja cunoscut de mulți - Universul. Această coincidență interesantă dovedește încă o dată omenirii că nimic nu se întâmplă degeaba în natură. Conform calculelor oamenilor de știință, ordinul de mărime al entropiei este egal cu numărul de fotoni existenți.

  • Cuvântul „haos” se referă la starea inițială a Universului. În acest moment, era doar un agregat fără formă de spațiu și materie.
  • Conform cercetărilor unor oameni de știință, cea mai mare sursă de entropie este supermasivă. Dar alții cred că, datorită forțelor gravitaționale puternice care atrag totul către corpul masiv, măsura haosului este transferată în spațiul înconjurător în cantități mici.
  • Este interesant că viața umană și evoluția sunt îndreptate în direcția opusă haosului. Oamenii de știință susțin că acest lucru este posibil datorită faptului că de-a lungul vieții o persoană, ca și alte organisme vii, capătă mai puțină entropie decât eliberează în mediu.

Entropie. Acesta este poate unul dintre conceptele cele mai dificil de înțeles pe care le poți întâlni într-un curs de fizică, cel puțin când vine vorba de fizica clasică. Puțini absolvenți de fizică pot explica ce este. Cu toate acestea, majoritatea problemelor legate de înțelegerea entropiei pot fi rezolvate prin înțelegerea unui singur lucru. Entropia este diferită calitativ de alte mărimi termodinamice: precum presiunea, volumul sau energia internă, deoarece este o proprietate nu a sistemului, ci a modului în care considerăm acest sistem. Din păcate, la cursurile de termodinamică este de obicei tratată în mod egal cu alte funcții termodinamice, ceea ce agravează neînțelegerea.

Deci, ce este entropia?

Pe scurt, atunci

Entropia este cantitatea de informații pe care nu le cunoașteți despre un sistem

De exemplu, dacă mă întrebi unde locuiesc și răspund: în Rusia, atunci entropia mea pentru tine va fi mare, la urma urmei, Rusia este o țară mare. Dacă vă spun codul meu poștal: 603081, atunci entropia mea va scădea pentru că veți primi mai multe informații.


Un cod poștal conține șase cifre, ceea ce înseamnă că ți-am dat șase caractere de informații. Entropia cunoștințelor tale despre mine a scăzut cu aproximativ 6 caractere. (De fapt, nu chiar, pentru că unii indexuri corespund mai multor adrese, iar alții mai puține, dar vom ignora asta).

Sau luați în considerare un alt exemplu. Lasă-mă să am zece zaruri (cu șase fețe), iar aruncându-le, îți spun că suma lor este 30. Știind doar asta, nu poți spune ce numere specifice sunt pe fiecare dintre zaruri - îți lipsesc informații. În fizica statistică, aceste numere specifice de pe zaruri se numesc microstări, iar suma totală (30 în cazul nostru) se numește macrostare. Există 2.930.455 de microstări care corespund unei sume de 30. Deci entropia acestei macrostări este de aproximativ 6,5 caractere (jumătate apare datorită faptului că la numerotarea microstărilor în ordine în a șaptea cifră, nu toate numerele sunt disponibile pentru tine, dar numai 0, 1 și 2).


Dacă ți-aș spune că suma este 59? Există doar 10 microstări posibile pentru această macrostare, deci entropia sa este doar un simbol. După cum puteți vedea, diferite macrostări au entropii diferite.

Permiteți-mi să vă spun acum că suma primelor cinci zaruri este 13, iar suma celor cinci rămase este 17, deci totalul este din nou 30. Cu toate acestea, în acest caz aveți mai multe informații, deci entropia sistemului ar trebui să cad pentru tine. Și, într-adevăr, 13 pe cinci zaruri pot fi obținute în 420 de moduri diferite și 17 în 780, adică numărul total de microstări va fi doar 420x780 = 327 600. Entropia unui astfel de sistem este cu aproximativ un simbol mai mică decât în primul exemplu.

Măsurăm entropia ca număr de simboluri necesare pentru a scrie numărul de microstări. Matematic, această mărime este definită ca un logaritm, deci notând entropia cu simbolul S și numărul de microstări cu simbolul Ω, putem scrie:

Aceasta nu este altceva decât formula Boltzmann (până la un factor k, care depinde de unitățile de măsură alese) pentru entropie. Dacă o macrostare corespunde unei microstare, entropia sa conform acestei formule este egală cu zero. Dacă aveți două sisteme, atunci entropia totală este egală cu suma entropiilor fiecăruia dintre acele sisteme, deoarece log(AB) = log A + log B.

Din descrierea de mai sus devine clar de ce nu ar trebui să ne gândim la entropie ca o proprietate intrinsecă a sistemului. Sistemul are o anumită energie internă, impuls, sarcină, dar nu are o anumită entropie: entropia a zece zaruri depinde dacă cunoști doar suma totală a acestora, sau și sumele parțiale ale cvintupleților de zaruri.

Cu alte cuvinte, entropia este modul în care descriem un sistem. Și asta îl face foarte diferit de alte cantități cu care se obișnuiește să lucrezi în fizică.

Exemplu fizic: gaz sub piston

Sistemul clasic considerat în fizică este un gaz situat într-un vas sub un piston. Microstarea unui gaz este poziția și impulsul (viteza) fiecăreia dintre moleculele sale. Acest lucru este echivalent cu cunoașterea valorii fiecărui zar din exemplul discutat mai devreme. Macrostarea unui gaz este descrisă prin cantități precum presiunea, densitatea, volumul și compoziția chimică. Este ca suma numerelor aruncate pe zaruri.


Mărimile care descriu macrostarea pot fi legate între ele prin așa-numita „ecuație de stare”. Prezența acestei conexiuni este cea care permite, fără a cunoaște microstările, să prezicem ce se va întâmpla cu sistemul nostru dacă începem să-l încălzim sau să mișcăm pistonul. Pentru un gaz ideal, ecuația de stare are o formă simplă:

deși probabil că ești mai familiarizat cu ecuația Clapeyron-Mendeleev pV = νRT - este aceeași ecuație, doar cu câteva constante adăugate pentru a te deruta. Cu cât mai multe microstări corespund unei anumite macrostari, adică cu cât mai multe particule care fac parte din sistemul nostru, cu atât ecuația de stare îl descrie mai bine. Pentru un gaz, valorile caracteristice ale numărului de particule sunt egale cu numărul lui Avogadro, adică sunt aproximativ 1023.

Valori precum presiunea, temperatura și densitatea se numesc mediate, deoarece sunt manifestarea medie a microstărilor în continuă schimbare corespunzătoare unei anumite macrostari (sau, mai degrabă, macrostări apropiate acesteia). Pentru a afla în ce microstare se află sistemul, avem nevoie de multe informații - trebuie să cunoaștem poziția și viteza fiecărei particule. Cantitatea acestei informații se numește entropie.

Cum se schimbă entropia cu o schimbare a stării macro? Este ușor de înțeles. De exemplu, dacă încălzim puțin un gaz, atunci viteza particulelor sale va crește, prin urmare, gradul de ignoranță a noastră cu privire la această viteză va crește, adică entropia va crește. Sau, dacă creștem volumul de gaz prin retragerea rapidă a pistonului, ignoranța noastră cu privire la poziția particulelor va crește, iar entropia va crește, de asemenea.

Solide și energie potențială

Dacă luăm în considerare, în loc de gaz, un corp solid, mai ales cu o structură ordonată, ca în cristale, de exemplu, o bucată de metal, atunci entropia lui va fi mică. De ce? Pentru că știind poziția unui atom într-o astfel de structură, știi poziția tuturor celorlalți (sunt aliniați în structura cristalină corectă), dar vitezele atomilor sunt mici, deoarece nu pot zbura departe de poziția lor și oscilează doar ușor în jurul poziției de echilibru.


Dacă o bucată de metal se află într-un câmp gravitațional (de exemplu, ridicată deasupra suprafeței Pământului), atunci energia potențială a fiecărui atom din metal este aproximativ egală cu energia potențială a celorlalți atomi și entropia asociată cu această energie este scăzută. Aceasta distinge energia potențială de energia cinetică, care pentru mișcarea termică poate varia foarte mult de la atom la atom.

Dacă o bucată de metal, ridicată la o anumită înălțime, este eliberată, atunci energia sa potențială se va transforma în energie cinetică, dar entropia practic nu va crește, deoarece toți atomii se vor mișca aproximativ la fel. Dar când piesa lovește pământul, atomilor de metal li se va da o direcție aleatorie de mișcare în timpul impactului, iar entropia va crește dramatic. Energia cinetică a mișcării direcționate se va transforma în energia cinetică a mișcării termice. Înainte de impact, știam aproximativ cum se mișcă fiecare atom, dar acum am pierdut această informație.

Înțelegerea celei de-a doua lege a termodinamicii

A doua lege a termodinamicii spune că entropia (a unui sistem închis) crește întotdeauna. Acum putem înțelege de ce: pentru că este imposibil să obținem dintr-o dată mai multe informații despre microstări. Odată ce ați pierdut unele informații de microstare (ca atunci când o bucată de metal lovește pământul), nu o puteți recupera.


Să revenim la zaruri. Amintiți-vă că o macrostare cu o sumă de 59 are o entropie foarte scăzută, dar nu este atât de ușor de obținut. Dacă arunci zarurile iar și iar, vor apărea acele sume (macrostări) care corespund unui număr mai mare de microstări, adică se vor realiza macrostări cu entropie mare. Suma 35 are cea mai mare entropie și această sumă va apărea mai des decât altele. Este exact ceea ce spune a doua lege a termodinamicii. Orice interacțiune aleatorie (necontrolată) duce la o creștere a entropiei, cel puțin până când ajunge la maxim.

Amestecarea gazelor

Și încă un exemplu pentru a întări ceea ce s-a spus. Să avem un recipient care conține două gaze separate printr-un despărțitor situat în mijlocul recipientului. Să numim moleculele unui gaz albastru și celuilalt roșu.

Dacă deschideți partiția, gazele vor începe să se amestece, deoarece numărul de microstări în care gazele sunt amestecate este mult mai mare decât microstările în care sunt separate și toate microstările sunt în mod natural la fel de probabile. Când am deschis partiția, pentru fiecare moleculă am pierdut informații despre ce parte a partiției se afla acum. Dacă au existat N molecule, atunci s-au pierdut N biți de informație (biții și simbolurile, în acest context, sunt, de fapt, același lucru și diferă doar printr-un anumit factor constant).

Am de-a face cu demonul lui Maxwell

Și, în sfârșit, să luăm în considerare soluția în cadrul paradigmei noastre la faimosul paradox al demonului lui Maxwell. Permiteți-mi să vă reamintesc că este după cum urmează. Să avem gaze amestecate de molecule albastre și roșii. Să punem partiția înapoi, făcând o mică gaură în ea, în care vom pune un demon imaginar. Sarcina lui este să treacă doar pe cele roșii de la stânga la dreapta și doar pe cele albastre de la dreapta la stânga. Evident, după ceva timp gazele vor fi din nou separate: toate moleculele albastre vor fi în stânga partiției, iar toate moleculele roșii vor fi în dreapta.

Se pare că demonul nostru a scăzut entropia sistemului. Nu s-a întâmplat nimic cu demonul, adică entropia lui nu s-a schimbat, iar sistemul nostru a fost închis. Se dovedește că am găsit un exemplu când a doua lege a termodinamicii nu este îndeplinită! Cum a fost posibil acest lucru?

Soluția la acest paradox este însă foarte simplă. La urma urmei, entropia este o proprietate nu a unui sistem, ci a cunoștințelor noastre despre acest sistem. Tu și cu mine știm puține despre sistem, motiv pentru care ni se pare că entropia lui este în scădere. Dar demonul nostru știe multe despre sistem - pentru a separa molecule, trebuie să cunoască poziția și viteza fiecăruia dintre ele (cel puțin atunci când se apropie de el). Dacă știe totul despre molecule, atunci din punctul său de vedere entropia sistemului este, de fapt, egală cu zero - pur și simplu nu are informațiile lipsă despre el. În acest caz, entropia sistemului a fost egală cu zero și a rămas egală cu zero, iar a doua lege a termodinamicii nu a fost încălcată nicăieri.

Dar chiar dacă demonul nu cunoaște toate informațiile despre microstarea sistemului, el, cel puțin, trebuie să cunoască culoarea moleculei care se apropie de el pentru a înțelege dacă să o lase sau nu. Și dacă numărul total de molecule este N, atunci demonul ar trebui să aibă N biți de informații despre sistem - dar exact asta am pierdut atunci când am deschis partiția. Adică, cantitatea de informații pierdute este exact egală cu cantitatea de informații care trebuie obținută despre sistem pentru a-l readuce la starea inițială - și acest lucru sună destul de logic și, din nou, nu contrazice a doua lege a termodinamicii. .

Această postare este o traducere gratuită a răspunsului pe care Mark Eichenlaub l-a dat la întrebarea Ce este un mod intuitiv de a înțelege entropia?, adresată pe site-ul Quora.

Entropia este o măsură a complexității unui sistem. Nu tulburare, ci complicații și dezvoltare. Cu cât entropia este mai mare, cu atât este mai dificil să înțelegeți logica acestui sistem, situație, fenomen particular. Este general acceptat că cu cât trece mai mult timp, cu atât Universul devine mai puțin ordonat. Motivul pentru aceasta este rata neuniformă de dezvoltare a Universului ca întreg și a noastră, ca observatori ai entropiei. Noi, ca observatori, suntem cu multe ordine de mărime mai simpli decât Universul. Prin urmare, ni se pare excesiv de redundant; nu suntem capabili să înțelegem majoritatea relațiilor cauză-efect care o compun. De asemenea, aspectul psihologic este important – este greu pentru oameni să se obișnuiască cu faptul că nu sunt unici. Înțelegeți că teza conform căreia oamenii sunt coroana evoluției nu este departe de convingerea anterioară că Pământul este centrul universului. Este plăcut pentru o persoană să creadă în exclusivitatea sa și nu este de mirare că avem tendința de a vedea structurile care sunt mai complexe decât noi ca fiind dezordonate și haotice.

Există răspunsuri foarte bune de mai sus care explică entropia bazată pe paradigma științifică modernă. Respondenții folosesc exemple simple pentru a explica acest fenomen. Șosete împrăștiate prin cameră, ochelari sparți, maimuțe care joacă șah etc. Dar dacă te uiți cu atenție, înțelegi că ordinea aici este exprimată într-un concept cu adevărat uman. Cuvântul „mai bine” se aplică la o bună jumătate din astfel de exemple. Mai bine șosetele pliate în dulap decât șosetele împrăștiate pe podea. Un pahar întreg este mai bun decât un pahar spart. Un caiet scris cu un scris frumos de mână este mai bun decât un caiet cu pete. În logica umană nu este clar ce să faci cu entropia. Fumul care iese din teava nu este utilitar. O carte ruptă în bucăți mici este inutilă. Este greu să extragi măcar un minim de informații din zgomotul polifon și din zgomotul din metrou. În acest sens, va fi foarte interesant să revenim la definiția entropiei introdusă de fizicianul și matematicianul Rudolf Clausius, care a văzut acest fenomen ca pe o măsură a disipării ireversibile a energiei. De la cine provine această energie? Cui îi este mai greu să-l folosească? Da omului! Este foarte dificil (dacă nu imposibil) să colectezi din nou apa vărsată, fiecare picătură, într-un pahar. Pentru a repara hainele vechi, trebuie să utilizați material nou (țesătură, ață etc.). Acest lucru nu ia în considerare sensul pe care această entropie o poate avea nu pentru oameni. Voi da un exemplu când disiparea energiei pentru noi va avea exact sensul opus pentru alt sistem:

Știți că în fiecare secundă o cantitate imensă de informații de pe planeta noastră zboară în spațiu. De exemplu, sub formă de unde radio. Pentru noi, această informație pare complet pierdută. Dar dacă în calea undelor radio apare o civilizație extraterestră suficient de dezvoltată, reprezentanții ei pot primi și descifra o parte din această energie pierdută pentru noi. Auziți și înțelegeți vocile noastre, vedeți programele noastre de televiziune și radio, conectați-vă la traficul nostru de internet))). În acest caz, entropia noastră poate fi reglată de alte ființe inteligente. Și cu cât disiparea de energie este mai mare pentru noi, cu atât pot colecta mai multă energie.

Atât fizicienii, cât și textiștii folosesc conceptul de „entropie”. Tradus din greaca veche în rusă, cuvântul „entropie” este asociat cu rotația, transformarea.

Reprezentanții științelor exacte (matematică și fizică) au introdus acest termen în uz științific și l-au extins la informatică și chimie. R. Clausius și L. Boltzmann, E. Jaynes și K. Shannon, K. Jung și M. Planck au definit și studiat fenomenul de mai sus.

Acest articol rezumă și sistematizează principalele abordări ale determinării entropiei în diverse domenii științifice.

Entropia în științele exacte și naturale

Începând cu reprezentantul științelor exacte R. Clausis, termenul „entropie” denotă măsura:

  • disiparea ireversibilă a energiei în termodinamică;
  • probabilitatea implementării oricărui proces macroscopic în fizica statistică;
  • incertitudinea oricărui sistem din matematică;
  • capacitatea informatică a unui sistem în informatică.

Această măsură este exprimată prin formule și grafice.

Entropia ca concept umanitar

K. Jung a introdus în psihanaliză un concept care ne este familiar, studiind dinamica personalității. Cercetătorii din domeniul psihologiei și apoi al sociologiei identifică și definesc entropia personalității sau entropia socială ca fiind gradul:

  • incertitudinea stării personalității în psihologie;
  • energie psihică care nu poate fi folosită atunci când o investim într-un obiect de studiu în psihanaliza;
  • cantitatea de energie indisponibilă pentru schimbarea socială, progresul social în sociologie;
  • dinamica entropiei personalității.

Conceptul de entropie s-a dovedit a fi solicitat și convenabil în teorii, atât în ​​științe naturale, cât și în științe umaniste. În general, entropia este strâns legată de măsura, gradul de incertitudine, haosul, dezordinea din orice sistem.

ENTROPIE

ENTROPIE

(din greacă entropia – întoarce,)

parte din energia internă a unui sistem închis sau complexul energetic al Universului care nu poate fi folosită, în special nu poate fi convertită sau transformată în lucru mecanic. Entropia exactă este produsă folosind calcule matematice. Efectul entropiei este cel mai clar văzut în exemplul proceselor termodinamice. Astfel, nu se transformă niciodată complet în muncă mecanică, fiind transformată în alte tipuri de energie. Este de remarcat faptul că în timpul proceselor reversibile valoarea entropiei rămâne neschimbată; în timpul proceselor ireversibile, dimpotrivă, crește constant, iar această creștere se produce datorită scăderii energiei mecanice. În consecință, toate procesele ireversibile care au loc în natură sunt însoțite de o scădere a energiei mecanice, care în cele din urmă ar trebui să conducă la paralizie generală sau, cu alte cuvinte, „moarte prin căldură”. Dar acest lucru este valabil doar în cazul postulării totalitarismului Universului ca realitate empirică închisă. Hristos. teologii, bazați pe entropie, au vorbit despre finitudinea lumii, folosind-o ca existență a lui Dumnezeu.

Dicţionar Enciclopedic Filosofic. 2010 .

ENTROPIE

(greacă ἐντροπία - rotație, transformare) - stări termodinamice. sistem, care caracterizează direcția proceselor spontane în acest sistem și fiind o măsură a ireversibilității acestora. Conceptul de energie a fost introdus în 1865 de R. Clausius pentru a caracteriza procesele de conversie a energiei; în 1877 L. Boltzmann i-a dat date statistice. interpretare. Folosind conceptul de E., se formulează cea de-a doua lege a termodinamicii: E. a unui sistem izolat termic întotdeauna crește doar, i.e. astfel, lăsat în sine, tinde spre echilibrul termic, la care E. este maxim. În statistică fizica E. exprimă incertitudinea microscopicului. starea sistemului: cu cât microscopul este mai mare. stărilor sistemului corespund unei macroscopice date. stare, cu atât termodinamica este mai mare. iar E. acesta din urmă. Un sistem cu o structură improbabilă, lăsată în voia sa, se dezvoltă spre structura cea mai probabilă, adică. în direcția creșterii E. Acest lucru, însă, se aplică numai sistemelor închise, prin urmare E. nu poate fi folosit pentru a justifica moartea termică a universului. În teoria informaţiei, E. este considerată o lipsă de informaţie în sistem. În cibernetică, cu ajutorul conceptelor de energie și negentropie (entropie negativă), se exprimă măsura organizării unui sistem. A fi corect în raport cu sistemele supuse statisticii legilor, această măsură necesită însă mare atenție atunci când se transferă la sistemele biologice, lingvistice și sociale.

Lit.: Shambadal P., Dezvoltarea și aplicațiile conceptului de E., [trad. p.], M., 1967; Pierce J., Simboluri, semnale, zgomote, [trad. din engleză], M., 1967.

L. Fatkin. Moscova.

Enciclopedie filosofică. În 5 volume - M.: Enciclopedia sovietică. Editat de F. V. Konstantinov. 1960-1970 .


Sinonime:

Vedeți ce este „ENTROPY” în alte dicționare:

    - (din greaca entropia, rotatie, transformare), concept introdus pentru prima data in termodinamica pentru a determina masura disiparii ireversibile a energiei. E. este utilizat pe scară largă în alte domenii ale științei: în fizica statistică ca măsură a probabilității implementării unui proiect... ... Enciclopedie fizică

    ENTROPIE, un indicator al aleatoriei sau tulburării structurii unui sistem fizic. ÎN TERMODINAMICĂ, entropia exprimă cantitatea de energie termică potrivită pentru a efectua munca: cu cât este mai puțină energie, cu atât este mai mare entropia. La scara Universului...... Dicționar enciclopedic științific și tehnic

    O măsură a dezordinei interne a unui sistem informațional. Entropia crește odată cu distribuția haotică a resurselor informaționale și scade odată cu ordonarea acestora. În engleză: Entropie Vezi și: Dicționar financiar de informații Finam... Dicţionar financiar

    - [Engleză] Entropie Dicționar de cuvinte străine ale limbii ruse

    Entropie- Entropie ♦ Entropie Proprietate a stării unui sistem fizic izolat (sau luat ca atare), caracterizată prin cantitatea de schimbare spontană de care este capabil. Entropia unui sistem atinge maximul atunci când este complet... Dicţionarul filozofic al lui Sponville

    - (din transformarea de rotație a entropiei grecești) (notat de obicei S), o funcție a stării unui sistem termodinamic, a cărui modificare dS într-un proces de echilibru este egală cu raportul dintre cantitatea de căldură dQ transmisă sistemului sau scos din ea la ...... Dicţionar enciclopedic mare

    Disorder, discord Dicționar de sinonime rusești. substantiv entropie, număr de sinonime: 2 tulburare (127) ... Dicţionar de sinonime

    ENTROPIE- (din grecescul en in, inward and trope turn, transformare), o cantitate care caracterizeaza masura energiei legate (DS), care intr-un proces izoterm nu poate fi transformata in lucru. Este determinat de logaritmul probabilității termodinamice și... ... Dicționar ecologic

    entropie- și, f. entropie f., germană Entropie gr. ro în, interior + turn de trop, transformare. 1. O mărime fizică care caracterizează starea termică a unui corp sau a unui sistem de corpuri și posibilele modificări ale acestor stări. Calculul entropiei. BAS 1. ||… … Dicționar istoric al galicismelor limbii ruse

    ENTROPIE- ENTROPIE, concept introdus în termodinamică și care este, parcă, o măsură a ireversibilității unui proces, o măsură a trecerii energiei într-o formă din care nu se poate transforma spontan în alte forme. Toate procesele imaginabile care apar în orice sistem... ... Marea Enciclopedie Medicală

Cărți

  • Mecanica statistica. Entropie, parametrii de ordine, teoria complexității, James P. Sethna. Manualul „Statistical Mechanics: Entropie, Order Parameters and Complexity” a fost scris de profesorul James Sethna de la Universitatea Cornell (SUA) și a fost publicat pentru prima dată în limba engleză în 2006...

Nou pe site

>

Cel mai popular