Hem Druva Entropi wiktionary. Betydelsen av ordet "entropi". Internt och externt reversibla processer

Entropi wiktionary. Betydelsen av ordet "entropi". Internt och externt reversibla processer

Entropi är en term som används inte bara inom de exakta vetenskaperna, utan även inom humaniora. I det allmänna fallet är det ett mått på kaos, oordning i ett visst system.

Som ni vet har mänskligheten alltid försökt lägga så mycket arbete som möjligt på axlarna av maskiner och mekanismer, med så lite resurser som möjligt. Omnämnandet av en evighetsmaskin upptäcktes först i arabiska manuskript från 1500-talet. Sedan dess har många mönster föreslagits för en potentiellt evighetsmaskin. Snart, efter många misslyckade experiment, förstod forskare några av naturens egenskaper, som senare bestämde grunderna för termodynamiken.

Teckning av en evighetsmaskin

Termodynamikens första lag säger följande: för att utföra arbete kommer ett termodynamiskt system att kräva antingen systemets inre energi eller extern energi från ytterligare källor. Detta uttalande är en termodynamisk lag för bevarande av energi och förbjuder existensen av en evighetsmaskin av det första slaget - ett system som utför arbete utan att spendera energi. Mekanismen för en av dessa motorer var baserad på kroppens inre energi, som kan omvandlas till arbete. Detta kan till exempel ske genom utbyggnad. Men mänskligheten känner inte till kroppar eller system som kan expandera oändligt, vilket innebär att förr eller senare kommer deras inre energi att ta slut och motorn stannar.

Något senare dök den så kallade evighetsmaskinen av det andra slaget upp, som inte stred mot lagen om energibevarande, och var baserad på mekanismen för överföring av värme som krävs för arbete av de omgivande kropparna. Havet togs som exempel, kylning som man förmodligen kunde få en imponerande tillförsel av värme. Men 1865 definierade den tyske vetenskapsmannen, matematikern och fysikern R. Clausius termodynamikens andra lag: "en upprepande process kan inte existera om det som ett resultat endast sker en överföring av värme från en mindre uppvärmd kropp till en mer upphettad, och inget mer." Senare introducerade han begreppet entropi - en viss funktion, vars förändring är lika med förhållandet mellan mängden överförd värme och temperatur.

Efter det blev lagen om icke-minskande entropi ett alternativ till termodynamikens andra lag: "i ett slutet system minskar inte entropin."

Med enkla ord

Eftersom entropi äger rum inom en mängd olika områden av mänsklig aktivitet är definitionen något vag. Men med de enklaste exemplen kan du förstå kärnan i detta värde. Entropi är graden av oordning, med andra ord, osäkerhet, oordning. Då har systemet med utspridda papperslappar på gatan, som periodvis kastas av vinden, en hög entropi. Och ett system med staplade papper på ett skrivbord har minimal entropi. För att minska entropin i ett trasigt papperssystem måste du spendera mycket tid och energi på att limma pappersbitarna till hela ark och stapla dem.

När det gäller ett slutet system är allt lika enkelt. Till exempel dina tillhörigheter i en stängd garderob. Om du inte agerar utifrån dem, kommer saker att tyckas behålla sitt värde av entropi under lång tid. Men förr eller senare kommer de att sönderfalla. Till exempel kommer en yllestrumpa att ta upp till fem år att brytas ned, men läderskor kommer att ta ungefär fyrtio år. I det beskrivna fallet är garderoben ett isolerat system, och nedbrytningen av saker är en övergång från ordnade strukturer till kaos.

Sammanfattningsvis bör det noteras att den minsta entropin observeras i en mängd olika makroskopiska objekt (de som kan observeras med blotta ögat) med en viss struktur, och den maximala - i vakuum.

Universums entropi

Som ett resultat av uppkomsten av ett sådant koncept som entropi dök många andra uttalanden och fysiska definitioner upp, vilket gjorde det möjligt att beskriva naturlagarna mer detaljerat. En av dem är en sådan sak som "reversibla / irreversibla processer". De första inkluderar processer, vars entropi av systemet inte ökar och förblir konstant. Irreversibla är processer där entropin ökar i ett slutet system. Det är omöjligt att återställa det slutna systemet till tillståndet före processen, eftersom i detta fall skulle entropin behöva minska.

Enligt Clausius är en irreversibel process universums existens, i slutet av vilken den så kallade "Thermal Death" väntar den, med andra ord - den termodynamiska jämvikt som finns för slutna system. Det vill säga, entropin kommer att nå sitt maximum, och alla processer kommer helt enkelt att tona ut. Men, som det snart visade sig, tog Rudolph Clausius inte hänsyn till tyngdkrafterna som finns överallt i universum. Till exempel, tack vare dem, behöver fördelningen av partiklar vid maximal entropi inte vara enhetlig.

Även andra nackdelar med teorin om "universums termiska död" kan tillskrivas det faktum att vi inte vet om det verkligen är ändligt, och om begreppet "slutet system" kan tillämpas på det. Man bör komma ihåg att tillståndet för maximal entropi, såväl som det absoluta vakuumet i sig, är samma teoretiska begrepp som en idealgas. Detta betyder att entropin i verkligheten inte kommer att nå sitt maximala värde, på grund av olika slumpmässiga avvikelser.

Det är anmärkningsvärt att det synliga i sin volym behåller värdet av entropi. Anledningen till detta är det fenomen som redan är känt för många - universum. Detta intressanta sammanträffande bevisar än en gång för mänskligheten att ingenting händer i naturen för ingenting. Enligt forskarnas beräkningar är värdet på entropi i storleksordning lika med antalet befintliga fotoner.

  • Ordet "kaos" syftar på universums ursprungliga tillstånd. I det ögonblicket var hon bara en formlös samling av rum och materia.
  • Enligt forskning av vissa forskare är den största källan till entropi supermassiv. Men andra tror att på grund av kraftfulla gravitationskrafter som lockar allt till en massiv kropp, överförs ett mått av kaos till det omgivande utrymmet i en obetydlig mängd.
  • Intressant nog är mänskligt liv och evolution riktad i motsatt riktning från kaos. Forskare hävdar att detta är möjligt på grund av det faktum att en person under hela sitt liv, liksom andra levande organismer, tar på sig ett lägre värde av entropi än ger in i miljön.

Entropi. Kanske är detta ett av de svåraste begreppen man kan möta på en fysikkurs, åtminstone om vi pratar om klassisk fysik. Få av utexaminerade från fysikavdelningar kan förklara vad det är. De flesta av problemen med att förstå entropi kan dock tas bort genom att förstå en sak. Entropi skiljer sig kvalitativt från andra termodynamiska storheter: som tryck, volym eller intern energi, eftersom det inte är en egenskap hos ett system, utan för hur vi betraktar detta system. Tyvärr anses det i termodynamikens lopp vanligtvis vara i nivå med andra termodynamiska funktioner, vilket förvärrar missförståndet.

Så vad är entropi?

I ett nötskal alltså

Entropi är hur mycket information du inte vet om systemet.

Till exempel, om du frågar mig var jag bor, och jag svarar: i Ryssland, då kommer min entropi för dig att vara hög, trots allt är Ryssland ett stort land. Om jag berättar mitt postnummer: 603081, kommer min entropi för dig att minska när du får mer information.


Postnummer är sexsiffrigt, så jag gav dig sex tecken med information. Entropin i din kunskap om mig har minskat med cirka 6 tecken. (Faktiskt inte riktigt, eftersom vissa index motsvarar fler adresser och andra till färre, men vi kommer att försumma det).

Eller överväg ett annat exempel. Anta att jag har tio tärningar (sexsidiga), och kastar dem, säger jag att deras summa är 30. Om du bara vet detta kan du inte säga vilka specifika nummer som finns på var och en av tärningarna - du har inte tillräckligt med information. Dessa specifika siffror på benen i statistisk fysik kallas mikrotillstånd, och den totala mängden (30 i vårt fall) kallas makrotillstånd. Det finns 2 930 455 mikrotillstånd, vilket motsvarar en summa av 30. Så entropin för detta makrotillstånd är cirka 6,5 ​​tecken (halvan visas på grund av det faktum att när mikrotillstånden är numrerade i ordning i den sjunde biten är inte alla siffror tillgängliga för du, men bara 0, 1 och 2).


Tänk om jag sa att det totala antalet är 59? Det finns bara 10 möjliga mikrotillstånd för denna makrotillstånd, så dess entropi är bara en symbol. Som du kan se har olika makrotillstånd olika entropier.

Låt mig nu berätta att summan av de första fem tärningarna är 13, och summan av de andra fem är 17, så summan är återigen 30. Du har dock i det här fallet mer information, så entropin av systemet borde falla för dig. Faktum är att 13 på fem ben kan erhållas på 420 olika sätt, och 17 - 780, det vill säga det totala antalet mikrotillstånd blir endast 420x780 = 327 600. Entropin för ett sådant system är ungefär en symbol mindre än i det första exempel.

Vi mäter entropi som antalet tecken som krävs för att registrera antalet mikrotillstånd. Matematiskt definieras detta tal som logaritmen, därför kan vi skriva entropin med symbolen S och antalet mikrotillstånd med symbolen Ω:

Detta är inget annat än Boltzmanns formel (upp till en faktor k, som beror på de valda måttenheterna) för entropi. Om ett mikrotillstånd motsvarar ett makrotillstånd är dess entropi enligt denna formel lika med noll. Om du har två system är den totala entropin lika med summan av entropierna för vart och ett av dessa system, eftersom log (AB) = log A + log B.

Av ovanstående beskrivning blir det tydligt varför man inte bör tänka på entropi som en inneboende egenskap hos systemet. Systemet har en viss inre energi, rörelsemängd, laddning, men det har inte en viss entropi: entropin av tio ben beror på om du bara vet deras totala summa, eller också delsummorna för de fem benen.

Entropi är med andra ord hur vi beskriver ett system. Och detta skiljer den mycket från andra kvantiteter som det är vanligt att arbeta med inom fysiken.

Fysiskt exempel: gas under kolven

Det klassiska systemet, som betraktas i fysiken, är gasen i kärlet under kolven. Mikrotillståndet för en gas är positionen och rörelsemängden (hastighet) för var och en av dess molekyler. Detta motsvarar att veta värdet som kastas på varje tärning i exemplet ovan. Makrotillståndet för en gas beskrivs av sådana kvantiteter som tryck, densitet, volym och kemisk sammansättning. Det är som summan av värdena som rullas på tärningen.


Storheterna som beskriver makrotillståndet kan relateras till varandra genom den så kallade "tillståndsekvationen". Det är närvaron av denna koppling som gör det möjligt, utan att känna till mikrotillstånden, att förutsäga vad som kommer att hända med vårt system om vi börjar värma det eller flytta kolven. För en ideal gas är tillståndsekvationen enkel:

även om du förmodligen är mer bekant med Clapeyron-Mendeleevs ekvation pV = νRT - det är samma ekvation med ett par konstanter tillagda för att förvirra dig. Ju fler mikrotillstånd som motsvarar ett givet makrotillstånd, det vill säga ju fler partiklar som ingår i vårt system, desto bättre beskriver tillståndsekvationen det. För gas är de karakteristiska värdena för antalet partiklar lika med Avogadros antal, det vill säga de är i storleksordningen 1023.

Värden som tryck, temperatur och densitet kallas medelvärden, eftersom de är en genomsnittlig manifestation av att ständigt ersätta mikrotillstånd som motsvarar ett givet makrotillstånd (eller snarare makrotillstånd nära det). För att ta reda på vilket mikrotillstånd systemet befinner sig i behöver vi mycket information - vi behöver veta positionen och hastigheten för varje partikel. Mängden av denna information kallas entropi.

Hur förändras entropin med en förändring i makrotillstånd? Detta är lätt att förstå. Till exempel, om vi värmer gasen lite, kommer hastigheten på dess partiklar att öka, därför kommer graden av vår okunnighet om denna hastighet också att öka, det vill säga entropin kommer att öka. Eller, om vi ökar volymen av gasen genom att snabbt dra tillbaka kolven, kommer graden av vår okunnighet om partiklarnas position att öka, och entropin kommer också att öka.

Fasta ämnen och potentiell energi

Om vi ​​istället för en gas betraktar en fast kropp, särskilt med en ordnad struktur, som i kristaller, till exempel en metallbit, kommer dess entropi att vara liten. Varför? Eftersom att känna till positionen för en atom i en sådan struktur, vet du också positionen för alla de andra (de är också inbyggda i den korrekta kristallina strukturen), men atomernas hastigheter är låga, eftersom de inte kan flyga långt från sin position och svänger endast något runt jämviktsläget.


Om en metallbit befinner sig i ett gravitationsfält (till exempel höjt över jordens yta), så är den potentiella energin för varje atom i metallen ungefär lika med den potentiella energin för andra atomer, och entropin som är förknippad med denna energin är låg. Detta skiljer potentiell energi från kinetisk energi, som för termisk rörelse kan variera mycket från atom till atom.

Om en metallbit, upphöjd till en viss höjd, frigörs, kommer dess potentiella energi att omvandlas till kinetisk energi, men entropin kommer praktiskt taget inte att öka, eftersom alla atomer kommer att röra sig ungefär på samma sätt. Men när pjäsen träffar marken, under nedslaget, kommer metallatomerna att få en slumpmässig rörelseriktning, och entropin kommer att öka dramatiskt. Den kinetiska energin för riktad rörelse kommer att omvandlas till kinetisk energi för termisk rörelse. Innan nedslaget visste vi ungefär hur varje atom rör sig, nu har vi tappat denna information.

Förstå termodynamikens andra lag

Termodynamikens andra lag säger att entropin (för ett slutet system) alltid ökar. Vi kan nu förstå varför: eftersom det är omöjligt att plötsligt få mer information om mikrotillstånd. När du har tappat lite information om mikrotillståndet (som när en metallbit träffar marken) kan du inte ta tillbaka den.


Låt oss gå tillbaka till tärningarna. Låt oss komma ihåg att makrotillståndet med summan 59 har en mycket låg entropi, men det är inte så lätt att få fram det heller. Om du kastar tärningen om och om igen, kommer dessa summor (makrostater) att falla ut, vilket motsvarar ett större antal mikrotillstånd, det vill säga makrotillstånd med hög entropi kommer att realiseras. Summan 35 har den högsta entropin, och det är den som kommer att falla ut oftare än andra. Detta är exakt vad termodynamikens andra lag säger. Varje slumpmässig (okontrollerad) interaktion leder till en ökning av entropin, åtminstone tills den når sitt maximum.

Blanda gaser

Och ytterligare ett exempel för att förstärka det som har sagts. Anta att vi har en behållare i vilken det finns två gaser, åtskilda av en skiljevägg placerad i mitten av behållaren. Låt oss kalla molekylerna för en gas blå och den andra röd.

Om man öppnar skiljeväggen börjar gaserna blandas, eftersom antalet mikrotillstånd där gaserna blandas är mycket större än mikrotillstånden där de separeras, och alla mikrotillstånd är naturligtvis lika sannolika. När vi öppnade skiljeväggen tappade vi för varje molekyl information om vilken sida av skiljeväggen den nu befinner sig på. Om det fanns N molekyler, så gick N bitar av information förlorade (bitar och symboler, i detta sammanhang, är i själva verket en och samma, och skiljer sig bara med en viss konstant faktor).

Ta itu med Maxwells demon

Och slutligen, överväg lösningen inom vårt paradigm av den berömda Maxwells demonparadox. Låt mig påminna er om att det är som följer. Anta att vi har blandade gaser av blå och röda molekyler. Låt oss sätta tillbaka skiljeväggen och göra ett litet hål i den, där vi kommer att plantera en imaginär demon. Hans uppgift är att hoppa från vänster till höger endast rött, och från höger till vänster endast blått. Självklart, efter ett tag, kommer gaserna att separeras igen: alla blå molekyler kommer att vara till vänster om partitionen, och alla röda - till höger.

Det visar sig att vår demon har sänkt systemets entropi. Ingenting hände med demonen, det vill säga dess entropi förändrades inte, och vårt system stängdes. Det visar sig att vi har hittat ett exempel när termodynamikens andra lag inte är uppfylld! Hur var detta möjligt?

Lösningen på denna paradox är dock väldigt enkel. Entropi är trots allt inte en egenskap hos ett system, utan av vår kunskap om detta system. Du och jag vet lite om systemet, så det verkar för oss som om dess entropi minskar. Men vår demon vet mycket om systemet - för att separera molekyler måste han känna till var och en av dems position och hastighet (åtminstone när han närmar sig det). Om han vet allt om molekyler, så är ur hans synvinkel systemets entropi i själva verket lika med noll - han har helt enkelt inte den saknade informationen om det. I det här fallet var systemets entropi både lika med noll och förblev lika med noll, och termodynamikens andra lag bröts inte någonstans.

Men även om demonen inte känner till all information om systemets mikrotillstånd, måste han åtminstone veta färgen på molekylen som flyger fram till honom för att förstå om han ska släppa igenom den eller inte. Och om det totala antalet molekyler är N, måste demonen ha N informationsbitar om systemet - men det är exakt hur mycket information vi förlorade när vi öppnade partitionen. Det vill säga mängden förlorad information är exakt lika med mängden information som behöver erhållas om systemet för att återställa det till sitt ursprungliga tillstånd - och detta låter ganska logiskt, och återigen motsäger inte termodynamikens andra lag .

Det här inlägget är en lös översättning av Mark Eichenlaubs svar på Quoras fråga Vad är ett intuitivt sätt att förstå entropi?

Entropi är ett mått på hur komplext ett system är. Inte en enda röra, men komplikation och utveckling. Ju större entropin är, desto svårare är det att förstå logiken i just detta system, situation, fenomen. Det är allmänt accepterat att ju mer tiden går, desto mindre ordnat blir universum. Anledningen till detta är den ojämna utvecklingshastigheten för universum som helhet och oss, som observatörer av entropi. Vi som observatörer är ett stort antal storleksordningar enklare än universum. Därför verkar det för oss överflödigt, vi kan inte förstå de flesta orsak-och-verkan-sambanden som utgör det. Den psykologiska aspekten är också viktig – det är svårt för människor att vänja sig vid att de inte är unika. Förstå att tesen att människor är evolutionens krona inte är långt borta från den tidigare uppfattningen att jorden är universums centrum. Det är trevligt för en person att tro på sin exklusivitet och det är inte förvånande att vi tenderar att se strukturer som är mer komplexa än oss som oordnade och kaotiska.

Det finns mycket bra svar ovan som förklarar entropi i termer av det moderna vetenskapliga paradigmet. Respondenterna förklarar detta fenomen med enkla exempel. Strumpor utspridda i rummet, trasiga glasögon, apor som spelar schack osv. Men tittar man noga förstår man – ordningen här uttrycks i en verkligt mänsklig representation. Ordet "bättre" gäller för drygt hälften av dessa exempel. Hellre staplade strumpor i en garderob än utspridda strumpor på golvet. Hellre ett helt glas än ett krossat glas. En anteckningsbok skriven med vacker handstil är bättre än en anteckningsbok med fläckar. I mänsklig logik är det inte klart vad man ska göra med entropi. Röken som kommer ut från röret är inte utilitaristisk. En bok som slits i stycken är värdelös. Det är svårt att få ut åtminstone ett minimum av information från den polyfoniska dialekten och bruset i tunnelbanan. I denna mening kommer det att vara mycket intressant att återvända till definitionen av entropi som introducerades av fysikern och matematikern Rudolf Clausius, som såg detta fenomen som ett mått på irreversibel energiförlust. Vem kommer denna energi från? Vem har svårare att använda den? Ja man! Det är mycket svårt (om inte omöjligt) att samla upp utspillt vatten, upp till en droppe, i ett glas igen. För att fixa gamla kläder måste du använda nytt material (tyg, tråd, etc.). Detta tar inte hänsyn till betydelsen som denna entropi kanske inte har för människor. Jag kommer att ge ett exempel när energiförlusten för oss kommer att ha exakt motsatt betydelse för ett annat system:

Du vet att varje sekund flyger en enorm mängd information från vår planet ut i rymden. Till exempel i form av radiovågor. För oss verkar denna information helt förlorad. Men om en tillräckligt utvecklad främmande civilisation är på väg mot radiovågor, kan dess företrädare acceptera och dechiffrera en del av denna förlorade energi åt oss. Hör och förstå våra röster, se våra tv- och radioprogram, anslut till vår internettrafik))). I det här fallet kan vår entropi ordnas av andra intelligenta varelser. Och ju mer energiförlusten blir för oss, desto mer energi kommer de att kunna samla in.

Både fysiker och lyriker använder begreppet "entropi". Översatt från det antika grekiska språket till ryska är ordet "entropi" förknippat med en sväng, en omvandling.

Representanter för de exakta vetenskaperna (matematik och fysik) introducerade denna term i vetenskaplig användning och utökade den till datavetenskap och kemi. R. Clausius, och L. Boltzmann, E. Janes och K. Shannon, K. Jung och M. Planck definierade och undersökte det ovan nämnda fenomenet.

Denna artikel sammanfattar och systematiserar de viktigaste tillvägagångssätten för definitionen av entropi inom olika vetenskapliga områden.

Entropi inom exakt och naturvetenskap

Med början med representanten för exakta vetenskaper R. Klausis, betecknar termen "entropi" ett mått:

  • irreversibel energiförlust inom termodynamik;
  • sannolikheten för någon makroskopisk process inom statistisk fysik;
  • osäkerheter i något system i matematik;
  • informationskapacitet hos ett system inom informatik.

Detta mått uttrycks i formler och grafer.

Entropi som ett humanitärt begrepp

K. Jung introducerade ett välbekant koncept i psykoanalysen och studerade personlighetens dynamik. Forskare inom området psykologi, och sedan sociologi, särskiljer och definierar entropin hos en person eller social entropi som en examen:

  • osäkerhet om personlighetens tillstånd inom psykologi;
  • psykisk energi, som inte kan användas när man investerar den i föremålet för forskning inom psykoanalys;
  • mängden energi som är otillgänglig för social förändring, sociala framsteg inom sociologi;
  • personlighetsentropins dynamik.

Begreppet entropi visade sig vara efterfrågat, praktiskt i teorier, både naturvetenskapliga och humanitära. I allmänhet är entropi nära relaterad till måttet, graden av osäkerhet, kaos, oordning i vilket system som helst.

ENTROPI

ENTROPI

(från grekiskan entropia - vänd,)

en del av den inre energin i ett slutet system eller energikomplex i universum som inte kan användas, i synnerhet, kan inte överföras eller omvandlas till mekaniskt arbete. Den exakta entropin produceras med hjälp av matematiska beräkningar. Effekten av entropi syns tydligast i exemplet med termodynamiska processer. Så det går aldrig helt över till mekaniskt arbete, förvandlas till andra typer av energi. Det är anmärkningsvärt att i reversibla processer förblir värdet av entropi oförändrat, i irreversibla processer, tvärtom, ökar det stadigt, och denna ökning sker på grund av en minskning av mekanisk energi. Följaktligen åtföljs alla irreversibla processer som sker i naturen av en minskning av mekanisk energi, vilket i slutändan bör leda till allmän förlamning, eller med andra ord, "värmedöd". Men detta är bara giltigt om universums totalitarism postuleras som en sluten empirisk given. Kristus. teologer, baserade på entropi, talade om världens ändlighet och använde den som Guds existens.

Filosofisk encyklopedisk ordbok. 2010 .

ENTROPI

(grekiska ἐντροπία - rotation, transformation) - termodynamiska tillstånd. system, som kännetecknar riktningen för flödet av spontana processer i detta system och är ett mått på deras irreversibilitet. Begreppet energi introducerades 1865 av R. Clausius för att karakterisera processerna för energiomvandling; 1877 gav L. Boltzmann honom en statistik. tolkning. Med hjälp av begreppet E. formuleras termodynamikens andra lag: E. för ett värmeisolerat system ökar alltid bara, d.v.s. sådan, lämnad åt sig själv, tenderar till termisk jämvikt, med vilken E. är maximal. I statistik fysik E. uttrycker osäkerhet mikroskopisk. systemets tillstånd: desto mer mikroskopiskt. systemets tillstånd motsvarar detta makroskopiska. tillstånd, desto högre termodynamisk. och E. sist. Ett system med osannolik struktur, lämnat åt sig självt, utvecklas mot den mest sannolika strukturen, d.v.s. i riktning mot ökande E. Detta gäller dock endast slutna system, därför kan E. inte användas för att styrka universums termiska död. I teorin ses information som en brist på information i systemet. Inom kybernetik, med begreppen e. Och negentropi (neg. Entropi) uttrycker måttet på systemets organisation. Att vara rättvis i förhållande till system som följer statistik. regelbundenheter kräver denna åtgärd dock stor försiktighet vid överföring till biologiska, språkliga och sociala system.

Tänd.: Shambadal P., Utveckling och tillämpningar av konceptet E., [övers. S.], M., 1967; Pearce J., Symboler, signaler, brus, [övers. från engelska], M., 1967.

L. Fatkin. Moskva.

Filosofisk uppslagsverk. I 5 volymer - M .: Sovjetiskt uppslagsverk. Redigerad av F.V. Konstantinov. 1960-1970 .


Synonymer:

Se vad "ENTROPY" är i andra ordböcker:

    - (från grekiskans entropia, rotation, transformation), ett koncept som först introducerades inom termodynamiken för att bestämma måttet på irreversibel energiförlust. E. används i stor utsträckning inom andra vetenskapsområden: i statistisk fysik som ett mått på sannolikheten för genomförandet av en. ... ... Fysisk uppslagsverk

    ENTROPI, en indikator på slumpmässigheten eller störningen i strukturen av ett fysiskt system. I TERMODYNAMIK uttrycker entropi mängden värmeenergi som är lämplig för att utföra arbete: ju mindre energi, desto högre entropi. I universums skala ... ... Vetenskaplig och teknisk encyklopedisk ordbok

    Ett mått på den interna störningen i ett informationssystem. Entropin ökar med en kaotisk fördelning av informationsresurser och minskar med deras ordning. På engelska: Entropy Se även: Information Financial Dictionary Finam ... Finansiell vokabulär

    - [eng. entropi Ordbok över främmande ord på det ryska språket

    Entropi- Entropi ♦ Entropi Egenskapen för tillståndet för ett isolerat (eller taget för ett sådant) fysiskt system, kännetecknat av mängden spontan förändring som det är kapabelt till. Entropin i ett system når sitt maximum när det är helt ... Sponvilles filosofiska ordbok

    - (från grekiskans entropia, svängomvandling) (vanligtvis betecknad med S), en funktion av tillståndet i ett termodynamiskt system, förändringen i vilken dS i en jämviktsprocess är lika med förhållandet mellan mängden värme dQ som ges till systemet eller tas bort från det, för att ... ... Stor encyklopedisk ordbok

    Disorder, discord. Ordbok över ryska synonymer. entropi n., antal synonymer: 2 störning (127) ... Synonym ordbok

    ENTROPI- (av grekiskan en in, inåt och trop, vändning, transformation), ett värde som kännetecknar måttet på bunden energi (D S), som inte kan omvandlas till arbete i en isoterm process. Det bestäms av logaritmen för termodynamisk sannolikhet och ... ... Ekologisk ordbok

    entropi- och W. entropie f., ger. Entropi c. sv in, inåt + tropsväng, förvandling. 1. En fysisk storhet som kännetecknar det termiska tillståndet hos en kropp eller ett system av kroppar och möjliga förändringar i dessa tillstånd. Beräkning av entropi. ALS 1. || ... ... Historisk ordbok över ryska gallicismer

    ENTROPI- ENTROPI, ett begrepp som introducerats inom termodynamiken och som så att säga är ett mått på en processs irreversibilitet, ett mått på energins övergång till en sådan form, från vilken den inte spontant kan övergå till andra former. Alla tänkbara processer som förekommer i alla system ... ... Bra medicinskt uppslagsverk

Böcker

  • Statistisk mekanik. Entropi, ordningsparametrar, komplexitetsteori, James P. Setna. Läroboken "Statistical Mechanics: Entropy, Order Parameters and Complexity" skrevs av James Setna, professor vid Cornell University (USA) och publicerades först på engelska 2006 ...

Nytt på sajten

>

Mest populär