ePerTutti


Appunti, Tesina di, appunto matematica

LA TERMODINAMICA - PRINCIPI DELLA TERMODINAMICA



ricerca 1
ricerca 2

LA TERMODINAMICA


Per sistema termodinamico si intende una porzione di materia idealmente isolata da tutto il resto dell'universo, considerato come ambiente esterno. Di un sistema termodinamico, nell'accezione classica della t., non interessano le caratteristiche microscopiche costitutive, ovvero l'intima struttura interna, ma solo le caratteristiche globali, macroscopiche, identificate mediante grandezze quali la pressione o la temperatura, dette coordinate termodinamiche. Si distingue tra sistemi isolati, sistemi aperti, sistemi chiusi; un sistema è detto isolato quando, attraverso il suo contorno non viene scambiata né materia, né energia, sotto forma sia di lavoro meccanico, sia di calore; un sistema in cui avvengano scambi di materia con l'ambiente esterno è detto aperto, altrimenti è detto chiuso. Lo stato di un sistema è l'insieme delle proprietà del sistema identificabile mediante valori definiti di grandezze macroscopiche, cioè di coordinate termodinamiche.




PRINCIPI DELLA TERMODINAMICA

La t. si fonda su quattro principi di cui il primo e il secondo sono i più importanti. Il principio zero dice che due sistemi in equilibrio termico con un terzo sistema sono in equilibrio termico tra loro; il concetto di temperatura di un sistema viene definito mediante tale principio come la proprietà che determina se un sistema è in equilibrio termico con altri. Il primo principio della t. può essere considerato come una formulazione particolare del principio di conservazione dell'energia; esso si fonda sul principio di equivalenza del calore e del lavoro, formulato tra la fine del sec. XVIII e l'inizio del sec. XIX e verificato con un dispositivo ideato da Joule. Per formulare il primo principio correttamente si stabilisce convenzionalmente che una quantità di calore Q è positiva se è assorbita dal sistema in esame, mentre è negativa se viene ceduta; un lavoro W è positivo se è fatto dal sistema, negativo se viene fatto sul sistema. Il primo principio può essere così enunciato: esiste una funzione di stato U, detta energia interna, tale che se un sistema subisce una trasformazione da uno stato iniziale 1 a uno stato finale 2, scambiando una quantità di calore Q con l'esterno ed effettuando un lavoro meccanico W, si ha che U -U =Q-W dove U e U rappresentano rispettivamente l'energia interna iniziale e finale; il valore di U dipende esclusivamente dalla conurazione del sistema e in particolare dalle sue coordinate termodinamiche, per cui il valore U -U è indipendente dalla trasformazione con cui il sistema passa dallo stato iniziale 1 allo stato finale 2; il calore e il lavoro considerati separatamente non sono funzioni di stato. Il primo principio può essere espresso in forma differenziale: dU=dQ-dW dove dU è un differenziale esatto, mentre dQ e dW non lo sono. Il significato fisico del primo principio è analogo a quello della conservazione dell'energia. Se un sistema riceve una quantità di calore, questa viene totalmente utilizzata per fare lavoro e per aumentare l'energia interna del sistema; in una trasformazione adiabatica il lavoro viene fatto a spese dell'energia interna; se la trasformazione è a volume costante il calore assorbito determina un aumento di temperatura e quindi dell'energia interna. Una conseguenza importante che si deduce dal primo principio è l'impossibilità del moto perpetuo di prima specie, cioè di ottenere una macchina che produca lavoro senza consumare una quantità equivalente di energia: infatti, se si fa fare alla macchina una trasformazione ciclica, alla fine di un ciclo si ha U =U per cui Q=W. Se due corpi con temperature differenti vengono messi a contatto, si osserva che le due temperature tendono a uguagliarsi per passaggio di calore dal corpo più caldo verso quello più freddo; il lavoro compiuto per vincere gli attriti durante il movimento, p. es. nell'esperimento di Joule, si trasforma in energia interna che tende ad aumentare la temperatura del sistema; entrambi i processi considerati sono compatibili con il primo principio e sono comuni in natura; la realizzazione dei processi inversi (passaggio spontaneo del calore da un corpo più freddo a un corpo più caldo e trasformazione in lavoro dell'energia dissipata negli attriti), sebbene compatibile con il primo principio della t., risulta impossibile. Si noti, tuttavia, che tale impossibilità va interpretata nel senso di "massima improbabilità", come è stato chiaramente mostrato da C. Maxwell che osservava come un ipotetico essere (il cosiddetto diavoletto di Maxwell) dotato di facoltà enormemente più sviluppate delle nostre e tali da permettergli di seguire le singole molecole di un gas, distinguendo le une dalle altre, costui potrebbe anche osservare fenomeni in contrasto con il secondo principio della t., quali, p. es., il passaggio di calore da un corpo più freddo a uno più caldo. Il secondo principio della t. è una generalizzazione dell'evidenza sperimentale che certe trasformazioni sono irreversibili. Esso è formulato in molti modi diversi, ciascuno dei quali ne mette in risalto un particolare aspetto, ma tutti sono logicamente equivalenti. Clausius lo formulò nel seguente modo: è impossibile che una macchina ciclica produca come unico risultato un trasferimento continuo di calore da un corpo a un altro che si trova a temperatura più elevata; Kelvin insieme a ck formulò il secondo principio così: è impossibile una trasformazione il cui unico risultato finale sia trasformare in lavoro del calore preso a una sorgente che si trova tutta alla stessa temperatura. Questa affermazione nega la possibilità di costruire un moto perpetuo di seconda specie, cioè una macchina termica che produca lavoro meccanico estraendo calore da un'unica sorgente, senza restituirne una parte a una sorgente che si trovi a temperatura più bassa; dal secondo principio della t. si può dedurre il teorema di Carnot sul rendimento delle macchine termiche. Il terzo principio della t. venne introdotto dal fisico austriaco Nernst per definire il concetto di entropia, che mediante il primo e il secondo principio viene formulato in modo incompleto; esso stabilisce che è impossibile raggiungere lo zero assoluto con un numero finito di trasformazioni.

È certamente vero che la t. moderna ha cominciato a svilupparsi rapidamente, attorno alla metà dell'Ottocento, solo dopo aver messo in primo piano i problemi teorici e sperimentali, nonché tecnologici, delle reciproche conversioni tra calore e lavoro meccanico. Ma è altrettanto vero che, già tra il finire del Settecento e i primi decenni dell'Ottocento, un interesse non secondario circondava le ricerche sulla natura della radiazione termica (e luminosa) e sui rapporti che potevano essere stabiliti, sul piano teorico e su quello sperimentale, fra la radiazione e il comportamento macroscopico dei corpi. Nell'epoca galileiana era assai vivo il dibattito scientifico attorno alla natura del calore. Nelle ine del Saggiatore (1623) Galilei prendeva in esame la tesi secondo cui il moto è causa di calore, e ne discuteva nei termini classici della distinzione fra qualità primarie e secondarie. La conclusione galileiana sosteneva che le sensazioni di calore erano provocate dal movimento di "corpicelli minimi" i quali si spostavano con una certa velocità nello spazio. La parola calore, pertanto, dopo aver chiarito la causa meccanica e corpuscolare delle sensazioni alle quali veniva associata abitudinariamente, si riduceva a "un semplice vocabolo". Va inoltre rilevato che, per tutto il Seicento, i fenomeni termici furono al centro dell'attenzione scientifica anche grazie ai loro rapporti con gli esperimenti di chimica, con le tecniche metallurgiche e con la sperimentazione alchimistica. Una svolta molto importante si ebbe con il decadere graduale dell'alchimia, con il precisarsi di programmi di ricerca chimica e con la fabbricazione di strumenti termometrici sempre più precisi. Nei primi decenni del Settecento la termometria poté avvalersi degli strumenti progettati e costruiti da A. Celsius, D. G. Fahrenheit e R.-A. Ferchaut de Réaumur. Fahrenheit fu stimolato dai problemi che l'astronomo Roemer incontrava nelle ricerche meteorologiche, Celsius da problemi connessi alle osservazioni barometriche e Réaumur da esigenze nascenti in metallurgia: il che sta a indicare la complessità delle interazioni tra scienze diverse e il situarsi delle questioni termologiche in un vasto arco di teorie e di tecnologie. Nello stesso tempo, studiosi come J. Hermann, D. Bernoulli e L. Eulero cercavano di definire teoricamente la natura del calore da un punto di vista corpuscolare: basti qui ricordare che, nel 1738, D. Bernoulli elaborò un modello probabilistico che legava la pressione nei gas, la loro temperatura e le velocità dei corpuscoli costituenti il gas in esame (l'aria). Nella seconda metà del Settecento lo sviluppo della termologia e della termometria divenne particolarmente rapido, grazie soprattutto alle indagini di J. Black sul calore specifico e sul calore latente, alle ricerche di Laplace e di Lavoisier sui calorimetri e alle congetture di P. Prevost sul modello corpuscolare della radiazione termica. Contribuì a questa crescita delle conoscenze anche lo stimolo emergente dalla rivoluzione industriale. Le esigenze energetiche cercavano uno sbocco nelle macchine a vapore; p. es., gli studi di J. Black vanno intesi come connessi all'opera di J. Watt, il quale, già nel 1765, era riuscito, applicando alcune considerazioni teoriche dello stesso Black, ad avviare su nuove direttrici la tecnologia delle macchine a vapore. La natura del calore, tuttavia, ancora nel 1780 sfuggiva agli apparati teorici. In una celebre memoria di Laplace e Lavoisier, pubblicata appunto in quell'anno, si giudicavano come complementari due ipotesi: nella prima il calore veniva identificato con l'energia cinetica (forza viva) delle particelle costituenti i corpi, nella seconda i fenomeni termici erano attribuiti a un fluido. L'ipotesi del fluido trovava conforto nella tesi, allora assai diffusa, che la fisica dovesse basarsi su congetture relative a fluidi imponderabili, responsabili di vari gruppi di fenomeni. Così appariva lecito ricorrere al calorico, in analogia con quanto accadeva in altri settori della fisica dove, p. es., si ricorreva ad altri fluidi per spiegare i fenomeni elettrici e magnetici. Un diverso approccio allo stesso problema era costituito da quelle teorie che cercavano di ridurre il calore a moto, nell'ambito della teoria ondulatoria. In tal senso si muovevano, tra la fine del Settecento e i primi anni dell'Ottocento, le ricerche di B. Thompson (meglio noto come Rumford) e di T. Young. Va tuttavia detto che, durante i primi decenni dell'Ottocento, la teoria che meglio seppe riunire in una spiegazione compatta e rigorosa le varie conoscenze termologiche fu la teoria cosiddetta caloricistica. Questa teoria, al cui progresso lavorarono soprattutto P.-S. de Laplace e S. D. Poisson, si basava sull'ipotesi di esistenza di un fluido, il calorico, che interagiva con le molecole dei corpi attraverso un meccanismo probabilistico di radiazione termica. Alla base del meccanismo, che rappresentava le molecole come centri di emissione e di assorbimento di particelle di calorico, stavano forze a breve raggio d'azione. Il calorico assoluto era costituito da una frazione osservabile, o calorico libero, e da una frazione non direttamente sperimentabile, o calorico latente. Nell'ipotesi di indistruttibilità del calorico stesso, si poteva scrivere che la somma della frazione libera c e di quella latente i era una funzione y della densità di gas r, della temperatura u e della pressione P: c+i=y(P, r, u) dove P=kr c , con k costante dipendente dalla natura delle molecole del gas. Mediante alcune ipotesi sulla radiazione termica, che consentivano di interpretare la temperatura u in termini di densità di calorico libero, si aveva una relazione generale: rc =qP(u) dove q era una costante e P una funzione di u. Dalle relazioni precedenti si ricava: P=k¢rP(u) Quest'ultima legge poteva infine essere interpretata in modo da trovare conferme empiriche in rapporto alle leggi di Mariotte, Dalton e Gay-Lussac. Era inoltre possibile riferire il quadro teorico concernente la funzione y al problema dei calori specifici a pressione e volume costanti, cp e cv




_[1vh8'f21_70.wmf'_[0v

Anche questo conduceva a previsioni confermabili in sede sperimentale. La teoria di Laplace e Poisson, pur introducendo nell'apparato deduttivo complesse inferenze di natura probabilistica, era giudicata come fornita di un solido impianto meccanicistico, nel senso che poteva essere riferita, anche se in forme non pienamente giustificabili, a interazioni del tipo di quelle usuali nella teoria del moto. Un'alternativa radicale rispetto a un simile approccio fu sviluppata, tra il 1810 e il 1830, grazie agli studi sulla conduzione termica. Questa alternativa, centrata soprattutto sulla fisica matematica di J. Fourier, era di carattere prevalentemente fenomenologico e negava la possibilità di ridurre la termologia ai principi della meccanica. In tal senso Fourier si opponeva alle congetture sui modelli del calorico e riusciva a scrivere la sua classica equazione differenziale per la conduzione termica senza esplicitare modelli dettagliati di fluido e puntando solamente alla costruzione di equazioni del fenomeno. Il programma di ricerca di Fourier aveva a fondamento una potente teoria degli sviluppi in serie di funzioni e si presentava come un serio tentativo di matematizzare la teoria del calore senza collegare ogni singola mossa deduttiva a interpretazioni fisiche di carattere modellistico. Dopo il 1830 il problema termologico venne sempre più a incentrarsi sulle trasformazioni di calore in lavoro meccanico e viceversa. Già nel 1824 S. Carnot aveva dato alle stampe un volumetto (Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance; Considerazioni sulla potenza motrice del fuoco e sulle macchine atte a sviluppare questa potenza), nelle cui ine, pur nell'ambito di una sostanziale accettazione di una teoria caloricistica, si generalizzava la questione delle trasformazioni in stretto riferimento ai processi che si verificavano nelle macchine a vapore. La teoria di Carnot, espressa in un linguaggio non specialistico e rivolto prevalentemente alla cultura dei tecnici e degli ingegneri, non suscitò tuttavia alcun interesse immediato nell'ambito dei fisici e dei fisici matematici. Solo dopo il 1845 le Réflexions furono riscoperte grazie agli studi di W. Thomson (lord Kelvin) e di R. Clausius. La ragione di questa riscoperta sta nel fatto che, tra il 1840 e il 1845, alcuni studiosi, tra i quali J. P. Joule, R. Mayer e L. Colding, riuscirono a determinare alcuni valori numerici approssimati dell'equivalente meccanico della caloria: si apriva in tal modo la prospettiva di una rifondazione della teoria dei fenomeni termici, nel senso che venivano a cadere molte delle ragioni che stavano alla base dell'assioma di esistenza e di indistruttibilità del calorico. Il primo decennio della seconda metà dell'Ottocento può essere giudicato come il periodo basilare di tale rifondazione. La fondamentale Teoria dinamica del calore di Kelvin, iniziata nel 1850, la matematizzazione del secondo principio di tale teoria, effettuata da Clausius nel 1855, e il primo modello statistico di J. C. Maxwell del 1859, rappresentano infatti i pilastri sui quali, nei successivi decenni, doveva essere edificato il nucleo centrale della t. moderna. Kelvin pose alla base della nuova teoria due proposizioni generali. La prima, legata alle ricerche di Joule, affermava che "quando quantità eguali di effetto meccanico vengono prodotte, con qualsiasi mezzo, a partire da sorgenti puramente termiche, oppure vanno perdute in effetti puramente termici, vengono distrutte o generate quantità eguali di calore". La seconda si rifaceva invece a Carnot: "Se una macchina è tale che, quando viene fatta lavorare alla rovescia, le operazioni di tipo fisico e meccanico di tutte le parti dei suoi movimenti sono rovesciate, allora essa produce tanto effetto meccanico quanto quello che può essere prodotto, da una data quantità di calore, con una macchina termodinamica qualsiasi che lavori fra le stesse temperature di sorgente e di refrigeratore". Clausius, al fine di matematizzare la nuova teoria, suggerì di concentrare l'attenzione sulle trasformazioni termiche e di elaborare una funzione matematica che fosse in grado di esprimere quantitativamente le differenze fra trasformazioni reversibili e trasformazioni irreversibili. Questo fine poteva essere ottenuto, secondo Clausius, mediante la funzione Q/T, già usata da Kelvin, dove Q e T indicavano, rispettivamente, le quantità di calore e la temperatura assoluta. La seconda proposizione diventava allora una legge matematica che rafurava le trasformazioni reversibili come quelle per le quali:




_[1vh8'f21_71.wmf'_[0v

Era questa, per Clausius, "l'equazione analitica del secondo teorema fondamentale" della teoria dinamica del calore: da essa si poteva concludere che, nei processi irreversibili, "la somma algebrica di tutte le trasformazioni che avvengono in un processo circolare può solo essere positiva". Spettò a Maxwell il compito di intervenire sulle tesi di Clausius e, in particolare, sul concetto di cammino libero medio molecolare che lo stesso Clausius aveva elaborato nel 1857, e di trattare i sistemi gassosi in modo esplicitamente probabilistico. Con una memoria intitolata Illustrations of the Dynamical Theory of Heat (Esposizione della teoria dinamica del calore), presentata nel 1859, Maxwell ricavò la celebre funzione di distribuzione delle velocità molecolari, ancor oggi nota come maxwelliana. La situazione creatasi in t. a causa del significato fisico non ancora del tutto esplicito delle relazioni date sopra sfociò in raffinate matematizzazioni e in accesissimi dibattiti sulla effettiva possibilità di spiegare l'irreversibilità con riferimenti alla meccanica. Questi riferimenti sembravano infatti sfuggire a tutte le teorie, poiché le soluzioni delle equazioni fondamentali della meccanica erano simmetriche rispetto al tempo t, mentre i processi irreversibili erano caratterizzati da direzioni privilegiate e non simmetriche rispetto a trasformazioni di t in -t. Una prima soluzione di questo intricato problema fu indicata da Clausius. Egli generalizzò la


_[1vh8'f21_72.wmf'_[0v

introducendo la nozione di entropia (1864) e valutando le trasformazioni in termini di tendenza verso il disordine molecolare. Le considerazioni di natura statistica vennero in tal modo acquistando un peso sempre crescente nello sviluppo della t. ottocentesca. Attraverso una serie di memorie fondamentali L. Boltzmann elaborò, a partire dal 1866, un programma di ricerca volto a stabilire i rapporti tra t. e calcolo delle probabilità, spostando così la teoria del calore dal primitivo contesto di riduzione alla meccanica e indicando in raffinate matematizzazioni la via d'uscita di fronte ai paradossi dell'irreversibilità. Tra il 1872 e il 1877 Boltzmann diede le prime formulazioni del teorema H e avviò lo studio dei sistemi ergodici, nel 1884 dedusse la legge di J. Stefan sulla radiazione E=sT e, sul finire del secolo, scrisse la Gastheorie (Teoria dei gas). Nelle ine di questo trattato egli espose in forma compatta una trattazione teorica della t. dei gas. Il secondo principio della t., implicando una irreversibilità di tutti i fenomeni, appariva in contrasto con la concezione meccanica che ammette invece una loro completa reversibilità. Misura di tale irreversibilità era l'entropia che tende costantemente ad aumentare. Boltzmann, partendo dal presupposto che le proprietà osservabili di un gas (stato macroscopico) sono l'effetto del comportamento delle loro molecole (stato microscopico), ammise che a uno stesso stato macroscopico potessero corrispondere diversi stati microscopici. Suppose, quindi, che quanto più numerosi sono gli stati microscopici che corrispondono, in un determinato istante, a un certo stato macroscopico, tanto più questo sarà probabile. Giunse quindi a dimostrare che l'evoluzione termodinamica di un gas lo porta a raggiungere lo stato macroscopico più probabile, cioè uno stato di equilibrio in cui l'entropia è massima. Egli poté così stabilire un preciso legame fra l'entropia, S, di un corpo e la probabilità del suo stato macroscopico, W, che venne espressa con la famosa formula S=k Log W, dove k è la costante di Boltzmann che lega la quantità di calore posseduta da un gas, cioè la sua energia, alla sua temperatura assoluta. Con questo veniva data una definizione dell'entropia molto generale e si poteva concludere che il suo aumento ha un'alta probabilità, ma non si può escludere comunque una sua diminuzione anche se poco probabile. Ora, questa sia pur minima probabilità consente di ammettere che il sistema possa ritornare alle condizioni iniziali, possieda cioè quel requisito di reversibilità fondamentale per la meccanica. In tal modo si poteva considerare superato il contrasto fra questa teoria e il secondo principio della termodinamica. Il contributo di Maxwell aveva invece portato a una trattazione statistica al cui centro stava la discussione dei sistemi fisici in termini di coordinate generalizzate e di fasi (1879): il programma maxwelliano sfociava pertanto in riflessioni sull'equipartizione attorno alle quali si sarebbe accesa, tra la fine del secolo e i primi anni del Novecento, un teso dibattito. Una prima sistemazione generale dei problemi maxwelliani e boltzmanniani fu esposta da J. W. Gibbs nel 1902, nella monografia intitolata Elementary Principles in Statistical Mechanics (Principi elementari di meccanica statistica). Prima di Gibbs era stato pubblicato, nel 1897, il trattato di M. ck, che aveva come nucleo teorico la distinzione tra reversibilità e irreversibilità. Una rigorosa messa a punto della situazione teorica così creatasi - sia all'interno della t., sia nell'ambito dei rapporti tra essa e altri settori delle scienze fisiche - si ebbe, nei primi anni del sec. XX, con l'assiomatizzazione di C. Carathéodory (1909), i lavori di P. Ehrenfest (1911), le ricerche sui fondamenti della teoria cinetica dei gas svolte da D. Hilbert (1912) e sul terzo principio enunciato da W. Nernst nel 1906. Questa messa a punto, tuttavia, anziché chiudere il discorso produsse nuovi e maggiori problemi: la nuova t., infatti, si veniva a collegare con più sottili questioni di statistica e di teoria delle equazioni, nonché con problemi fisici emergenti dalle ipotesi quantistiche e dalle teorie sull'elettrone. La definizione data non rende pienamente conto della generalità oggi assunta dalle teorie fisico-matematiche che costituiscono la t. contemporanea. Tali teorie, infatti, analizzano in generale, a livello macroscopico, il comportamento di sistemi e di processi fisici che implicano numeri straordinariamente elevati di coordinate atomiche; questa analisi si articola su livelli diversi di complessità, poiché essa comporta la presa in considerazione di gruppi diversi di fenomeni, quali p. es. quelli in cui si ha trasporto di fluidi ionizzati in campi elettrici o magnetici, oppure quelli in cui è necessario sostituire la statistica classica con una statistica quantistica. È pressoché impossibile riassumere, senza fraintendimenti o forzature, il vasto campo nel quale operano quelle teorie che, oggi, si innestano nel dominio della termodinamica. Si hanno teorie che investigano i sistemi fisici macroscopici da un punto di vista puramente fenomenologico, senza addentrarsi in questioni di carattere statistico esplicitamente connesso con la struttura della materia. Si hanno poi altre teorie che, da un punto di vista molto astratto, prendono in esame congetture sulla struttura della materia. Queste ultime teorie possono ancora essere oggetto di una distinzione secondo che in esse si faccia riferimento a problemi di statistica classica o di statistica quantistica. In generale gli approfondimenti della meccanica statistica sono svolti a cominciare, nel caso classico, da considerazioni relative all'equazione di Liouville:




_[1vh8'f21_73.wmf'_[0v

dove r è una funzione di distribuzione, H è l'hamiltoniana del sistema studiato e sono le parentesi di Poisson. Nel caso quantistico si debbono tenere presenti le possibilità di analisi che prendono lo spunto da una variante quantistica dell'equazione di Liouville:


_[1vh8'f21_74.wmf'_[0v

dove h è uguale a _[1vh8'f21_74a.wmf'_[0v(con h costante di ck e [H, r]=Hr-rH. Una notevole rielaborazione di un approccio suggerito da Hilbert nel 1912 ha portato a interessanti riflessioni sulla diffusione termica con S. Chapman (1917), sulla cinetica nei gas compressi e nei liquidi e nei sistemi di particelle cariche, o plasmi. In questo senso sono da ricordare i lavori di Chapman nel 1954 e quelli di D. Enskog. Per quanto concerne le teorie sul trasporto nei gas e nei liquidi densi si deve inoltre fare riferimento agli approfondimenti che sono stati originati dalla monografia di N. N. Bogoliubov (1946). Di grande rilievo, nel contesto dell'irreversibilità, sono le ricerche di L. Onsager del 1931. Grazie a esse si è infatti chiarita la simmetria fra i coefficienti delle equazioni che descrivono i fenomeni irreversibili. È così divenuto possibile lavorare su una teoria macroscopica del comportamento della materia nei casi in cui le parti di quest'ultima non siano in equilibrio: di qui le applicazioni allo studio di fenomeni termomeccanici, termoelettrici e termomagnetici, oppure all'analisi di fenomeni inquadrati nella biofisica. La t. è oggi connessa anche alla teoria dell'informazione. In modo particolare questa connessione va fatta risalire ad alcune indagini di Shannon il quale, nel 1948, ha dimostrato che l'informazione media I correlata a un certo simbolo (dove si abbiano G simboli costituiti da lettere Gj con G=SGj) è data da: I=-kSpj Log pj, dove pj indica la probabilità _[1vh8'f21_75.wmf'_[0v relativa alla lettera Gj. La determinazione di pj implica un'analogia generalizzata in cui la I viene correlata, in un particolare dominio di definizioni, all'entropia.









Privacy

© ePerTutti.com : tutti i diritti riservati
:::::
Condizioni Generali - Invia - Contatta