Il joule è un'unità di misura del Sistema Internazionale (SI) che viene utilizzata per misurare energia, lavoro o calore, ed è dimensionalmente definita come $1 J = 1 N \cdot m = 1 kg \cdot m^2/s^2$ che, molto intuitivamente, corrisponde dunque al lavoro svolto esercitando la forza di $1 N$ per una distanza di $1 m$.
Saremmo dunque tentati di chiamarlo "newton metro", ma creerebbe confusione visto che il "newton metro" esiste ma non ha assolutamente niente a che fare con i joule. Infatti, il newton metro è dimensionalmente identico al joule, ma corrisponde al momento risultante da una forza di $1N$ applicata perpendicolarmente ad una estremità di un braccio leva lungo $1m$ incentrato nell'estremità opposta. È dunque l'unità di misura del momento meccanico, e la differenza con il joule risiede nel fatto che per il joule la $m$ rappresenta la distanza che è stata percorsa nella direzione della forza applicata, mentre per il newton metro la $m$ rappresenta la distanza dal fulcro della leva. Quindi, nonostante sia dimensionalmente vero che un joule è un newton metro, non si può dire.
Inoltre, bisogna fare attenzione anche a come si scrive $N \ m$: formalmente, il joule va scritto $1 N \ m$ oppure $1 N \cdot m$, ma non $1Nm$, perché il $Nm$ viene utilizzato per descrivere la coppia di un motore. La coppia di un motore indica infatti la forza con cui un motore riesce a far ruotare qualcosa, quantità che viene misurata proprio $Nm$. In particulare, nel contesto "automotive" la coppia è la forza di rotazione che il motore esercita sull'albero motore. Dal punto di vista sia fisico che matematico quindi $N \ m$ e $Nm$ sono letteralmente la stessa cosa, ma nel contesto automobilistico si preferisce scrivere $Nm$ per esplicitare il fatto che stiamo parlando di coppia del motore.
Piccola parentesi sempre sul newton metro: nei paesi che adottano il Sistema imperiale britannico l'unità di misura del momento meccanico, naturalmente, non può essere il newton metro, ma è bensì il molto più comodo "piede libbra", dove $1 ft \cdot lbs = 1,356 Nm$. "Ma Alessio, la libbre misurano la massa, e i piedi la distanza, come fanno ad equivalere a dei newton metri?" Semplice: il simbolo "lbs" (ed il nome "libbra" stesso) vengono utilizzati intercambiabilmente per indicare due grandezze totalmente diverse:
- la libbra-massa, indicata più precisamente con $lbm$, equivale a circa $0.45 kg$
- la libbra-forza, indicata formalmente con $lbf$, è definita come $1 lbf = 1 lbm \times g$ e $g$ è l'accelerazione di gravità sulla Terra
Quindi, per dare un senso al piede-libbra dobbiamo utilizzare la libbra-forza all'interno della sua definizione. In effetti, non ci sarebbe comunque confusione perché utilizzare la libbra-massa porterebbe ad una grandezza che verrebbe misurata in "piedi libre-massa", una massa per una distanza, una sorta di "chilogrammo metro", che non esiste... o quasi.
Il "chilogrammetro", indicato con $1kgm$ è definito come $1 kgf \cdot m$, dove $kgf$ è una forza, un "chilogrammo forza" per essere precisi. Dunque, non esiste il "chilogrammo metro", ma esiste il "chilogrammetro"... che è una forza per metri... sono letteralmente $\approx 9.81 J$. È un convoluto modo di esprimere ancora una volta l'energia, che però viene utilizzato in oplologia (lo studio delle armi) per misurare l'energia cinetica fornita dalle cartucce, ovvero l'energia da loro data ai relativi proiettili. Ad esempio, un proiettile da fucile che pesa $11 g$ e può essere sparato ad una velocità di $800 m/s$ avrà un'energia cinetica pari a circa $360 kgm$.
La domanda allora sorge spontanea: perché non usiamo i joule in questo contesto? La risposta è data da motivi storici: gli ingegneri a fine 800 lavoravano già con $kg$ e $m$, ma non sempre con i secondi, poiché gli strumenti dell'epoca non erano in grado di misurare accuratamente le velocità di oggetti cosi veloci come i proiettili (notiamo che il newton è definito anche in termini di tempo). Dunque, il $kgm$ nasce come unità pratica di energia, ed esprime il lavoro necessario per sollevare $1 kg$ di massa di $1 m$ di altezza contro la gravità terrestre. In effetti, è più intuitivo ragionare in termini di "quanti chili una pallottola può sollevare di un metro" rispetto ai joule. In breve, le ragioni che spiegano quest'unità di misura sono semplicemente motivi storici, ma questo è l'esempio meno strano di quello che vedremo oggi, ed in particolare del protagonista di questa avventura.
Ma andiamo con ordine, prima di tutto presentiamo un'ulteriore grandezza: il watt. Il watt è l'unità di misura della potenza elettrica, che rappresenta la velocità di trasferimento dell'energia, infatti $1 W = 1 J/s$, molto sensatamente. Infatti, è un'unità di misura davvero intuitiva: proviamo a risolvere un problema di fisica insieme. Abbiamo una lampadina che assorbe $100 W$, e la lasciamo accesa per $2h$, secondo voi quanta energia avrà consumato dopo questo tempo? Una persona sana di mente vi risponderebbe "basta trasformare $2h = 2 \cdot 3600 s = 7200 s$, e successivamente calcolare $2h \cdot 100 W = 7200 s \cdot 100 J/s = 720000 J = 720 kJ$". Molto semplice, molto lineare e molto intuitivo. Se non dovesse essere sufficientemente chiaro, e volessimo dare un'interpretazione al numero $720 kJ$, basterebbe pensare al fatto che corrisponde la lavoro svolto esercitando una forza di $720 N$ per $1 km$. È come sollevare verticalmente una persona di circa $73 kg$ ad un $1km$ di altezza, contro la gravità terrestre.
Peccato che, per qualche assurdo motivo storico, un ingegnere elettronico oggi vi risponderebbe $200 Wh$. Cos'è quel simbolo strano dopo il $200$? Quello è un "wattora", e rappresenta indovinate un pò? Energia. Ma del resto, è un unità di misura che rappresenta letteralmente una velocità di trasferimento di energia per un tempo. È letteralmente solo energia.
Per la precisione, poiché gli elettrodomestici di oggi assorbono tutti molta energia, si utilizza più comunemente il $kWh$, il "chilowattora", l'energia che un apparecchio da $1kW$ consuma se resta acceso per $1h$. Ma allora perché esiste il chilowattora, se misura letteralmente la stessa cosa che misura il joule? Qualche ingegnere molto ingenuo potrebbe rispondervi "beh, perché i numeri diventano molto grandi, molto velocemente, e la nostra testa non è particolarmente brava a saper gestire numeri grandi". Infatti, possiamo notare che nel problema di prima il risultato è espresso in "chilojoule". Ho almeno 3 problemi con questa spiegazione:
- Primo problema: perché dovremmo prendercela con l'energia, ma non con altre unità di misura che soffrono dello stesso problema? Abbiamo esepi tangibili tutti i giorni:
- un "chilometro" sono letteralmente $1000$ metri, e lo usiamo ogni singolo giorno per esprimere distanze che sarebbe molto più scomodo esprimere in metri
- un "chilogrammo" sono letteralmente $1000$ chili, e lo usiamo ogni singolo giorno per esprimere masse che sarebbe molto più scomodo esprimere in grammi
- una "chilocaloria", scritto $1 kcal$, sono letteralmente $1000$ calorie, e usiamo anch'essa poiché esprimere il numero di calorie in $cal$ sarebbe scomodo e porterebbe ad usare numeri troppo grandi (anche se poi comunemente viene chiamata "caloria" quello che sarebbe una "chilocaloria", ma questa è solo ignoranza delle persone, sarebbe come chiamare "metri" i "chilometri"). Per altro, e questo è veramente folle, $1 cal = 4,186 J$. Cioè, una singola caloria sono tipo $4$ joule, solo che per le calorie usiamo le $kcal$, per i joule preferiamo il $kWh$. Certo.
- Secondo problema: anche fosse questa la vera motivazione, abbiamo preferito nascondere questa "complessità" sotto il tappeto, e rispondere $200 Wh$ al problema precedente, senza che questa quantità dica alcuna informazione sulla risposta che cercavamo. Dire che la lampadina consuma $200 Wh$ è come dire "la lampadina consuma l'energia che consuma stando accesa 2 ore". Beh si lo sapevo già, era quella la cosa che volevo sapere... "il cavallo di Napoleone è proprio del colore del cavallo bianco di Napoleone".
- Terzo, e principale problema: la vera motivazione non ha assolutamente niente a che vedere con questo ragionamento, ed il motivo è puramente storico.
Ma prima di entrare nei dettagli del perché questo è lo standard che utilizziamo tutt'oggi, vorrei prima presentare un esempio per far comprendere l'assurdità di questa "unità di misura", e per far ciò utilizzermo un esempio più simile e comprensibile. Immaginate di guidare in macchina ad una velocità di $50 km/h$, e di guidare a questa velocità costantemente per $2 h$. Se ora vi chiedessi quanta distanza avete percorso, non dovreste far altro che rispondere $50 km/h \cdot 2h = 100 km$, e siamo tutti contenti. Un ingegnere però, non è quello che vi risponderebbe. Per fare un parallelismo, diamo un nome al $m/s$: notiamo che questa velocità è davvero molto bassa, infatti sono $3,6 km/h$, che potrebbe essere approssimata alla velocità di alcune specie di tartarughe particolarmente veloci. Chiamamo dunque $1 T = 1 m/s$ (in realtà la lettera $T$ già esiste e si usa per misurare il campo magnetico attraverso il Tesla, ma ignoriamo questa cosa) l'unità di misura di "1 tartaruga". Inoltre, per fare dei conti più realistici cambiamo il nostro setting: consideriamo una cometa che si sta spostando ad una velocità di $50 km/s$, ma lasciamo il quesito invariato della distanza invariato: vogliamo sapere quanta distanza questa cometa avrà pecorso in $2 h$. Bene, trasformiamo la sua velocità in $50 kT$, "50 chilotartarughe", e moltiplichiamo per $2h$, dunque otteniamo che la nostra cometa ha percorso $100 kTh$, "100 chilotartarugheora". Certo.
Ma allora, quando è stato commesso questo errore da parte del genere umano? Ovvero, quand'è che storicamente è stata inventata questa "unità di misura"? E soprattutto, ma perché cazzo non usiamo i $kJ$, $MJ$, $GJ$, $TJ$?
Molto semplice: perché in realtà, quando è stato inventato il watt, il joule non era ancora stato inventato. Infatti, il joule è stato inventato solamente nel 1889, ed il fatto che $1 W = 1 J/s$ non è storicamente la definizione del watt, ma è solo una conseguenza. Ma allora, chi cazzo ha inventato il watt? Il Watt prende il nome da James Watt, un ingegnere scozzese (ingegnere + inglese, combo terribile) che nei primi anni del 700 stava cercando un modo per pubblicizzare il suo "motore a vapore Watt", una versione migliorata del precedente "motore a vapore Newcomen" inventato da Thomas Newcomen. Watt in precedenza aveva accettato di ricevere royalties pari a un 1/3 del risparmio sul carbone derivante dai vecchi motori a vapore Newcomen. Dunque in pratica, se il suo motore Watt faceva risparmiarare carbone rispetto ad uno di tipo Newcomen, Watt avrebbe preso 1/3 del risparmio guadagnato ogni anno. Il problema era che questo schema di royalties non funzionava con i clienti che non possedevano motori a vapore, ma utilizzavano invece i cavalli. Allora, per estendere lo schema di royalties, Watt ha definito una grandezza fisica in grado di poter convertire la potenza dei cavalli in una potenza che potesse essere comparata a quella del suo motore a vapore. Nacque dunque il "cavallo vapore", definito come $1 hp = 550 ft \cdot lbs /s$. Piede-libbre al secondo. Energia al secondo... quello che noi oggi chiameremo watt, appunto. In realtà, l'invenzione del cavallo vapore aveva molto senso: Watt aveva bisogno di vendere il proprio motore a minatori e imprenditori, persone che non avevano minimamente idea di cosa fosse il concetto di potenza, non a fisici. Di conseguenza, attraverso questa unità di misura (che aveva empiricamente stabilito) poteva vendere il proprio motore con la promessa che avrebbe reso "come X numero di cavalli". Successivamente poi, solo nel 1882 (quasi 60 anni dopo la sua morte) è stato inventato il watt che oggi utilizziamo (male), quando la British Association for the Advancement of Science decise di introdurre tale unità di misura in onore di James Watt. Convertendo dunque il cavallo vapore in watt, abbiamo che $1hp = 745.7 W$.
...eccetto che, non è cosi che $1 W$ è stato definito. Infatti, sia il watt che il joule vennero introdotti molto dopo, quando si iniziò a standardizzare e ricollegare tra loro le unità di misura, e si "scoprì" che $1 W = 1 J/ s$. E allora, come era stato definito originariamente il watt? Beh, semplice, $1 W = 10^7 \mathrm{ergs}/s$. Che cazzo è un $\mathrm{ergs}$? Non ci crederete mai, ma visto che è diviso per il tempo, $1 ergs$ è lettralmente un "proto-joule", ma espresso in un sistema di unità di misura che descrivere fuori di testa è poco. Nel 1832 Gauss (stai veramente dappertutto) propose di unificare il sistema delle grandezze fisiche cercando di esprimerle tutte solamente tramite 3 unità base: il centimetro (esatto, non metro, centimetro), il grammo, ed il secondo. Da qui il nome "Centimiter-Gram-Second (CGS) system", detto anche "Sistema di Gauss". "$\mathrm{erg}$" è semplicemente un'abbreviazione della parola "energy", e valeva l'equivalenza $1 \mathrm{erg} = 1 g \cdot cm^2/s^2$, che equivale a $10^{-7} J$. Di conseguenza, $1 J = 10^7 \mathrm{erg}$ e $1 W = 10^7 \mathrm{erg}/s$. Atroce, ma aveva già più senso dell'abominio di prima.
Ma allora come ci siamo arrivati ad oggi? Alla fine dell'800 l'elettricità diventa un servizio grazie agli studi di Thomas Edison, Nikola Tesla e Werner von Siemens, e le prime centrali elettriche, come la Pearl Stree Station di Edison nel 1882, iniziano a vendere energia elettrica ai clienti. In particolare, quest'ultima fu la prima centrale elettrica commerciale al mondo, ed era alimentata a carbone fornendo corrente continua ad una sessantina di clienti, accendendo circa 400 lampadine (inventate da Edison stesso, te possino Thomas). In questo periodo storico, le lampadine, i motori e gli apparecchi venivano classificati già in watt, ma serviva un modo per far capire alle persone quanta energia nel tempo gli apparecchi elettronici venduti avrebbero consumato. Tuttavia, già dal 1870 le comunità di ingegneri elettronici britannici e tedeschi parlavano di "watt" e "wattora" (tra le altre unità di misura), e di conseguenza si erano già abituati al concetto di $Wh$, dunque per esprimere l'energia che gli apparecchi avrebbero consumato si decise di utilizzare il $Wh$, e multipli.
E infine, arriviamo ad oggi. Ormai purtroppo questa atrocità è completamente radicata nella società e non c'è più modo di tornare indietro, se non provare a viaggiare nel tempo e far saltare in aria la testa di James Watt. Dico questo, perché ancora oggi ci trasciniamo gli effetti totalmente deleteri della scelta dell'ingegnere anglosassone. Nel 1994 l'Unione Europea ha introdotto la cosiddetta "Energy Label", che descrive la classe energetica dell'elettrodomestico che vogliamo comprare. Su questa etichetta, tra le varie informazioni troviamo una voce che il sito "europa.eu" definisce precisamente "Energy consumption". Volete sapere in che unità di misura è espresso il "consumo energetico"? $kWh/1000h$. Chilowattora per mille ore. Chilowattora al chilora. ...Wattchilora al chilora? Sì, è $1W$. Non solo è una potenza, ma è letteralmente un numero ESPRESSO IN WATT, solo che la testa delle masse è completamente deviata per via del $kWh$ e ci ritroviamo a dover usare questo abominio. Non solo, le persone lo trovano a quanto pare talmente intuitivo che, per la precisione, già da qualche anno non è più utilizzato il chilowattora al chilora, ma ora viene adottato il $kWh/annum$, il chilowattora all'anno.
Insomma, questa "unità di misura" (se così si può definire), se non si fosse capito abbastanza, mi fa davvero dannare. Se non per motivi storici, che sono davvero l'unica cosa che può spiegare questa follia, non riesco proprio a dare una ragione al perché ancora oggi utilizziamo questo sistema cosi astruso. Infatti, se qualche anno fa poteva avere dei vantaggi per motivi storici, oggi siti come Wikipedia creano delle sezioni appositamente per spiegare la differenza tra $kW$ e $kWh$ poiché sono costante fonte di confusione in termini delle grandezze fisiche che esprimono, semplicemente perché il $kWh$ è oggettivamente un modo, se non altro, davvero controintuitivo di esprimere l'energia.