giovedì 16 febbraio 2012

Il laser

Un atomo può emettere un fotone con un meccanismo piuttosto facile da capire. Un elettrone, che si trova in uno stato di energia E1 riceve energia dall’esterno (per esempio mediante un urto o assorbendo un fotone), in questo modo può portarsi in un altro stato, a cui compete l’energia E2 > E1. A questo punto l’elettrone può ritornare spontaneamente allo stato di partenza (o a un altro stato di energia inferiore), emettendo un fotone di energia hf, dove f è la frequenza (h è la costante di Planck), tale da conservare l’energia totale:

hf = E2 – E1

Di solito l’elettrone rimane nello stato di energia superiore per un intervallo di tempo dell’ordine di 10-8 secondi. Esistono però casi in cui la durata di tale permanenza può allungarsi fino a 10-3 secondi. Quando ciò accade si dice che lo stato di energia E2 è metastabile, cioè quasi stabile.

(Lo schema di funzionamento di un laser a rubino)

 

L’emissione stimolata

I fotoni hanno spin 1 e quindi seguono la statistica di Bose-Einstein. Ciò li distingue dai fermioni, per i quali vale il principio di esclusione di Pauli, secondo cui non è possibile trovare due particelle fermioniche identiche (cioè due particelle dello stesso tipo con gli stessi numeri quantici). Per i bosoni vale la proprietà opposta: essi tendono ad avere tutti le stesse caratteristiche. Così, se un elettrone si trova nello stato atomico di energia E2, la presenza nelle sue vicinanze di un fotone che ha proprio la frequenza f data dalla formula precedente, provoca la ricaduta dell’elettrone stesso nello stato E1, con l’emissione di un nuovo fotone che è del tutto identico a quello che era già presente. Questo fenomeno è detto emissione stimolata.

 

Il Laser

Nel laser (acronimo di Light Amplification by Stimulated Emission of Radiation, cioè “amplificazione della luce mediante l’emissione stimolata di radiazione”) il meccanismo dell’emissione stimolata è utilizzato per ottenere un fascio di luce composto da fotoni tutti identici tra loro. Ciò è possibile grazie a una specie di “reazione a catena” per la quale un fotone casualmente presente ne fa emettere un altro identico a sé, i due fotoni risultanti stimolano l’emissione di altri due fotoni identici e così via. Si ottiene in questo modo un fascio luminoso con caratteristiche uniche. Infatti il fascio risulta

- estremamente monocromatico: la lunghezza d’onda della luce emessa può essere precisa a meno di una parte su un miliardo;

- estremamente coerente: la fase iniziale dell’onda emessa può essere costante su una distanza (detta “lunghezza di coerenza” dell’ordine di diverse centinaia di chilometri; questa distanza è molto maggiore della lunghezza di coerenza della luce della luce di una lampada a gas che è, in genere, molto più breve del metro;

- estremamente direzionale: proprio perché i fotoni che compongono il fascio laser sono tutti identici tra loro, il fascio ha un parallelismo che non si può ottenere mediante usuali sistemi di focalizzazione che utilizzano lenti; l’allargamento del fascio è determinato soltanto dalla diffrazione dovuta al foro di uscita della luce laser.

 

L’inversione di popolazione

Un fascio laser contiene un grande numero di fotoni ottenuti per emissione stimolata. Perché ciò avvenga è necessario che lo stato quantico di energia E2 sia molto popolato di elettroni provenienti dallo stato di energia E1 che, così, risulta semivuoto. Visto che, in condizioni normali, accade il contrario (con lo stato di energia inferiore molto popolato e quello di energia superiore semivuoto), tale condizione è detta inversione di popolazione.

Vale la pena di sottolineare che il realizzarsi di una inversione di popolazione è condizione necessaria per ottenere un fascio laser. Senza di essa, infatti, il fenomeno dell’emissione stimolata non produrrebbe altro che pochi fotoni sporadici, di grande interesse teorico, ma di nessuna utilità pratica.

Ma come si può ottenere una inversione di popolazione? Come esempio, la figura sotto illustra il meccanismo che si realizza, tra l’altro, nei laser a rubino. In condizioni normali lo stato quantico di energia E1 è popolato, mentre sono vuoti gli stati con energia E2 ed E3. Per ottenere l’inversione di popolazione, lo stato con energia E2 deve essere metastabile.

inversione di popolazione

Se si invia luce di spettro continuo mediante una sorgente luminosa convenzionale, i fotoni che hanno la frequenza adatta provocano il passaggio di elettroni dallo stato di energia E1 a quello di energia E3. Da quest’ultimo gli elettroni passano velocemente a quello di energia E2 dove, invece, rimangono per tempi relativamente lunghi. Scegliendo in modo opportuno il materiale e le condizioni fisiche di funzionamento, si fa in modo che quest’ultimo livello risulti più popolato di quello iniziale, che ha energia E1.

A questo punto, il primo fotone di energia adatta che si trova nella zona di spazio interessata innesca la catena delle emissioni stimolate descritte prima, così si produce il raggio laser.

In conclusione, il funzionamento del laser è la migliore prova del fatto che i pacchetti di energia elettromagnetica, che noi chiamiamo “fotoni”, sono dei bosoni e non dei fermioni.


domenica 12 febbraio 2012

Lo spettro elettromagnetico

Lo spettro elettromagnetico è l’insieme di tutte le radiazioni che ci circondano. La “radiazione visibile”, quella che possiamo percepire con i nostri occhi, è solo una piccola frazione dello spettro elettromagnetico. Le onde elettromagnetiche sono delle oscillazioni del campo elettrico e magnetico che possono propagarsi anche nel vuoto e il parametro più importante che le caratterizza è la lunghezza d’onda. A seconda della lunghezza d’onda è possibile classificare le onde elettromagnetiche in questo modo:

a) raggi gamma (lunghezza d’onda inferiore a 10-12 metri, cioè 1 picometro);

b) raggi X (da 100 nanometri a 1 picometro);

c) ultravioletto (da 400 nanometri a 100 nanometri);

d) luce visibile (da 700 nanometri a 400 nanometri);

e) infrarosso (da 1 millimetro a 700 nanometri);

f) microonde (da 10 centimetri a 1 millimetro);

h) onde radio (lunghezza d’onda superiore a 10 centimetri).

spettro elettromagnetico

Ovviamente questi “confini” tra i tipi di radiazioni elettromagnetiche sono arbitrari, la lunghezza d’onda varia tra i raggi gamma alle onde radio senza soluzione di continuità.

Una parte dello spettro elettromagnetico molto interessante è quella dell’infrarosso. Anche nell’infrarosso si possono fare delle distinzioni in base alla lunghezza d’onda. Nell’infrarosso lontano (grande lunghezza d’onda) possiamo vedere lo stato termico dei corpi, cioè se sono più o meno caldi, nell’infrarosso vicino (piccola lunghezza d’onda, di poco superiore alle lunghezze d’onda del visibile) è possibile vedere cose molto interessanti del mondo che ci circonda.

Nell’infrarosso vicino il mondo ci appare molto simile a quello che vediamo con i nostri occhi, tranne che in alcuni dettagli che, però, sono molto interessanti. Molti pigmenti colorati che noi percepiamo dai colori molto vivaci, nell’infrarosso invece non sono assolutamente visibili. Ciò significa che le superfici trattate con questi pigmenti non riflettono l’infrarosso e quindi se le osserviamo attraverso una telecamera sensibile a questo tipo di radiazione le vedremmo bianche. Un esempio tipico sono i pigmenti che vengono usati per colorare i capi di abbigliamento. Una camicia a righe nel visibile, apparirebbe completamente bianca nell’infrarosso. Una donna che usa il colore per capelli per diventare castana scura, apparirebbe con i capelli molto chiari nell’infrarosso.

La diversa risposta dell’infrarosso a molti pigmenti utilizzati per colorare fa sì che l’infrarosso viene spesso utilizzato per distinguere quadri falsi da quelli autentici. O anche per distinguere banconote false da quelle vere. Un’altra applicazione della visione infrarossa è quella di poter distinguere se i sistemi vegetali sono in buona salute o no. La clorofilla nel visibile ci appare verde, nell’infrarosso è bianca. Se della verdura ha delle parti che stanno marcendo, nel visibile ci appaiono ancora approssimativamente verdi, nell’infrarosso invece si vedono delle nettissime zone nere.

Nel seguente filmato possiamo vedere l’esperto Nicola Ludwig che spiega cosa sono le onde elettromagnetiche, sottolineando alcune interessanti applicazione della visione all’infrarosso vicino che ho citato prima (distinguere quadri falsi, banconote false, vegetali in “cattiva salute”). Alla fine del video viene mostrato anche un “colpo di scena” in studio con una applicazione della visione infrarossa davvero sorprendente. Vi consiglio di trovare un po’ di tempo per vedere questo filmato (dura poco più di 11 minuti), perché io stesso ho imparato tante cose che non sapevo.

Buona visione a tutti.


venerdì 10 febbraio 2012

Chip fotovoltaici ad alta efficienza italiani

Negli ultimi giorni il maltempo in Italia ha causato l’isolamento di diversi centri abitati. Molti paesi sono rimasti senza corrente elettrica. Questo non sarebbe successo se l’energia solare fosse più diffusa soprattutto nei centri abitati più piccoli ed isolati. Il tema dell’energia solare ci riporta però ad un altro argomento che riguarda l’efficienza dei pannelli solari. Infatti i chip fotovoltaicinormali” non hanno una grande efficienza. Una cella solare di solito non riesce a convertire più del 18% dell’energia solare incidente.

Molti ricercatori in tutto il mondo stanno cercando di studiare nuovi modi per aumentare l’efficienza delle celle solari in modo tale da renderle “competitive” con altre forme di energia più convenzionali.

La notizia più allettante è che in una cascina alle porte di Piacenza si sta cercando di portare l’efficienza delle celle solari fino al 45%: si tratterebbe di un vero e proprio record. Si tratta del Consorzio RSE che sta sviluppando una cella solare fotovoltaica a concentrazione. Il risultato della resa al 45% dovrebbe essere raggiunto entro il 2013.

La capacità di queste nuove celle solari di concentrare l’energia solare è dovuta alle proprietà dei materiali che le compongono: indio, gallio, arsenico e silicio. Una volta che le celle solari verranno realizzate, il problema più importante sarà quello di industrializzare la produzione, abbattendo i costi e creando un prodotto competitivo sul mercato, quindi poco costoso.

Sono contento che questo tipo di studi si stiano eseguendo anche in Italia, spero sono che questa iniziativa non si trasformi (come troppo spesso succede nel nostro paese) nella solita “occasione sprecata”. Speriamo quindi che si traduca in un progresso tecnologico tangibile e fruibile per migliorare lo sfruttamento dell’energia solare in Italia e in tutto il mondo.

Nel frattempo, se volete qualche dettaglio in più su queste nuove celle fotovoltaiche ad alta efficienza italiane, vi rimando alla visione del seguente servizio televisivo che ne parla. Buona visione a tutti.


giovedì 9 febbraio 2012

Legge di gravitazione universale

Tutto cominciò con una mela caduta in testa a Isaac Newton, almeno così dice la leggenda (anche se, a quanto pare, non è proprio una leggenda). Fu Newton il primo a intuire che la forza che fa cadere gli oggetti sulla Terra è la stessa forza che tiene legata la Luna alla Terra e i pianeti attorno al Sole. In realtà è una grande intuizione, perché non sembra che ci sia una correlazione così forte tra i due fenomeni. Potremmo pensare: “ma allora perché la Luna non cade sulla Terra, visto che c’è questa attrazione gravitazionale?”. La verità è che, in qualche modo, la Luna cade continuamente sulla Terra, ma questo moto di caduta è in ogni istante compensato dal moto stesso della Luna. C’è quindi un equilibrio tra la “forza centrifuga” che tende ad allontanare la Luna dalla Terra e la loro mutua attrazione gravitazionale.

Isaac Newton

Quindi l’intuizione di Newton fu quella di pensare che se la Luna si muove di moto approssimativamente circolare attorno alla Terra, quindi presenta una forza centrifuga che tende a farla sfuggire, come mai allora resta sempre alla stessa distanza e non sfugge via? Newton pensò che la forza che equilibra la forza centrifuga doveva essere esattamente la stessa forza di gravità che sentiamo sulla Terra, indebolita ovviamente dalla distanza superiore. Newton cercò di calcolare questa forza di attrazione e si accorse che, se questa fosse stata proporzionale a 1/r2 (dove r è la distanza tra la Terra e la Luna), si sarebbe potuto prevedere addirittura il tempo orbitale della Luna!

Ma Newton non si fermò a pensare che la forza di gravità che sentiamo sotto i nostri piedi si estendesse nello spazio solo fino alla Luna, ma che arrivasse persino a permeare l’intero Universo. Ecco perché il nome di gravitazione universale. In questo modo Newton poteva spiegare anche il moto dei pianeti attorno al Sole; quindi era la gravità del Sole che teneva i pianeti nelle loro orbite.

Ma qual è la grandezza fisica che “genera” questa forza di gravità? Newton propose che fosse la massa. In particolare era evidente che la forza di gravità tra due corpi con un certa massa fosse proporzionale al prodotto delle loro masse.

Questo lo possiamo dimostrare facilmente in questo modo:

Supponiamo di considerare il sistema Terra-Sole. Indichiamo con M la massa del Sole e con m quella della Terra. Sopponiamo inoltre che l’orbita della Terra sia circolare (approssimazione che non si discosta molto dalla realtà, dato che l’orbita terrestre è un’ellisse con eccentricità pari a 0,0167). Così possiamo ipotizzare che il moto della Terra sia circolare uniforme.

La forza che lega la Terra al Sole (quindi è una forza centripeta) è data dalla seconda legge di Newton:

dove m, come detto prima, è la massa della Terra.

Sappiamo anche che, in un moto circolare uniforme la velocità è data da:

dove:

e si chiama “frequenza angolare”.

Così possiamo scrivere che l’accelerazione centripeta è:

Sostituendo nell’espressione della seconda legge di Newton, possiamo scrivere:

A questo punto possiamo chiamare in causa la terza legge di Keplero per cercare di eliminare la dipendenza dal quadrato del tempo di quest’ultima formula.

La terza legge di Keplero afferma, infatti, che i cubi dei raggi delle orbite dei pianeti sono direttamente proporzionali ai quadrati dei loro periodi orbitali. Questa proporzionalità diretta la posso esprimere in questo modo:

Sapendo questo, sostituisco nell’espressione della forza, ottenendo:

Questa è la forza che il Sole esercita sulla Terra. Ma, simmetricamente, dobbiamo considerare anche la forza con cui la Terra attrae il Sole, che sarà data da:

dove, la massa M stavolta è quella del Sole e il segno meno è dovuto al fatto che tale forza, ovviamente, è in direzione opposta rispetto a quella vista prima.

Per il terzo principio della dinamica (legge di azione e reazione) posso quindi scrivere:

e quindi:

da cui ottengo:

A questo punto posso riscrivere le espressioni per F ed F’ in un altro modo. Se le moltiplico e divido entrambe per una stessa quantità (m/m o M/M) le posso “modificare” senza in realtà cambiare nulla.

Dato che, come avevamo visto in precedenza, risulta che:

possiamo eguagliare anche le quantità:

Sostituendo G in una qualsiasi delle espressioni di F o F’, otteniamo infine:

G è una costante che viene chiamata costante di gravitazione universale. Si tratta di un valore costante che può essere misurato e che di solito viene approssimato con il valore:

e che non è altro che la forza con cui si attraggono due masse di 1 Kg poste a 1 metro di distanza l’una dall’altra. Si noti che è un valore molto piccolo ed è per questo motivo che non sentiamo la forza di attrazione gravitazionale degli oggetti che ci circondano quotidianamente. Non perché non c’è, ma perché è troppo piccola per essere percepita con i nostri sensi. Invece percepiamo la forza di gravità della Terra perché ha una massa molto grande.

La legge di gravitazione universale può essere enunciata nel seguente modo:

due punti materiali si attraggono con una forza di intensità direttamente proporzionale al prodotto delle masse dei singoli corpi ed inversamente proporzionale al quadrato della loro distanza

Bisogna notare l’espressione “punti materiali”. Infatti la forza di gravità viene di solito definita tra corpi considerati puntiformi. Questo perché se consideriamo corpi celesti come il Sole o la Terra, la forza di gravità che esercitano è la stessa che si avrebbe se tutta la massa dei loro corpi sferici fosse concentrata nel loro centro.


mercoledì 8 febbraio 2012

Piramidi su Marte

Marte è sempre stato un pianeta affascinante. Questo pianeta è uno dei pochi corpi celesti del cielo ad esibire un colore ben visibile ad occhio nudo. Non per niente si è guadagnato il nome di “pianeta rosso”. Gli scienziati lo considerano un mondo molto interessante, i visionari hanno subito cominciato a pensare che ci potesse essere la vita.

Marte

Le prime osservazioni telescopiche di qualità sufficiente mostrarono come Marte possedeva delle strutture superficiali ben definite, come aree chiare e scure che potevano far pensare alla presenza di continenti ed oceani. Nel 1877, l’astronomo italiano Giovanni Schiaparelli, approfittando di una opposizione (cioè quando Marte e la Terra si trovano dalla stessa parte rispetto al Sole e si trovano ad una distanza minima l’uno dall’altra) di Marte particolarmente favorevole, riuscì a disegnare una mappa del pianeta. Assecondando l’ipotesi che le aree scure fossero oceani, le linee scure che attraversavano le aree più chiare, Schiaparelli le chiamò “canali”.

disegno di Marte di Schiaparelli

(mappa di Marte disegnata da Schiaparelli)

Bisogna però notare che i “fiumi” o i “canali” non hanno nulla di reale. Ad esempio la pianura Hellas è un gigantesco cratere da impatto e il “lago” presente in Thaumasia felix sappiamo adesso che è la caldera del gigantesco vulcano a scudo Olympus Mons.

L’astronomo americano Percival Lowell credette che Schiaparelli avesse scoperto dei canali artificiali. Questo equivoco derivava dal fatti che la parola italiana “canali” usata da Schiaparelli fu tradotta in inglese usando il termine “canals” che significa appunto canali artificiali. Lowell divenne subito uno dei maggiori proponenti dell’ipotesi che su Marte ci fosse una complessa civilizzazione. Questa sua idea fu superata quando gli astronomi che osservarono Marte con telescopi più potenti non trovarono nessun canale. Ciò dimostrò che la visione dei canali non fu altro che una vera e propria illusione ottica. Quando furono effettuate le prime osservazioni spettrografiche di Marte si scoprì che il pianeta non è un luogo particolarmente ospitale. Freddo, arido e con un’atmosfera troppo sottile per mantenere l’acqua sotto forma liquida.

mappa di Marte di Lowell

(mappa dei canali marziani disegnata da Percival Lowell)

In ogni caso l’idea di un Marte abitato durò con alterna fortuna fino al 1965, quando la sonda Mariner 4 sorvolò il pianeta rosso.

Nel suo breve incontro, la sonda rivelò che Marte appariva come un pianeta morto e ostile molto simile alla Luna, costellato di crateri da impatto e da ampi deserti. Ovviamente non c’era nessun canale.

(foto di una parte della superficie di Marte realizzata dalla sonda Mariner 4)

L’idea della vita su Marte fu abbandonata, ma l’interesse per il pianeta rosso rimase. I canali non erano cose reali, ma fiorirono molte nuove ipotesi sul passato di Marte e su come in questo passato potessero effettivamente esistere i marziani. Se nel presente non c’erano tracce di civilizzazione, potevano però essere esistite in un passato più o meno remoto. Dopo il Mariner 4, le sonde Mariner 6 e 7 confermarono l’assenza di vita su Marte.

Ma il colpo di scena sta per arrivare. Il Mariner 9 giunge su Marte il 14 novembre del 1971. Fu seguito nel giro di un mese dalle sonde sovietiche Mars 2 e Mars 3. Al loro arrivo le sonde scoprirono un Marte trasformato. Una immensa tempesta di sabbia aveva nascosto gran parte della superficie del pianeta.

Alla fine di questa immensa tempesta, quando la visibilità tornò normale, venne rivelato un mondo di meraviglie che prima non era mai stato visto. C’erano vulcani di dimensioni enormi, un immenso sistema di canyon che fu battezzato con lo stesso nome della sonda Mariner (Valles Marineris), letti prosciugati di fiumi, nebbie, nubi… e anche qualcosa di più incredibile. Giorno 8 febbraio 1972 (oggi quindi sono passati esattamente 40 anni), il Mariner 9 mandò sulla Terra un’immagine che mostrava un certo numero di oggetti che sembravano piramidi in una regione chiamata Elysium Planitia.

piramidi su Marte

(foto del Mariner 9 della regione Elysium Planitia che mostra le forme piramidali)

Cosa potevano essere queste piramidi? Erano forse la prova della presenza di vita intelligente su Marte? Queste piramidi erano l’analogo delle antiche piramidi egizie sulla Terra? Il problema è che sono molte le strutture superficiali, anche sulla Terra, che hanno un aspetto vagamente artificiale, ma nessuna di queste è realmente una piramide. Il colpo di scena più spettacolare però sarebbe arrivato nel 1976.

Nel 1976 su Marte arrivarono due sonde spaziali molto più sofisticate di tutte quelle che erano state mandate in precedenza. Si trattava del Viking 1 e del Viking 2. Ciascuna di queste sonde era formata da una coppia orbiter (cioè una sonda che resta in orbita attorno al pianeta) e lander (sonda che atterra).

Gli orbiter analizzarono la superficie di Marte con un dettaglio molto maggiore rispetto a quello del Mariner 9. Oltre a ottenere immagini delle piramidi della Elysium Planitia con maggiore risoluzione, trovò qualcosa di inaspettato in una regione chiamata Cydonia Mensae.

faccia su Marte

(la famosa “faccia su Marte” fotografata dal Viking 1. I punti neri sono perdite di dati e non oggetti reali)

Se le piramidi avevano già eccitato la fantasia della gente, figuriamoci che effetto poteva avere la scoperta di una faccia gigante! Un consulente del Goddard Space Flight Center vide queste immagini e divenne famoso grazie ad esse. Si chiamava Richard Hoagland e divenne il più ardente sostenitore della Faccia su Marte. Egli descrisse le piramidi come una città sepolta e la Faccia come un monumento fatiscente, simile alla Sfinge in Egitto.

Non vi furono nuove immagini di queste strutture per molto tempo, fino al 12 settembre 1997, quando una nuova sonda arrivò su Marte. Si tratta della Mars Global Surveyor. Le zone di Elysium e di Cydonia furono nuovamente riprese, ma le strutture che sembravano piramidi o facce umane persero il loro aspetto artificiale non appena furono fotografate ad alta risoluzione e da prospettive diverse. Per quelli che avevano ipotizzato la presenza nel passato di civiltà aliene fu una grande delusione. Le missioni successive, come Mars Odyssey 2001, Mars Express e Mars Reconnaissance Orbiter hanno confermato l’assenza di strutture artificiali su Marte.

piramide su Marte

(una delle piramidi della zona Elysium, fotografata dal Mars Reconnaissance Orbiter)

In qualche modo sembra una piramide, un po’ come quella che vedete nel seguente filmato:

Anche se non sembra proprio che ci siano davvero strutture aliene costruite sulla sua superficie, Marte nasconde ancora molti misteri. Ricordiamo su Marte ci sono i più grandi vulcani del Sistema Solare e anche il più grande Canyon conosciuto. Marte è più piccolo della Terra, ma la sua superficie è pari a quella delle terre emerse del nostro pianeta. Esiste una meteorologia, esistono i “dust devil” e le tempeste di sabbia giganti. Possiede calotte polari costituite da una miscela d’acqua e di anidride carbonica. Non sono ci sono tracce inequivocabili del fatto che acqua liquida scorreva sulla sua superficie in un lontano passato, ma sembra che questa cosa possa succedere anche nel presente. Una ricerca cerca di stabilire una cosa importantissima: è mai esistita vita a livello microscopico su Marte (o forse esiste ancora)? E’ ciò che cercherà di stabilire una sonda che arriverà sul pianeta nel mese di agosto del 2012. Si tratta del Mars Science Laboratory (chiamato più brevemente Curiosity). La durata della missione è prevista in almeno un anno marziano (circa 2 anni terrestri) e lo scopo sarà quello di investigare sulla passata e presente capacità di Marte di sostenere la vita.

rover Curiosity

(il rover della sonda Curiosity)

Beh, se la risposta sarà positiva, potremmo andare ad abitare lì, un giorno!

(Fonte: http://www.mentalfloss.com/blogs/archives/116191)


martedì 7 febbraio 2012

The planets – i pianeti di Gustav Holst

VChi ama l’astronomia e nello stesso tempo ama la musica classica, non può non avere ascoltato almeno una volta questa famosa opera musicale dedicata ai pianeti. Si tratta di “The Planets” (i pianeti) del compositore inglese Gustav Holst. In realtà l’opera The Planets non è ispirata da concetti astronomici, ma da considerazioni astrologiche. Holst era molto influenzato da un astrologo del diciannovesimo secolo che si chiamava Raphael.

Anche se non possiamo assolutamente credere all’astrologia, crediamo comunque nel talento compositivo di Gustav Holst. Così vi presento questa opera meravigliosa divisa, ovviamente, in 7 parti, cioè quanti sono i pianeti fino a Nettuno.

Una curiosità. John Williams si ispirò al brano Mars per la colonna sonora del film Guerre Stellari.

La prima di queste parti si intitola Mars, the Bringer of War. Durante l’ascolto si noti la notevole somiglianza con alcuni passaggi della colonna sonora di Guerre Stellari. Come scritto prima, in effetti Mars su fonte di ispirazione per John Williams per la composizione della colonna sonora di famosi film di fantascienza.

 

La seconda parte è Venus, the Bringer of Peace, qui diretta da Eugene Ormandy con la Philadelphia Orchestra nel 1975. Buon ascolto.

 

La terza parte si intitola Jupiter, the Bringer of Jollity. Anche qui il brano è diretto da Eugene Ormandy con la Philadelphia Orchestra nel 1975. Buon ascolto.

 

La quarta parte è Saturn, the Bringer of Old Age. In questo caso dirige Sir Charles Mackerras con la BBC Philharmonic orchestra. Buon ascolto del brano più vivace e e divertente di tutta l’opera.

 


Il quinto brano di questa affascinante opera si intitola Uranus, the Magician. Anche in questo caso dirige Sir Charles Mackerras con la BBC Philharmonic orchestra. Si noti che questo brano è stato usato nel film Fantasia (1940) di Walt Disney nella famosa scena in cui topolino è un mago pasticcione. Buon ascolto.

 

Siamo arrivati al sesto brano che si intitola Neptune, the Mystic. Come al solito dirige Sir Charles Mackerras con la BBC Philharmonic orchestra. Buon ascolto.

 

La settima e ultima parte si intitola Mercury, the Winged Messenger. Anche per questo brano dirige Sir Charles Mackerras con la BBC Philharmonic orchestra. Buon ascolto.

Se siete arrivati a questo punto dell’ascolto significa che quest’opera vi ha veramente affascinati. Ne sono molto contento perché ascoltare buona musica fa sempre bene Sorriso. Ci vediamo al mio prossimo post dedicato alla musica.


lunedì 6 febbraio 2012

La tela del ragno. Perché è così resistente?

Sappiamo bene che la tela di un ragno è straordinariamente resistente. Ci chiediamo come fa un filo così sottile ad essere così robusto. Alcuni scienziati hanno studiato la struttura delle ragnatele e hanno capito, da un punto di vista matematico, perché la tela del ragno possiede tali caratteristiche di incredibile resistenza. In questo modo sarà possibile sfruttare la conoscenze acquisite per ottenere dei materiali che presentano lo stesso tipo di caratteristiche.

Nel seguente filmato possiamo vedere un servizio di TG Leonardo che ci spiega cosa hanno fatto alcuni ricercatori per comprendere perché la tela del ragno è così resistente.

Buona visione a tutti.


domenica 5 febbraio 2012

I fluidi non newtoniani (video)

Cosa sono i fluidi non newtoniani? Lo chiediamo al professore Davide Cassi, docente di Fisica della Materia presso l’Università di Parma. Ci mostra alcune proprietà molto interessanti di quelli che vengono chiamati fluidi non newtoniani.

Questo tipo di fluidi hanno la proprietà di avere una notevole consistenza se colpiti con violenza, come se fossero dei solidi, ma se vengono toccati delicatamente conservano una consistenza liquida. Le applicazioni pratiche di questi materiali sono molto interessanti perché possono trovare impiego in tutti quei casi in cui serve un assorbimento degli urti.

Perché si chiamano “non newtoniani”? Perché il loro comportamento dipende dall’intensità della forza applicata, più la forza è intensa e più reagiscono come se fossero solidi.

Un esempio di fluido non newtoniano molto semplice da realizzare anche a casa è quello ottenuto con una combinazione di acqua e amido di mais. Nel filmato si mostrano alcune applicazioni dei fluidi non newtoniani. Guardate almeno fino al minuto 6:18, in cui si può vedere come è possibile camminare sulla superficie liquida di un fluido non newtoniano senza sprofondare, purché il passo sia abbastanza rapido. Se si cammina lentamente si sprofonda rapidamente.

Buona visione del video.


sabato 4 febbraio 2012

Italia al gelo. Quali sono le cause?

Per molti è sufficiente affacciarsi dalla finestra per vedere la neve, qualcun altro (come me che abito in Sicilia) resta stupito dalle immagini televisive e sul web del gelo che in queste ore attanaglia l’intero centro-Italia. Ma quali sono le cause di tutto questo freddo? E’ davvero un evento così raro come si crede?

In realtà è l’intera Europa dell’Est ad essere colpita da freddo intenso e nevicate che creano grossi problemi ai trasporti. Questo perché queste zone geografiche sono direttamente influenzate dalle correnti fredde provenienti dalla Siberia. Tali correnti fredde possono giungere fino a lambire la nostra Penisola. Questo fenomeno non è realmente rarissimo, perché è già successo nel 1956 e nel 1985, ma con fenomeni molto più intensi di quelli che stiamo vivendo adesso.

Per molti il freddo di questi giorni sarebbe una palese confutazione dell’evidenza osservativa del famoso riscaldamento globale. Anzi, si sente qualcuno che afferma che ci stiamo avvicinando ad una nuova era glaciale. In realtà il riscaldamento globale esiste davvero e ormai è stato misurato in maniera sicura. Il freddo occasionale che può capitare in alcuni periodi dell’inverno è solo una normale fluttuazione di un trend di temperature che invece è costantemente in salita in tutto il mondo. Il riscaldamento globale da cosa è causato? Ci sono molte ipotesi per spiegarlo, come l’influenza dell’attività solare o anche dei raggi cosmici. L’ipotesi più logica e più ragionevole è che il riscaldamento globale è causato dall’uomo con le sue attività inquinanti e di distruzione delle foreste.

L’uomo ha creato ampie variazioni climatiche sin dalla preistoria in regioni geografiche più o meno vaste, con azioni di disboscamento e di sfruttamento delle risorse agricole. Con l’industrializzazione per la prima volta si sta creando un cambiamento climatico in tutto il mondo. Se il risultato di tale cambiamento climatico avrà gli stessi esiti di quelli, seppur locali, del passato, non è il caso di restare con le mani in mano… Bisogna impegnarsi in tutti i modi per diminuire le emissioni inquinanti, il disboscamento di vaste aree della Terra, la desertificazione dovuta ad errato sfruttamento agricolo.

Nel frattempo guardiamoci questo servizio, a cura di Tg Leonardo, dedicato alle cause del gelo che in questo momento attanaglia la nostra Penisola. Buona visione a tutti.


Tag di Technorati: ,

venerdì 3 febbraio 2012

Quanto è alto il K2?

Il K2 è la vetta più alta (8616 metri) della catena montuosa del Karakorum al confine tra il Kashmir pakistano e la Cina. Il K2, dopo l’Everest, è il monte più elevato della Terra e domina da nord il ghiacciaio del Baltoro, in una regione impervia in cui è difficile addentrarsi.

Agli inizi del Novecento partirono le prime spedizioni intenzionate a scalare il K2. Nel 1909 il gruppo guidato dal Duca degli Abruzzi riuscì a risalire lo sperone a sudest, che prese così il nome di Sperone Abruzzi; da allora si susseguirono diversi tentativi, fra cui le tre spedizioni americane fra il 1938 e il 1953, che non riuscirono però a portare a termine l’impresa.

Solo il 31 luglio 1954 la spedizione italiana organizzata dal CAI (Club Alpino Italiano) e guidata da Ardito Desio, riuscì nell’intento; Achille Compagnoni e Lino Lacedelli riuscirono a conquistare la vetta del K2 percorrendo gli ultimi tratti senza l’aiuto dei respiratori a ossigeno.

Per indicare il K2 si utilizza spesso anche il nome Godwin Austen, in onore dell’esploratore inglese che per primo riuscì a misurarne l’altezza.

Nella seguente playlist di YouTube possiamo vedere un documentario che racconta la conquista italiana del K2. Buona visione a tutti.


giovedì 2 febbraio 2012

Posto fisso, che monotonia! Tutti contro Monti.

Di solito non scrivo molti post di politica, ma dopo l’affermazione del Presidente del Consiglio Monti (ha detto che il posto fisso è monotono) anche io ho deciso di buttare giù due righe. Come al solito, però, quando faccio qualcosa del genere, la mia opinione è un po’ controcorrente.

Comincio col dire che Monti ha perfettamente ragione. Il posto fisso è qualcosa di realmente obsoleto nel nostro mondo di internet e dalla tecnologia in continua evoluzione. I tempi cambiano e ormai le rivoluzioni si susseguono in periodi molto più brevi di una vita umana. E’ davvero molto difficile fare sempre lo stesso lavoro per 40 e più anni di seguito. Anche in Italia ci dovremo adeguare a questo nuovo modo di vivere la società.

La cosa che fa storcere il naso ai più è che in Italia trovare uno straccio di lavoro è davvero difficile, se non impossibile. Solo quelli che hanno “amicizie” lo trovano subito e senza sforzo, gli altri restano a secco per anni e anni.

Se in Italia non ci si rende conto che il lavoro non può essere considerato più un “favore” ma è un “diritto”, la civiltà continuerà ad evolversi senza di noi… quindi non resteremo solo indietro, ma potremmo non restare affatto in piedi.

Un’altra critica che è stata mossa a Monti dopo questa affermazione suona così: “ma se non c’è il posto fisso, le banche non ci concedono il mutuo”. Anche le banche quindi dovranno “calare le corna” e concedere mutui e prestiti a chi non ha il posto fisso, altrimenti non ha senso che il mondo del lavoro si evolva in un certo modo.

Stavolta non siamo noi che dobbiamo svegliarci per assecondare il progresso (io lo farei volentieri), ma sono tutte quelle strutture di contorno che hanno il controllo del lavoro.

Speriamo che si sveglino presto, altrimenti per l’Italia sarà davvero un lungo sonno… In ogni caso Monti ha perfettamente ragione, spero che lo abbia capito anche lui!


Imparare Photoshop (video guida)

Come si può imparare a usare Photoshop? Photoshop, come molti di voi già sapranno, è un potente software di fotoritocco. E’ un software di livello professionale, ma le sue funzioni di base sono facili da usare anche per chi non è un esperto. Quindi imparare ad usarlo non è difficile per nessuno, purché non si pretenda di saper fare cose mirabolanti.

Ovviamente, prima di mettere mano a Photoshop sarebbe il caso di avere almeno letto una guida. Su internet si possono trovare moltissime guide, più o meno semplici. Si possono acquistare anche diversi libri sull’argomento oppure partecipare ad un corso. Io credo che, in ogni caso, la migliore guida è l’esperienza diretta. Si provano, ad una ad una, tutte le funzioni possibili e si vede se si raggiunge il risultato desiderato. In questo modo non si diventa dei veri esperti di Photoshop, ma almeno si possono fare molte cose interessanti, sufficienti per i “tipici” usi di Photoshop.

Un punto di partenza ci deve sempre essere, ma partire bene è importante, perché se si ha una impostazione di lavoro errata, si finisce sempre con il lavorare male e si riescono a fare sempre e solo le solite cose.

Per i meno esperti Photoshop offre anche numerose funzioni automatiche che permettono di portare a termine altrettanti semplici compiti. Un esempio tipico è quando si scannerizza una foto antica, ingiallita e si cerca di “restaurarla”. Photoshop è il software perfetto per fare una cosa del genere. Un altro problema classico che si verifica utilizzando le fotocamere digitali durante riprese dentro casa è quello degli “occhi rossi”. Fotografie, altrimenti riuscitissime, vengono rovinate dal fatto che tutti i soggetti umani nella foto sembrano dei vampiri! Photoshop permette con facilità di correggere il problema con un unico passaggio.

La funzione secondo me più utile che offre Photoshop e la funzione dei “livelli”. Ogni immagine con Photoshop può essere organizzata come se fosse costituita da una sorta di “lucidi” sovrapposti e indipendenti. Possiamo scambiare l’ordine dei livelli e la loro opacità. Se vogliamo fare un lavoro “pulito” possiamo creare un livello per ogni “disegnino” o modifica che facciamo. Poiché i livelli sono indipendenti, se facciamo un errore, la abbiamo fatto solo in quel livello e il resto dell’immagine non viene “rovinata”. Alla fine del lavoro, eventualmente, i livelli si possono unire tra loro. Fare buon uso dei livelli è già un buon inizio per capire la logica di uso di Photoshop.

Nel seguente filmato possiamo vedere come utilizzare le funzioni di Photoshop che ho elencato prima e cioè:

1) contrasto, luminosità e colore automatici (per migliorare foto vecchie e ingiallite);

2) correzione occhi rossi;

3) uso elementare dei livelli.

E’ una breve guida (il video dura solo 16 minuti) molto chiara e vi invito a seguirla con attenzione perché può essere un ottimo punto di partenza per imparare ad usare Photoshop. Buona visione a tutti.


lunedì 30 gennaio 2012

Teorema di Lagrange o del valore medio

Se f(x) è una funzione continua nell’intervallo chiuso [a, b] e derivabile in (a, b), allora esiste almeno un punto c interno ad [a, b] tale che risulti:

Dimostrazione.

A tale scopo, scriviamo la funzione ausiliaria:

g(x) = f(x) + kx

dove k è una costante che determineremo in modo che la funzione g(x) verifichi la terza condizione del teorema di Rolle, cioè:

g(a) = g(b)

ossia:

f(a) + ka = f(b) + kb

da cui:

                (1) 

Ora la g(x), ove si tengano presenti le ipotesi fatte sulla f(x), è continua nell’intervallo chiuso [a, b] e derivabile in (a, b), perché somma di funzioni continue in [a, b] e derivabili in (a, b).

Possiamo perciò applicare alla funzione g(x), nell’intervallo [a, b], il teorema di Rolle. Esiste quindi un punto c interno ad [a, b] per il quale è:

g’(c) = f’(c) + k = 0

cioè:

f’(c) = -k

da cui, tenendo presente il valore di k dato dalla relazione (1), si ottiene:

 

Geometricamente il teorema di Lagrange si interpreta dicendo:

Se un arco di curva continua è dotato di tangente in ogni suo punto, esclusi al più gli estremi, esiste almeno un punto interno all’arco nel quale la tangente è parallela alla corda che congiunge i punti estremi dell’arco.

Nell’immagine sotto possiamo vedere quanto enunciato:

Infatti la tangente nel punto c (in viola) è parallela alla corda ab (in verde) che congiunge gli estremi dell’arco di curva (in rosso).

La dimostrazione del teorema fu data da Lagrange nel 1801, che lo considerava tuttavia un corollario della formula di Taylor. La deduzione del teorema di Rolle sembra sia stata fatta per primo da Bonnet (intorno al 1850).


domenica 29 gennaio 2012

La rifrazione

La rifrazione. La direzione di propagazione di un’onda in un mezzo tridimensionale può variare essenzialmente in tre modi diversi: per riflessione, per rifrazione e per diffrazione. Quando un’onda raggiunge la superficie di separazione tra due mezzi, in generale una parte viene riflessa a ritorna nel primo mezzo, l’altra si trasmette nel secondo, e si può dimostrare che, se l’angolo di incidenza è diverso la 90°, la velocità di propagazione dell’onda riflessa non varia ma la componente normale alla superficie di separazione di tale velocità inverte la sua direzione.

La direzione di propagazione dell’onda trasmessa inoltre generalmente è diversa da quella dell’onda incidente.

In questo filmato possiamo vedere in maniera molto chiara, con esempi pratici, quanto detto finora. In particolare si mostra il comportamento della luce quando passa dall’aria al vetro e dall’aria all’acqua (e viceversa). Il classico esempio che viene quasi sempre citato è quello del bastoncino immerso nell’acqua che appare “deviato”. Viene mostrato anche il fenomeno della riflessione totale interna che permette alla luce di viaggiare attraverso un percorso incurvato e che è il principio su cui si basano le fibre ottiche, che sono molto importanti per le telecomunicazioni. Vedrete anche come un raggio laser può percorrere un flusso d’acqua, un fenomeno tanto spettacolare quanto curioso.

Il filmato sulla rifrazione che vi presento è stato realizzato a cura di Rai Edu1. Buona visione a tutti.


Immagini telescopio spaziale: le 100 più belle

Da più di 20 anni il telescopio spaziale Hubble ci manda immagini del cosmo davvero ineguagliabili. Nonostante non sia uno strumento di enormi dimensioni, Hubble riesce ad ottenere straordinari risultati perché può osservare gli oggetti astronomici dallo spazio, senza il disturbo dell’atmosfera terrestre. Infatti la nostra atmosfera, anche se è un “rifugio” straordinario per le creature viventi e che ci separa nettamente dall’ambiente sterile dello spazio, è però un notevole ostacolo per le osservazioni astronomiche. Prima di mostrarvi le 100 immagini astronomiche più belle del telescopio spaziale Hubble, vediamo brevemente perché l’atmosfera ci limita tanto nell’astronomia.

telescopio spaziale Hubble

Il disturbo è dovuto essenzialmente a 3 motivi.

1) L’atmosfera assorbe una parte delle radiazioni provenienti dallo spazio. Anche nelle lunghezze d’onda visibili c’è un certo assorbimento. Questo fa sì che gli oggetti celesti ci appaiono meno luminosi rispetto a come ci apparirebbero dallo spazio. Specialmente nell’ultravioletto. Nello spazio invece nessun tipo di radiazione viene assorbita.

2) La turbolenza atmosferica. Per gli astronomi il moto turbolento degli strati di aria è una vera dannazione. Le immagini risultano confuse e perdono la maggior parte dei dettagli più interessanti. Anche se negli ultimi anni, grazie ai computer, è possibile correggere con dei complicati algoritmi le immagini disturbate dalla turbolenza, non è possibile eliminare mai del tutto questo disturbo. Anche in questo caso, nello spazio, non essendoci atmosfera, non c’è nemmeno la turbolenza. Le immagini delle stelle risultano ferme e puntiformi e il loro diametro è limitato solo dalle leggi dell’ottica. Tutto ciò si traduce nel fatto che qualsiasi oggetto astronomico venga ripreso, avrà una quantità di dettagli che nessun telescopio da terra (per quanto potente) potrà percepire.

(L’animazione mostra l’immagine di una stella al telescopio “massacrata” dalla turbolenza atmosferica)

 

3) L’inquinamento luminoso. Ecco un altro motivo di grande disturbo per l’astronomia osservativa. Gli osservatori si costruiscono in alta montagna, nei deserti e comunque sempre molto lontano dalle città, per sfuggire alla luce prodotta dalla civiltà. Ormai l’inquinamento luminoso è un problema così grave che dalle grandi città si riescono a vedere, a malapena, solo la Luna, alcuni pianeti e le stelle più luminose. L’illuminazione pubblica delle città è cresciuta in maniera spesso “selvaggia” e con lampade che disperdono la luce verso l’alto. L’inquinamento luminoso non è dovuto in realtà alla presenza dell’illuminazione, ma sempre all’atmosfera. I gas e le polveri atmosferiche infatti riflettono e diffondono la luce e rendono il cielo “lattiginoso”. Gli oggetti astronomici più deboli si perdono in questa luminosità di fondo. Nello spazio questo problema è del tutto assente. Il fondo-cielo è perfettamente buio e spiccano anche gli oggetti più deboli.

(Un “oceano di luci cittadine” nella pianura veneta. L’inquinamento luminoso ha costretto gli astronomi a costruire gli osservatori sempre più lontani dalle città, in luoghi di montagna o desertici).

 

Non dobbiamo dimenticare un altro vantaggio dell’osservazione nello spazio: non ci sono mai serate nuvolose! Il tempo di osservazione è massimo.

E adesso, dopo avervi spiegato per quali motivi il telescopio spaziale Hubble è così potente, vi lascio guardare questo filmato che mostra le 100 immagini più belle che ha ripreso in più di 20 anni di onorato servizio. Sono immagini davvero straordinarie che hanno segnato la storia della moderna astronomia.

Buona visione a tutti.


giovedì 26 gennaio 2012

La teoria più bella

Quale potrebbe essere la teoria scientifica più bella? Naturalmente il concetto di “bellezza” di solito è associato all’arte o al massimo alla natura, ma sono moltissimi gli scienziati che estendono questo concetto anche alla scienza. Personalmente molte teorie scientifiche “ereditano” la loro bellezza concettuale dagli stessi fenomeni che descrivono. Ad esempio, secondo me, la teoria della Relatività Generale eredita la sua bellezza dal fatto che descrive la forza di gravità nel cosmo e quindi riflette la bellezza e la simmetria stessa dell’Universo.

Archimede

Archimede si entusiasmò quando riuscì a descrivere il suo famoso “Principio di Archimede” (il famoso “eureka”: ho trovato!).

Quale sia la teoria più elegante è convincente è la domanda rivolta a centinaia di scienziati dal sito di scienza e filosofia Edge. Molti hanno menzionato idee e principi consolidati, ma anche quelli ancora da dimostrare. Se ne desume che spesso i ricercatori sono molto influenzati da teorie “belle” ed “eleganti”. Tra le idee più affascinanti, il cosmologo Martin Rees dell’Università di Cambridge, menziona il soggetto che il cosmo è solo una piccola parte del frutto del Big Bang e che diverse forme di Fisica sarebbero valide in differenti universi.

La teoria della selezione naturale di Charles Darwin è tra quelle più seduttive tra i 200 studiosi intervistati. L’evoluzionista Richard Dawkins ha affermato che poche altre teorie hanno spiegato così tanti fatti.

Ovviamente anche la Teoria della Relatività di Einstein sta nell’olimpo delle idee favorite. Essa infatti spiega i buchi neri, la gravità, la curvatura dello spazio-tempo. Inoltre offre anche la possibilità di descrivere l’origine (Big Bang) e l’espansione dell’Universo.

Una delle idee scientifiche più seducenti risulta essere quella del riflesso condizionato, che impressionò il fisiologo russo Ivan Pavlov. Uno stimolo acustico, ad esempio, può suscitare reazioni automatiche in molti esseri viventi. Un effetto pavloviano non secondario può essere può essere anche l’effetto placebo. Un analgesico può fare effetto subito dopo l’assunzione, prima che i suoi principi attivi diventino realmente operanti.

In questo filmato, tratto da Tg Leonardo, possiamo vedere un servizio che riguarda la teoria scientifica più bella secondo un sondaggio fatto tra centinaia di scienziati.

Buona visione a tutti.


Eutrofizzazione

L’eutrofizzazione consiste in uno sviluppo eccessivo della vegetazione (in particolare alghe) e del fitoplancton in ambienti acquatici. L’eutrofizzazione è dovuta all’aumento nell’acqua di composti organici (soprattutto i fosfati), che fertilizzano le piante e le fanno crescere a dismisura. Le sostanze responsabili dell’eutrofizzazione derivano dall’immissione degli scarichi agricoli, industriali e delle fogne nei fiumi, nei laghi e nei mari chiusi.

L’eutrofizzazione sconvolge gli equilibri dell’ecosistema e può avere conseguenze molto gravi. Infatti, quando le piante acquatiche si sviluppano eccessivamente, cambia la distribuzione dell’ossigeno, meno presente nelle acque più profonde. Inoltre, aumentano i batteri e, con il passare del tempo, la vegetazione troppo sviluppata può imputridirsi e liberare sostanze tossiche. Infine le alghe possono depositarsi sulle branchie dei pesci, ostacolandone la respirazione.

eutrofizzazione

Nell’immagine possiamo vedere un esempio di come appare l’eutrofizzazione di alghe in un bacino idrico con scarso ricambio delle acque. Il problema dell’eutrofizzazione assume periodicamente consistenza gravissima: la sovrappopolazione di alghe, come detto prima, impedisce ai pesci di respirare.

Il termine "eutrofizzazione" viene dal greco eutrophia (eu = buona, trophòs = nutrimento) e in origine indicava, in accordo con la sua etimologia, una condizione di ricchezza in sostanze nutritive (nitrati e fosfati). Ovviamente adesso indica una condizione “patologica” di sovrabbondanza di sostanze nutritive nelle acque.

Tra i maggiori responsabili dell’eutrofizzazione vi sono i detergenti che contengono fosfati; tali composti vengono aggiunti per diminuire la durezza delle acque urbane che, per la presenza di ioni Ca++, rendono il detersivo meno efficiente. In Italia, per legge, la percentuale di composti di fosforo contenuti nei detersivi non può superare il 6,5%.

In realtà bisogna mettere in evidenza che l’eutrofizzazione è un fenomeno abbastanza recente, compare in forma molto intensa nell’Adriatico Nord - occidentale nella seconda metà degli anni sessanta e si manifesta in numerosi altri mari nel mondo (ad esempio: Chesapeake Bay - USA, Mare del Nord e Mar Baltico, Baia di Tokio, ed altre aree). La condizione che accomuna questi casi è legata da un lato alla forte antropizzazione del territorio conseguente ad un rilevante sviluppo economico e sociale, dall’altro al fatto che i bacini idrografici che attraversano queste aree scaricano le loro acque in mari semichiusi. In sostanza è un fenomeno totalmente attribuibile alla pesante presenza dell’uomo sul territorio.


Cosa sono le acque territoriali?

Sicuramente avrete già sentito parlare di acque territoriali, probabilmente senza sapere esattamente cosa sono. Ecco una breve spiegazione. Il diritto internazionale definisce acque territoriali tutte le acque che si trovano sotto la sovranità di uno stato: laghi, fiumi, canali, mari. In genere però con l’espressione acque territoriali si intende il mare territoriale, cioè il tratto di mare adiacente alle coste, sul quale lo stato esercita il diritto esclusivo di pesca, nel quale controlla il traffico marittimo e che difende militarmente.

(Schema delle acque territoriali, da Wikipedia).

La larghezza di questi tratti varia a seconda degli stati: per l’Italia è fissata in 12 miglia marine (circa 20 chilometri) dalla costa. Oltre le acque territoriali uno stato può disporre di una zona economica, estesa al massimo fino a 200 miglia dalla linea costiera, dove può godere solo del diritto di pesca e di sfruttamento delle risorse dei fondali, ma deve lasciare libera la navigazione.

Oltre la zona economica si estendono le acque internazionali.


mercoledì 25 gennaio 2012

Prova auto elettrica: Peugeot iOn

In questo interessante filmato possiamo vedere la prova su strada di un’auto elettrica, la Peugeot iOn. Questa prova è davvero molto interessante perché mostra pregi e difetti (o, per meglio dire, luci e ombre) delle auto elettriche attualmente in commercio. Tali pregi e difetti non appartengono solo alla Peugeot iOn, ma si sono potuti rilevare anche in altre auto elettriche, come possiamo leggere qui.

Prima lasciarvi alla visione del filmato, vi anticipo subito i difetti più “fastidiosi” della Peugeot iOn:

1) Difficoltà di ricarica con la batteria. I normali impianti elettrici delle case non sono in grado di ricaricare le batterie di questa vettura.

2) Autonomia minore di quella dichiarata dalla casa costruttrice. La Peugeot dichiara ben 150 km di autonomia a piena carica della batteria, nel filmato potrete vedere qual è la vera autonomia…

3) Prezzo alto. Per la Peugeot iOn siamo a circa 36000 euro.

auto elettrica Peugeot iOn

 

I pregi migliori invece sono:

1) Silenziosità quasi perfetta. I motori elettrici non fanno lo stesso rumore dei motori a benzina e diesel. Il silenzio non è un comfort da poco!

2) Ottima ripresa e notevole guidabilità.

3) Lo scrivo per ultimo, ma in realtà è (o dovrebbe essere) il pregio più importante: le emissioni zero! Il vero vantaggio di circolare con auto elettriche è proprio questo, il fatto che non emettono gas dannosi per l’ambiente. Se poi le auto elettriche fossero ricaricate da corrente elettrica prodotta da pannelli solari, sarebbe ancora meglio.

Come vedrete, questa auto elettrica (ma anche altri modelli di altre marche condividono la stessa sorte) appare come un prodotto “immaturo” che non è in grado di soddisfare pienamente le esigenze di un utente “medio”. Sembra che nel campo delle auto elettriche ci sia ancora “molta strada da percorrere”. Se non si farà qualcosa per aumentare l’autonomia e la compatibilità per la ricarica delle batterie (e non si abbassa drasticamente il prezzo), difficilmente un prodotto del genere potrà avere la giusta penetrazione nel grande mercato.

Ma adesso, per tutti i dettagli della prova su strada dell’auto elettrica Peugeot iOn, vi lascio al filmato. Buona visione a tutti.


lunedì 23 gennaio 2012

Teoria delle Stringhe ed M-teoria (video lezioni)

In questo video (e negli altri), Leonard Susskind tiene delle lezioni sulla Teoria delle Stringhe. Susskind è un fisico teorico molto rinomato in tutto il mondo e in queste lezioni si avvale di diversi tipi di rappresentazioni grafiche per presentare le sue teorie.

La Teoria delle Stringhe in realtà non è unica, ma bisognerebbe più propriamente parlare di Teorie delle Stringhe (sono 5 in tutto). La M-teoria è un modello fisico che le riunifica tutte. In cosa consiste l’importanza della Teoria (o Teorie…) delle Stringhe? In effetti si tratta di un modello della realtà fisica molto ambizioso che potrebbe diventare una “teoria del tutto”. Essa potrebbe unificare la meccanica quantistica con la gravitazione (quindi con la Relatività generale) e spiegare la natura delle particelle elementari e di tutte le loro interazioni. Si basa su idee molto stimolanti, come le dimensioni extra (alcune varianti di questa teoria prevedono ben 26 dimensioni spaziali), il principio olografico e notevoli connessioni tra buchi neri e l’origine dell’Universo. Ancora non si hanno conferme sperimentali della Teoria delle Stringhe, ma si sta lavorando per elaborare degli esperimenti che possano renderla una teoria “confutabile” in senso popperiano.

I video sono in inglese e viene usato un linguaggio piuttosto tecnico, ma lo sforzo per capire viene ampiamente ripagato con il potere avere un’idea di una delle teorie della Fisica più affascinanti che siano mai state formulate. Buona visione a tutti.

Le altre lezioni sulla Teoria delle Stringhe ed M-teoria di Leonard Susskind le potete trovare qui.


domenica 22 gennaio 2012

Pannello fotovoltaico fai da te con celle solari artigianali

In questo breve filmato possiamo vedere un tipico esempio di pannelli solari fai da te basati su celle solari autocostruite. Vediamo che il test di queste celle solari fotovoltaiche viene eseguito mediante l’accensione di una semplice lampadina ad incandescenza. Con un tester viene mostrato l’incremento di corrente che scorre nel circuito delle tre celle solari. Queste celle solari fotovoltaiche sono realizzate secondo un procedimento artigianale che è possibile trovare su svariate fonti presenti su internet e anche su questo blog nel post dal titolo “Pannelli solari fai da te. Come costruire una cella fotovoltaica in casa.” Vi consiglio di guardare il filmato di quel post perché è piuttosto interessante.

Si tratta di un procedimento impegnativo da mettere in pratica, ma non troppo difficile. In fondo chi si impegna a costruire celle solari fotovoltaiche in questo modo avrà la soddisfazione di avere realizzato da solo un piccolo elemento che sfrutta il tipo di energia che nel futuro riuscirà a sostentare l’intero pianeta! A meno che non venga sviluppata (finalmente) la fusione nucleare, l’energia solare (e anche quella eolica) saranno lentamente destinate a sostituire le energie non rinnovabili che ancora dominano la produzione energetica attuale. Esisterebbe anche la possibilità della fusione fredda, ma ancora non si è capito nemmeno se esiste davvero! Mi riferisco alle avventure (disavventure) del E-cat.

Agli autocostruttori (come colui che ha fatto questo video) che si dedicano a queste realizzazioni va sempre il mio plauso e un ringraziamento particolare perché, mettendo online i loro filmati (non importa se sono di qualità straordinaria), contribuiscono attivamente a divulgare la cultura delle energie rinnovabili e, nello stesso tempo, a trasmettere la passione per il fai da te, che non è poco.

E adesso vi lascio guardare questo (breve) filmato che mostra un pannello fotovoltaico fai da te dotato di celle solari fotovoltaiche di costruzione artigianale. Buona visione a tutti e buona ispirazione per le vostre personali realizzazioni.


Space X Starship: il nuovo tentativo di lancio del 18 novembre 2023.

Vediamo un frammento della diretta del lancio dello Starship del 18 noembre 2023. Il Booster 9, il primo stadio del razzo, esplode poco dopo...