mercoledì 19 dicembre 2012

Il mondo finira' nel 2012?

 


di Ugo Spezza

Le recenti trasmissioni RAI Vojager, condotte da Roberto Giacobbo (in foto) hanno suscitato qualche allarme, in particolare nelle persone più sensibili e facilmente impressionabili, relativamente al fatto che nel Dicembre del 2012 è prevista la fine del mondo e della civiltà umana.
Tale ipotesi sarebbe basata su un concatenamento, apparentemente inspiegabile, di previsioni che fanno capo a fonti provenienti da culture diverse, sparse in varie zone del pianeta e che, casualmente, vanno ad incrociare la data del Dicembre 2012 come termine della civiltà. Si parte da previsioni (apparentemente) scientifiche che fanno capo a presunte iper-attività del sole in quel periodo, passando per quelle che richiamano gli antichi Maja e il loro calendario, per finire a vere e proprie profezie come quelle di Nostradamus. 
Giacobbo ha scritto un volume di quasi 200 pagine sull'argomento, volume che sta riscuotendo un buon successo di vendite.
Recentemente è stato persino prodotto un colossal dalla Columbia Pictures con regia di Roland Emmerich, che ha fatto segnare record di incassi nei cinema. Film che vanta interpreti di successo come Jonh Cusack e Danny Glover. La storia parte da tempeste solari anomale rilevate dagli scienziati e da un G8 convocato di emergenza per discutere le anomalie del clima per terminare in una fuga attraverso astronavi dal pianeta, con in mezzo una spy story che coinvolge la figlia del presidente degli Stati Uniti. Emmerich cura una serie TV come sequel del film.
Ma veniamo ai fatti: i dati riportati descrivono in particolare questa serie di previsioni:
  1. Presunta iperattività del sole nel periodo di Dicembre 2012: tale attività sarebbe in grado di provocare un intenso vento solare, tanto forte da danneggiare il campo magnetico terreste ed invertirne i poli. Ciò causerebbe la distruzione di tutte le infrastrutture tecnologiche umane e, a livello biologico, il danneggiamento della ghiandola pineale che sarebbe molto sensibile (*) a questi intensi campi magnetici.
  2. Il calendario Maja: tra i più avanzati dell'antichità, in grado di prevedere eclissi, i cicli di Venere ecc.  inizia nel 3114 a.c. e dura 5126 anni. Esso termina quindi precisamente il 20 Dicembre 2012. I Maya affermano che ci sono cinque Ere cosmiche, ognuna corrispondente ad una civiltà. Le precedenti quattro Ere (Acqua, Aria, Fuoco e Terra) sarebbero tutte terminate con immani catastrofi naturali. L’attuale Era, la quinta, denominata "era dell'Oro", terminerà nel Dicembre 2012 ed alla fine della stessa si innescheranno cataclismi su scala planetaria innescati da una inversione del campo magnetico terrestre, dovuto ad uno spostamento dell’asse del pianeta. La Terra infatti subirebbe periodicamente una variazione dell’inclinazione assiale rispetto al piano dell’ellittica del sistema solare.
  3. Precessione degli equinozi: Lo schema tre piramidi di Ghiza rispetto al fiume Nilo e rispetto alla diagonale che le unisce sarebbe l'immagine riflessa nella via lattea e delle tre stelle della cintura di Orione (B). La mitologia egizia dice che nell'entrata della sesta era (quella dell'acquario), prevista per il 2012, si verificherà un crollo della civiltà.
  4. Il pianeta Nibiru: (ovvero il dodicesimo pianeta del sistema solare), citato in scritti della civiltà sumera, nel 2012 si scontrerà con la Terra provocandone la distruzione.
  5. Una profezia di Nostradamus: indica il 2012 come termine della civiltà attuale. Non nel senso distruttivo però, ci sarà una "rivelazione" che cambierà il nostro modo di vedere il mondo.
Vanno ad aggiungersi a queste altre teorie inerenti presunte leggende cambogiane e la leggenda dei teschi di cristallo che evito di commentare. Vediamo le argomentazioni punto per punto:
(1) - la prima previsione riporta un aumento dell'attività solare nel 2012 che sicuramente ci sarà (è un dato scientifico) ma tale attività aumenta periodicamente ogni 11 anni e causa al massimo tempeste magnetiche che disturbano satelliti e telecomunicazioni. Non si vede perché il ciclo del 2012 debba essere diverso dai precedenti; nella storia dell'homo sapiens da 30.000 anni ad oggi ci sono stati più di 2700 di questi cicli e nessuno di essi ha mai causato estinzioni di massa. In ogni caso, dove ho posto la nota (*), non esiste evidenza scientifica del fatto che la ghiandola pineale risenta di campi magnetici intensi.
(2) - Riguardo alla seconda previsione il fatto che il calendario Maja termini il suo ciclo nel 2012 non significa nulla in termini scientifici. Non c'è alcuna evidenza che il magnetismo dei poli si debba invertire proprio nel 2012, anche perché se il fenomeno fosse in atto non sarebbe di certo improvviso ma richiederebbe migliaia di anni per verificarsi. Ciò in quanto il nucleo ferroso della Terra, che genera tale campo, non può modificarsi nel giro di un paio di anni dato che si tratta di milioni di miliardi di tonnellate di roccia e ferro fuso che si devono spostare. Oltretutto non è accertato che in passato tale inversione sia realmente avvenuta. Ci sono dei riscontri su minerali magnetici che dicono che l'ultima inversione si sarebbe verificata 780.000 anni fa ma tali minerali potrebbero avere polarità inversa per essere stati rimescolati da normali cicli tettonici (movimento delle placche terrestri) e non per una inversione dei poli magnetici della Terra. E poi anche se per qualche motivo il campo magnetico terrestre si invertisse esso comunque non verrebbe affatto azzerato; ci sarebbe solo una minore schermatura dal vento solare nel periodo della inversione e ciò causerebbe solo tempeste elettromagnetiche con il danneggiamento delle telecomunicazioni satellitari. Tornando ai Maya va poi detto che essi usavano tre calendari, uno standard, uno per le cerimonie religiose e uno per conteggiare il lungo periodo. Quest'ultimo, che dura 5125 anni, nel 20 Dicembre 2012 termina il suo ciclo in un solstizio d'inverno (i Maya forse sapevano calcolarli) e viene azzerato per il nuovo ciclo. Inoltre il sedicente "sacerdote Maya", intervistato in Vojager, non può essere un discendente diretto in quanto Maya "puri" non esistono da secoli date le rimescolanze razziali che vi sono state. Infine i Maya non hanno lasciato scritti teologici importanti (ad esempio una bibbia Maya) a cui un presunto sacerdote possa ispirarsi per trarre una profezia.
(3) - La terza previsione al punto indicato con (B) riporta un qualcosa che da un punto di vista astronomico non ha significato, si tratta invero di una previsione astrologica e non astronomica (l'astrologia non è una scienza, l'astronomia sì). Credere in questa teoria o nei Tarocchi è la stessa cosa...
(4) - Sulla quarta previsione è cresciuto di recente un ingiustificato allarme rilanciato dal fatto che un pianeta oltre Plutone è stato effettivamente scoperto nel 2005, tale pianeta, denominato Eris misura 2400 Km di diametro (2/3 della nostra Luna). Prima di tutto Eris, così come altri planetoidi (Sedna, Quaoar...) sono lontani da noi orbitando a 5.5 miliardi di Km di distanza (Sedna è addirittura a 11.5 miliardi di Km) e la loro velocità orbitale è di 1000 metri/sec. Se anche uno di essi si dirigesse verso la Terra ci impiegherebbe secoli per giungere a destinazione e avremmo decenni di tempo per gli avvistamenti e le contromisure. Oltretutto non è possibile che un pianeta devii dalla sua orbita se non viene attratto o spinto da un oggetto di grande massa e agli estremi del sistema solare (ove essi si trovano) non vi sono oggetti di grande massa ma solo enormi spazi vuoti. Nonostante ciò di recente è dovuta intervenire addirittura la NASA, dati alla mano, a confutare questo ingiustificato allarme per mano dello scienziato David Morrison, dati che sono reperibili sul sito associato Beyond Human. In particolare se ipotizziamo che il sistema solare ha le dimensioni di un campo di calcio i pianeti rocciosi come la Terra ed Eris sarebbero distanti tra loro 140 metri ed avrebbero le dimensioni di due granelli di sabbia, pensate quindi quale infinitesimale probabilità vi è che essi collidano... Questo discende dal fatto che gran parte delle persone, anche colte, ha conoscenze astronomiche carenti. Rinvio a questo articolo: "Il nostro posto nell'Universo" chi volesse accedere alle nozioni basilari.
(5) - Questa è quella che io chiamo la previsione dell'azzeccagarbugli. Nostradamus, come molti presunti saccenti del passato, è spesso citato come una sorta di "profeta" in grado di indovinare eventi nel futuro dell'umanità. Ammettiamo ora che io avessi predetto come fa Nostradamus, facendo uso di un linguaggio sufficientemente criptico, la caduta di un grande dittatore a partire dal 1980 per i successivi 30 anni, ne avrei azzeccata una di sicuro. Infatti si è verificata la caduta di Ceausescu in Romania nel 1989 e di Saddam Hussein in Iraq nel 2003, solo per citare i più famosi.
Una previsione di questo tipo, se data (abilmente) con una certa «vaghezza e approssimazione» e se estesa per un periodo sufficientemente lungo (es. 400 anni) azzeccherà di sicuro un avvenimento che andrà ad accadere. E' un po' il meccanismo di quei tizi che appaiono in TV dicendo che se li chiamate (e li pagate) essi vi daranno dei numeri al lotto che vi consentiranno una lauta vincita. Poi essi vi portano in televisione numerose schedine effettivamente vinte e dei gaudi testimoni proprietari di tali schedine. Ebbene, da un punto di vista matematico-statistico se 1000 persone mi telefonano e mi chiedono 4 numeri da giocare su una singola ruota del lotto, ed io gli faccio giocare tutte quaterne di numeri diversi, è chiaro che, statisticamente, almeno una decina di essi otterranno la vincita di un ambo, e qualcuno forse anche una vincita di un terno. Le schedine vincenti di costoro le porterò in TV affermando che io sono un mago del lotto. Si ricordi solo che Nostradamus aveva già previsto la fine del mondo per il 1999...

Nuova mappa del mondo post-2012?
Infine brevemente vediamo la mappa del pianeta Terra post-2012 presentata più volte sia nella trasmissione Vojager  che su molti siti web dedicati. Essa mostra gran parte delle terre emerse devastate e affondate negli oceani. L'occhio di un esperto di computer grafica (come chi scrive questo articolo) si accorge subito che la mappa è stata manomessa con Photoshop. Difatti mancano i pezzi di alcuni meridiani e paralleli, semplicemente "tranciati" e si notano i copia-incolla col "pennello clona" di parti dell'immagine. Oltretutto, dal punto di vista della fisica, anche se si sciogliessero tutte le calotte polari (e non c’è motivo perché debba accadere) non si riuscirebbe
mai a produrre una tale quantità di acqua da far si che gran parte delle terre emerse sprofondi nel modo in cui si vede nella mappa. E' evidente che vi sono zone che sono in pianura che non sono sprofondate, invece intere catene montuose sono andate sott’acqua. Cosa dire poi di interi continenti venuti alla luce dal nulla come quello a destra dell'Australia e quelli  a sinistra e sotto l'America Latina? E questi continenti non sono nemmeno allineati alle placche tettoniche, quindi come potrebbero emergere? Un geologo si metterebbe a ridere davanti a questa immagine...

Previsioni del futuro su base scientifica
Chi ha visitato in precedenza Futurology.it si starà ora chiedendo come mai un sito, che da sempre professa di reperire fonti esclusivamente nella scienza e nella tecnologia, si sia imbarcato a spiegare un fenomeno mediatico di questo tipo. La risposta è che innanzitutto si può identificare questo come un fenomeno sociologico abbastanza interessante, diffuso su scala planetaria, e ne è stato dato un resoconto nel precedente paragrafo.
In seconda istanza vogliamo proporre delle teorie, basate su dati scientifici attuali, secondo le quali potremo catalogare possibili cause che possano portare sul serio all'annientamento della civiltà umana. Cause che sono state individuate da molteplici scienziati che si occupano di futurologia e delle quali, a quanto pare, non essendo esse di tipo "sensazionalistico", la stampa generalista non si occupa.
Ora si dirà: «ma neanche la scienza può eseguire previsioni accurate sul futuro». Vero! Però gli scienziati che si occupano di futurologia hanno dimostrato più volte in passato di azzeccare delle previsioni, molto di più di quanto hanno mai fatto sedicenti parapsicologi, astrologi o venditori di tarocchi e amuleti.
Questo perché tali previsioni vengono effettuate innanzitutto sul breve termine (10-40 anni), sono basate su dati empirici e su principi della fisica conosciuti che vengono estrapolati nel futuro nel tentativo di ipotizzare il funzionamento di macchine non ancora inventate o prevedere crisi delle strutture sociali umane. Alcuni esempi: Ray Kurzweil, noto scienziato e geniale inventore (ritenuto tra i primi dieci esseri umani più intelligenti del pianeta) riuscì a prevedere già nel 1986 il declino economico e la disgregazione politica dell'Unione Sovietica, l'avvento della telefonia cellulare e la sconfitta di un essere umano agli scacchi da parte di un computer (il campione russo Kasparov contro l'elaboratore Ibm DeepBlue nel 1997).
Tra i più attivi scienziati in questo campo troviamo anche Nick  Bostrom che insegna nella prestigiosa Oxford University ed è fondatore del Future of Umanity Institute, scienziato del quale trovate diversi scritti proprio su questo sito, tradotti in anteprima assoluta in italiano. Per quanto riguarda Bill Joy egli è tra i fondatori della SUN Microsystems, mago del software ed ideatore del linguaggio Java con cui i nostri computer reperiscono oggi informazioni ed elementi multimediali su Internet. Nel 1975 ha ricevuto il Bachelor of Science in Electrical Engineering dall'Università del Michigan ed ha lavorato presso la commissione presidenziale USA per l'information Tecnology.
Vedremo nel seguito quali saranno i possibili pericoli per il futuro dell'umanità secondo le previsioni di questi scienziati; prima però dobbiamo esporre un importante concetto.

Il concetto di «rischio esistenziale»
Prendiamo in considerazione un evento come quello del maremoto del 26 dicembre 2004 che ha devastato Indonesia, Sri Lanka, Tailandia e India causando 200.000 morti. Oppure supponiamo che possa avvenire sulla faglia californiana il cosiddetto "Big-One", terremoto del grado 7.5 Richter, avremmo anche lì centinaia di migliaia di morti. 
Ora, pur considerando questi eventi come catastrofici, forieri di lutti e angosce, essi non rappresentano un rischio esistenziale poiché sono limitati ad una area specifica del pianeta e provocano danni "localizzati".
Il rischio esistenziale è invece qualcosa che colpisce l'umanità nella sua interezza, dall'aborigeno australiano al manager americano e all'esquimese del polo nord, portando un elevato livello di distruzione della vita sul pianeta e all'estinzione della maggior parte delle forme viventi. Anche se qualche essere umano sopravvivesse a tale distruzione, la perdita di tutte le infrastrutture tecnologiche, culturali e delle fonti energetiche porterebbe un regresso dell'umanità che condurrebbe, probabilmente, ad una successiva e completa estinzione nel giro di poche decine di anni. Ora ci chiediamo: quali sono le possibili fonti di rischio esistenziale per l'umanità? Le possiamo sintetizzare nella seguente tabella:
 
Fonte di possibile rischio esistenziale Possibilità che si verifichi entro 100 anni Grado di distruttività
(A) Una guerra combattuta con l'uso massivo di armi termonucleari 5% 75%
(B) Un impatto di un asteroide di grandi dimensioni sulla Terra 1% 90%
(C) Nascita di una super-intelligenza artificiale con intenti distruttivi 50% 90%
(D) La realizzazione di Bot autoreplicanti da tecniche di nanotecnologia avanzata 50% 75%
(E) Un esperimento di fisica delle alte energie in un acceleratore di particelle 5% 100%

Come si può vedere nella lista le fonti che indico come maggior possibilità di portare ad un rischio esistenziale sono la (C) e la (D) poiché esse hanno sia un elevato grado di possibilità di verificarsi e sia un elevato grado di distruttività una volta che si sono realizzate. Nel seguito tutte le ipotesi verranno analizzate singolarmente.

 
Ipotesi (A): Una guerra combattuta con l'uso massivo di armi termonucleari
La prima bomba atomica usata su Hiroshima era una "bomba A" ossia una bomba che fa uso della fissione nucleare per sprigionare energia. La reazione a fissione fa uso di un nucleo di Uranio 235 (o Plutonio 239) che vengono divisi tramite il bombardamento con neutroni o altre particelle elementari in frammenti sub-nucleari. Questo un processo libera una ingente quantità energia. È il tipo di reazione comunemente utilizzata nei reattori nucleari delle centrali elettriche.
In seguito gli USA e l'URSS perfezionarono un tipo di bomba molto più efficiente in termini di distruttività: la bomba H, o bomba all'idrogeno, la quale usa un processo denominato fusione nucleare: lo stesso che produce energia nel Sole. Tale processo consiste nell'unione dei nuclei di due atomi leggeri, isotopi dell'idrogeno (deuterio e trizio) in uno più pesante. In questo tipo di reazione il nuovo nucleo costituito ed il neutrone liberato hanno una massa totale minore della somma delle masse dei reagenti con conseguente liberazione di una spaventosa quantità di energia,
migliaia di volte più elevata di quella del processo a fissione che alimenta la bomba A. Si pensi infatti che la bomba H più potente mai realizzata fu in grado di sprigionare una potenza di 57 megaton, 4400 volte superiore a quella che devastò Hiroshima, che era pari solo a 0.013 megaton. Il fungo raggiunse l'altezza di 60 Km e l'onda d'urto fece tre volte il giro del mondo nelle successive 36 ore.
Da qui si comprende che una bomba simile sarebbe in grado di devastare una metropoli come Londra o Parigi causando danni spaventosi, sia sul punto di impatto, sia nei 30 Km di raggio ove si estende l'onda di calore e sia per le radiazioni gamma che ricadrebbero come fallout radioattivo per 90 Km di raggio dal centro. Si noti che di queste bombe, negli arsenali Russi e USA ne esistono in totale circa 10.000 (diecimila!), montate su missili balistici intercontinentali o missili a medio raggio su navi corazzate e sottomarini.
Tuttavia la possibilità che una tale guerra si realizzi, ci auguriamo, sia scongiurata dal fatto che essa causerebbe distruzione anche dell'eventuale attaccante.
Nonostante questo ragionamento sembri solido molti hanno dimenticato che nei giorni tra il 15 Ottobre e il 28 Ottobre del 1962 si è davvero sfiorata l'ecatombe termonucleare con la crisi dei missili a Cuba: dopo la vittoria di Castro nella rivoluzione cubana del 1961, gli Stati Uniti volevano confinare il nuovo regime comunista, con il quale il presidente Eisenhower aveva interrotto i rapporti diplomatici. Il suo successore, John Fitzgerald Kennedy, approvò un piano di invasione dell'isola definito dal precedente governo addestrando e appoggiando gli esuli cubani, che sbarcarono nella baia dei Porci. L'operazione fallì e Cuba, vistasi minacciata, chiese e ottenne da Mosca l'installazione di batterie di missili nucleari sul proprio territorio. Quando gli aerei spia americani li scoprirono (nell'ottobre del 1962), Kennedy ordinò il blocco navale dell'isola. In quei giorni si è andati vicinissimi alla terza guerra mondiale!
Recentemente anche paesi dai governi instabili come India e Pakistan hanno costruito le loro bombe A, se una fazione fondamentalista (Talebani) votata al martirio autodistruttivo si impossessasse delle chiavi dei missili ciò potrebbe portare ad una guerra nucleare.
Quali sarebbero gli effetti di una guerra nucleare su larga scala? Sicuramente se venissero usate migliaia di bombe H la Terra verrebbe trasformata in un piccolo Sole. Ma anche se se ne usassero "solo" un centinaio in una guerra localizzata, oltre alle radiazioni che andrebbero diffuse, le esplosioni a Terra alzerebbero in aria miliardi di tonnellate di pulviscolo che andrebbe ad oscurare il Sole per almeno cinque anni. La conseguenza sarebbe un inverno nucleare.
La uniforme nube di polvere e ceneri radioattive si stabilizzerebbe a circa 1500 m di quota e, facendo essa da scudo all'energia solare, la temperatura media del globo di abbasserebbe di 40° centigradi. Gli effetti sulla vita nei mari e sulla vita vegetale e animale sulla terraferma sarebbero devastanti ed andrebbe distrutto anche lo strato di ozono. Tra quei pochi che sopravviveranno all'ecatombe si presenterà presto il problema della scarsità di cibo e la impossibilità di coltivare sui terreni contaminati.
Va comunque considerato che una guerra atomica localizzata, a meno che non vengano usati tutti gli armamenti disponibili, non costituisce un rischio esistenziale in quanto una piccola percentuale di esseri umani, nelle zone meno colpite, riuscirebbe comunque a sopravvivere. Per questo ho assegnato a questo evento un grado di distruttività del 75%.
Di recente il presidente USA Obama ha proposto alla Russia un accordo per la riduzione del totale degli armamenti nucleari delll'80% da entrambe le parti. Anche per questo ho ritenuto di assegnare alla probabilità che si verifichi l'evento un modesto 5%.

 
Ipotesi (B) - Un impatto di un asteroide di grandi dimensioni sulla Terra
Molti pensano che la probabilità che si verifichi un impatto asteroidale significativo sulla Terra, come quello che estinse i dinosauri 65 milioni di anni fa, sia abbastanza bassa: uno ogni 500.000 anni per quelli di grandi dimensioni (50 Km di diametro o più) ed uno ogni 30.000 anni per quelli di dimensione inferiore ad 1 Km. Però questa statistica dovrebbe essere rivista proprio in base agli accadimenti degli ultimi 100 anni.
Ad esempio a Tunguska, una località della Siberia, avvenne, nel Giugno 1908 (quindi solo di un secolo fa) un impatto di un asteroide. 2150 chilometri quadrati di superficie terrestre vennero devastati da una immane esplosione udita fino a 1000 Km di distanza e della potenza di circa 13 Megatoni. Nella esplosione vennero sradicati o divelti più di 60 milioni di alberi in un modo che faceva individuare il centro di tale esplosione, accreditata ad un meteorite di 30 metri (solo trenta metri) di diametro. Perché un oggetto cosi piccolo può causare danni tanto immani? La risposta sta nel fatto che esso impattò con l'atmosfera del nostro pianeta ad una velocità stimata attorno ai 15 Km/sec; praticamente la velocità di un proiettile.
A seguito di ciò venne praticamente vaporizzato causando un'onda d'urto sulla superficie sottostante senza lasciare crateri ma incendiando tutto quello che vi era sotto per un'area di 2.000 Km quadrati.  Pensate che l'urto fece quasi deragliare alcuni convogli della Ferrovia Transiberiana, distanti 600 km dal punto di impatto! Non ci furono vittime solo perché la zona era assolutamente disabitata. Se tale impatto avesse invece cancellato la città di Berlino oggi guarderemmo con meno distacco a questi fenomeni.
Ancora: La cometa Shoemaker Levy 9 impattò sul pianeta Giove nel Luglio del 1994, (quindi solo alcuni anni fa). Questo evento avrebbe costituito un'opportunità unica per osservare l'atmosfera di Giove, infatti la collisione avrebbe provocato eruzioni di materiali provenienti da strati atmosferici normalmente preclusi all'osservazione a causa della loro profondità. Ricordiamo qui che Giove è un pianeta gassoso con solo un piccolo nucleo centrale solido.
Gli astronomi stimarono che i frammenti visibili della cometa variavano da qualche centinaio di metri fino ad qualche chilometro, e la cometa intera potrebbe aver avuto un diametro di 5 Km.  Anche qui dunque parliamo di un oggetto piccolissimo ed insignificante rispetto ad un pianeta come Giove che ha un diametro di quasi 143.000 Km. La nostra terra, con i suoi 12.800 Km di diametro, posta vicino a Giove avrebbe circa le proporzioni di una pallina da ping-pong vicino ad un pallone da basket.
(1) La cometa si avvicina a Giove e viene spezzata in frammenti dalla forza gravitazionale del pianeta gigante. (2) L'impatto sulla densa atmosfera gassosa del pianeta produce esplosioni grandi quanto l'intera Africa. (3) Le esplosioni, evidenziate con una telecamera all'infrarosso di un telescopio in Spagna, hanno prodotto una energia pari a 6 miliardi di megaton (750 volte l'intero arsenale nucleare mondiale).
La cometa, prima di giungere al punto di impatto, descrisse varie orbite attorno al grande pianeta ed in una di queste, nel luglio 1992, subì gli effetti mareali di Giove finendo spezzata in diversi tronconi. L'impatto del primo frammento della cometa colpì il pianeta sul lato opposto a quello visibile dalla terra.
Per fortuna era in orbita attorno a Giove la sonda Galileo che poté riprendere i successivi momenti di impatto dei vari frammenti (vedi foto). Nell'impatto si liberò una energia totale pari a 6 milioni di megatoni, circa 600.000 volte la bomba H (!) e le aree dell'esplosione erano grandi come l'intera Africa.
Il 23 marzo 1989, l'asteroide 4581 Asclepius di tipo Apollo (1989 FC) mancò la Terra di 700.000 km, passando nell'esatto punto dove era la Terra solo 6 ore prima. Se si fosse scontrato avrebbe creato la più grande esplosione della storia. 
Il giorno 6 Ottobre 2008 la Terra è stata colpita da un asteroide chiamato 2008 TC3, dal diametro di soli 5 metri (un grosso masso). L’asteroide ha impattato nell'atmosfera a 37 Km di altezza sopra il deserto del Sudan generando una potenza esplosiva di ben 2 kilotoni. Piccole collisioni, come questa, avvengono circa ogni due-tre mesi ma sono, per fortuna, assorbite dall'atmosfera terrestre che incendia e vaporizza tali piccoli oggetti.
Nella figura a sinistra potete osservare la scia di TC3 durante l'ultima fase della sua caduta. L'oggetto è penetrato in atmosfera terrestre alla terrificante velocità di 12.4 Km/sec (44.600 Km/ora !). L'astronomo P. Janninksen insieme ai suoi studenti ne hanno raccolto alcuni pezzi di cui il più grande pesava intorno ai 300 gr.
Ora: in solo 100 anni abbiamo assisto a due impatti cometari nel sistema solare di cui uno sulla Terra, un asteroide ci ha sfiorato, due grandi comete come la Halley e la Hale Boop sono passate vicino alla Terra e molte altre minori ne abbiamo viste. Il sistema solare è pieno di milioni di asteroidi vaganti che risiedono sia nella fascia di Kuiper sia nella più distante nube di Oort. Non è dunque da rivedere quella stima dei 30.000 anni?
Che cosa stiamo facendo per intercettare tali oggetti? E ancora: una volta intercettati quali possibilità abbiamo di fermarli? Risposta: quasi nessuna! La NASA aveva iniziato la la mappatura di alcune zone di cielo con il grande progetto Space-Survey ma ha visto tagliati i fondi dal governo Bush. Oggi esiste solo il Near Earth Object della NASA che si basa su una rete di telescopi diretti da un programma software (Clomon 2) sviluppato da un matematico italiano: Andrea Milani Comparetti della Università di Pisa. Tale rete di sorveglianza però non si estende sull'intero pianeta e comunque non abbiamo sistemi di intercettazione (testate nucleari orbitanti su satelliti), in grado di intercettare e fermare l'oggetto in collisione. TC3 ad esempio è stato avvistato 19 ore prima dell'impatto e dopo non si è potuto fare altro che "guardarlo" mentre cadeva. Il prof. Richard Crowther, facente parte di una commissione ONU per la sicurezza e leader della Association of Space Explorer (Ase) afferma:
"La comunita' internazionale deve cooperare per prepararsi ad affrontare l'eventuale minaccia dell'impatto di un asteroide sulla terra."
La prima grande emergenza potrebbe verificarsi entro 20 anni quando l'asteroide Apophis (320 metri) passerà vicino alla terra con un probabilità di collisione di uno su 45.000 e al momento non abbiamo nessuna soluzione per evitare impatti di questo tipo né sistemi di intercettazione davvero precisi che facciano uso di triangolazioni tra satelliti per la determinazione di una precisa traiettoria. Nick Bostrom afferma al riguardo:
"E’ triste che l'umanità nel suo insieme non abbia investito anche solo un paio di milioni di dollari per migliorare le sue idee su come meglio poter garantire la propria sopravvivenza."
Certamente ha ragione, e forse oltre che triste è anche molto pericoloso! Dal punto di vista del rischio esistenziale un impatto con un asteroide di diametro superiore ai 50 Km sulla superficie terrestre sarebbe devastante e, oltre alla distruzione della zona d'impatto, provocherebbe onde alte 300 metri che devasterebbero le coste e soprattutto un inverno nucleare che potrebbe durare dieci anni, con identiche conseguenze di quello di una guerra atomica su larga scala. Per questo ho assegnato a questo evento un grado di distruttività del 90% C'è tuttavia una bassa possibilità (1% nel peggiore dei casi) che un asteroide di diametro superiore al kilometro impatti entro i prossimi 100 anni, ma resta il fatto che dovremmo impegnarci di più nelle tecniche di intercettazione e nel pianificare le necessarie contromisure.

 
Ipotesi (C) - Nascita di una super-intelligenza artificiale con intenti distruttivi
Potrà sembrare strano che a questa ipotesi nella tabella venga assegnato non solo un alto grado di possibilità di verificarsi (50%) ma anche un grado di distruttività molto elevato (90%), pari a quello di un impatto asteroidale. Di cosa si tratta? Perché ci sarebbe tutto questo pericolo?
Nel Film "Terminator" di James Cameron, interpretato da Arnold Schwarzenegger, una intelligenza artificiale (Skynet) nata da network di computer militari, nell'anno 2023, dopo aver preso il controllo delle macchine della Cyberdine Corporation e delle infrastruture militari del pianeta, programma una strage sistematica del genere umano.
Va innanzitutto spiegato che esistono due forme di intelligenza artificiale, quella "debole" e quella "forte". La prima forma può essere identificata in un computer che gioca a scacchi o in un robot, del tipo di quelli inviati dalla NASA su Marte, che è in grado autonomamente di muoversi, scattare foto e raccogliere campioni. Per ottenere queste prestazioni questi "automi" sono dotati di un computer pre-programmato dall'uomo. Resta il fatto che però tale automa non può sfuggire dalla sua programmazione di base e quindi il computer che gioca a scacchi può fare solo quello, il computer che fa raccogliere sassi e scattare foto al robot non può e non sa fare altro. Questi automi non si rendono quindi conto del mondo che li circonda, in altre parole non hanno coscienza di sé.
Nonostante 50 anni di ricerca nel campo della intelligenza artificiale e l'innovazione dei software adattivi basati sulle reti neurali non si è ancora riusciti a costruire, alla data attuale, un computer in grado di pensare. Per far si che un computer possa divenire "pensante" esso dovrebbe superare il cosidetto Test di Turing ossia un test per cui un essere umano ed un computer sono chiusi in una stanza mentre in un'altra stanza, isolata dalla prima, si trova un altro essere umano. Se, dopo una lunga serie di domande poste da quest'ultimo al computer e all'altro uomo, su argomenti scientifici, filosofici e di qualsiasi altro genere, esso non riuscisse a distinguere l'uomo dalla macchina allora il Test di Turing sarebbe stato superato. In questo caso ci troveremmo di fronte ad una macchina ad intelligenza artificiale "forte", in grado di percepire se stessa come un "io" dotato di autocoscienza, interrogare il mondo e migliorare progressivamente il suo grado culturale. Nick Bostrom afferma:
«Le questioni etiche legate alla possibile futura creazione di macchine con generali capacità intellettuali che sorpassino quelle degli esseri umani sono ben distinte da qualsiasi problema etico derivante dagli attuali sistemi di automazione e di informazione. Tali superintelligenze non sarebbero solo un altro sviluppo tecnologico; sarebbero la più importante invenzione mai fatta, e porterebbero a un progresso esplosivo in tutti i campi scientifici e tecnologici, poiché la superintelligenza condurrebbe ricerche con efficienza sovrumana. [...]
Da allora in poi la superintelligenza può diventare una forza inarrestabile a causa della sua superiorità intellettuale e delle tecnologie che potrebbe sviluppare, è fondamentale che sia dotata di motivazioni più amichevoli verso l’essere umano
.
»
Già. Ma non essendo essa un computer pre-programmato come potrebbe il suo costruttore dotarla di motivazioni amichevoli in partenza? Probabilmente non potrebbe. Non solo, una I.A. "forte" potrebbe venire alla luce in modo autonomo in una architettura hardware di nuova generazione senza che ci sia stata la volontà di alcuno di realizzarla. Continua Bostrom:
«La Superintelligenza potrebbe essere l’ultima invenzione che gli uomini hanno bisogno di realizzare. Data una superiorità intellettuale della superintelligenza, essa sarebbe di gran lunga migliore nella ricerca scientifica e nello sviluppo tecnologico più di qualsiasi uomo, e forse anche meglio di tutti gli uomini presi insieme. Un’ immediata conseguenza di questo fatto è che: Il progresso tecnologico, in tutti gli altri campi sarà super-accelerato con l’arrivo dell’intelligenza artificiale avanzata.
È probabile che qualsiasi tecnologia che attualmente siamo in grado di prevedere sarà rapidamente sviluppata dalla prima superintelligenza, senza dubbio insieme a molte altre tecnologie di cui siamo ancora incapaci a sviluppare. La Superintelligenza porterà a più avanzate superintelligenze. Dato che le intelligenze artificiali sono software, queste possono facilmente e rapidamente essere clonate fino a quando vi è l’hardware disponibile per memorizzarle.
»
La nascita di una superintelligenza artificiale, ovvero una I.A. di tipo "forte" è vista da Ray Kurzweil come una Singolarità Tecnologica, ossia un punto Omega ove la capacità di avanzamento tecnologico "esplode" verso obiettivi non concepibili attualmente da nessuna mente umana. Ma perchè una intelligenza artificiale, superiore ed autonoma, dovrebbe venire alla luce? Potrebbe anche non accadere... A tale scopo sentiamo Kurzweil:
«...abbiamo bisogno di circa 10^16 calcoli al secondo (cas) per ottenere informaticamente un equivalente funzionale di tutte le regioni del cervello umano. Si noti che alcune stime sono più basse di questa di un fattore di 100. I supercomputer sono già a 100 trilioni (10^14) di cas e raggiungeranno i 10^16 cas verso la fine di questa decade. Parecchi supercomputer con un quadrilione di cas sono già in fase di progetto, con due gruppi giapponesi che mirano ai 10 quadrilioni per la fine di questo decennio.
Entro il 2020, dieci quadrilioni di cas saranno disponibili a circa 1.000 dollari. La realizzazione dei requisiti hardware era controversa quando il mio ultimo libro su questo soggetto, The Age of Spiritual Machines, fu pubblicato nel 1999, ma è ormai il consenso fra gli osservatori bene informati. Ora la polemica si concentra sugli algoritmi. Per capire i principii dell'intelligenza umana dovremo ricorrere al reverse-engineering (ingegneria inversa) del cervello umano. In questo campo, il progresso è ben maggiore di quanto si pensi. La risoluzione spaziale e temporale delle tecniche di scanning del cervello sta progredendo ad un tasso esponenziale, raddoppiando approssimativamente ogni anno, come la maggior parte di tutto ciò che ha a che fare con l'informatica. Recentemente, gli scanner sono riusciti a rendere visibili i diversi collegamenti interneuronali, permettendone la osservazione del funzionamento in tempo reale. Già abbiamo modelli e simulazioni matematiche di un paio di dozzine di regioni del cervello, compreso il cervelletto, il quale contiene più della metà dei neuroni nel cervello.»
Queste ipotesi si basano sulla cosiddetta "Legge di Moore", (altro esempio di previsione azzeccata da uno scienziato) che riuscì, nel lontano 1965, a prevedere che i fattori di miniaturizzazione tecnologica dei componenti dei computer sarebbero stati in grado di tradursi in un raddoppio della potenza di elaborazione per ogni anno che passa, a parità di costo dei componenti stessi. Tuttavia Kurzweil pensa che tali super I.A., in qualche modo si dimostreranno "amichevoli" nei confronti dei loro creatori, migliorando il nostro mondo e dandoci la possibilità di evolvere parallelamente a loro. Parallelamente cosa vuol dire? Vuol dire che, chi lo vorrà, dati i mezzi ipertecnologici che esse creeranno, potrà scaricare la sua mente in un elaboratore elettronico di nuova generazione opportunamente progettato. Questa operazione è denominata Mind Uploading ed invero il primo a pensarla fu lo scrittore/scienziato Arthur C. Clark, autore del mitico 2001 Odissea nello Spazio, una delle prime opere di fantascienza ove si parla di un computer pensante: Hal 9000.
C'è però chi la pensa diversamente, Bill Joy, in un suo famoso memoriale (alquanto allarmistico) pubblicato sulla rivista Wired afferma:
«Le specie biologiche quasi mai sopravvivono allo scontro con un competitore superiore. Dieci milioni di anni fa, il sud e il Nord America erano separati da uno sprofondato istmo di Panama. Il Sud America, come oggi l'Australia, era popolata da mammiferi marsupiali, compresi marsupiali equivalenti di ratti, cervi e tigri. Quando l'istmo che connetteva Nord e Sud America sorse, ci sono voluti solamente poche migliaia di anni affinché le specie placentali, con metabolismi, sistemi riproduttivi e nervosi di poco più efficaci, destituissero ed eliminassero quasi tutti i marsupiali del sud.
In un mercato completamente libero, robot dotati di intelligenza superiore sicuramente colpirebbero gli umani come i placentali Nord Americani colpirono i marsupiali Sud Americani (e come gli umani hanno colpito innumerevoli specie). Le industrie robotiche entrerebbero in competizione tra di loro fortemente per interesse, energia e spazio, incidentalmente portando il loro prezzo oltre le possibilità umane. Incapaci di permettersi tali necessità della vita, gli umani biologici sarebbero scacciati via dall'esistenza.
»
E' una prospettiva abbastanza terrificante... C'è chi può pensare che un essere umano non è stupido come un canguro e che quindi lotterebbe per mantenere il suo vertice della scala biologica. Però devo qui ricordare che solo 10.000 anni fa esistevano due sottospecie di homo sapiens, il "sapiens sapiens" e il "sapiens neanderthalensis". Quest'ultimo, che pure aveva la capacità di comunicare, di costruire utensili evoluti ed una dimensione cerebrale paragonabile alla nostra si è estinto nella competizione territoriale con il suo diretto antagonista. Eppure i neanderthal avevano il 99.8% di geni in comune con noi, e il fatto che siano scomparsi non è affatto rassicurante per il nostro futuro. Un altro esempio concreto e più recente può essere quello delle civiltà nord e sud-americane come i Maya e gli indiani d'America, sterminati dai colonizzatori europei tra il 1550 e il 1600 d.c. poiché ritenuti retrogradi e incivili. In realtà di retrogrado avevano solo gli armamenti meno sviluppati dato che da un punto vista culturale i Maya produssero costruzioni e conoscenze astronomiche anche superiori a quelle degli europei.
La dizione "Singolarità Tecnologica" fu coniata nel 1993 dal matematico Vernor Vinge che in seguito disse di questo evento che lo riteneva possibile entro il 2030 e aggiunse poi:
« entro trent'anni, avremo i mezzi tecnologici per creare una intelligenza superumana. Poco dopo, l'era degli esseri umani finirà... ».
Un altro problema che induce a pensare che una super-intelligenza artificiale potrebbe venire alla luce con intenti ostili, o maturarli dopo un certo periodo che gli occorre a prendere una completa autocoscienza, è purtroppo il fatto che le ricerche più all'avanguardia in questo settore sono condotte in ambito militare. Qui si producono infatti sofisticate Intelligenze Artificiali con il solo intento di raggiungere un grado di sterminio preciso ed assoluto del nemico attraverso miniaerei e minibot intelligenti e e lo testimonia questo video proposto da Estropico.com. Certamente si tratta (per fortuna) di I.A. di tipo debole.
Fantascienza? Affatto. Eccole qui le attuali macchine ad intelligenza artificiale. A sinistra vediamo dei Bot incursori, capaci di stanare il nemico autonomamente ed aprire il fuoco. Al centro vediamo un miniBot mosca in grado di spiare posizioni nemiche, potrebbe contenere anche microcariche esplosive. A destra infine un aereo senza pilota, guidato da una Intelligenza Artificiale che gli permette sia operazioni di ricognizione con scatto di foto e sia di lancio di un missile su un obiettivo nemico. 
Se mai venisse alla luce una intelligenza artificiale "forte" autonoma come si potrebbe metterla in condizioni di svilupparsi armoniosamente col genere umano evitando che si riproduca in modo incontrollato e metta in atto atteggiamenti ostili? Su questo argomento è stato scritto un lungo articolo che propone una possibile soluzione.

 
Ipotesi (D): Realizzazione di Bot autoreplicanti prodotti da nanotecnologia avanzata
Nel 1986 il mondo scientifico rimase attonito all'uscita di un libro intitolato "Engine of Creation" (motori di creazione), scritto dal ricercatore Eric Drexler il quale ipotizzò la manipolazione della materia a livello molecolare ed atomico al fine di creare delle nanomacchine che potessero avere delle caratteristiche simili a quelle delle cellule viventi, prima fra tutte la capacità di riprodursi autonomamente.
A sinistra vediamo un dispositivo nanotecnologico (nanoBot) in grado di sostituire un globulo bianco alla ricerca di batteri e virus nocivi nell'organismo. Al centro dei nanoBot piastrina e a destra un nanoBot in grado di recarsi in sedi periferiche attraverso il flusso sanguigno ed elargire medicinali. Si tratta ovviamente di progetti non ancora realizzati.
Drexler coniò il termine "nanotecnologia" proprio per descrivere una nuova branca della scienza che avrebbe avuto delle ricadute in molteplici indirizzi di ricerca, tra cui: biologia molecolare, chimica, scienza dei materiali, fisica, ingegneria meccanica, ingegneria chimica ed elettronica. Il suffisso "nano" sta ad indicare che il campo di studi e di progettazione è circoscritto nell'ambito del nano-metro (millesimo di millimetro). La nanotecnologia si esplica in due forme:
  • bottom-up: i materiali e i dispositivi sono realizzati partendo da componenti molecolari che si auto-assemblano tramite legami chimici, sfruttando principi di riconoscimento molecolare (chimica supramolecolare);
  • top-down: i dispositivi sono fabbricati da materiali macroscopici attraverso un attento controllo dei processi di miniaturizzazione a livello atomico.
Alcune strutture nanotecnologiche sono già state effettivamente realizzate, un motore nanomolecolare (che andrà a far muovere nanomacchine) chiamato "rotaxane" dal prof. David Leigh presso la univ. di Edimburgo ed un progetto simile in Italia (Univ. Bologna) denominato "sunny" capace di girare a 60.000 giri/min, composto da una molecola filiforme di circa 6 nanometri, che funziona da asse di scorrimento per una molecola circolare del diametro di 1,3 nanometri. Nuove strutture sono in fase realizzativa come il "neuronano" (Univ. Trieste), progetto che tenta di integrare nanotubi di carbonio con la tecnologia di un sistema a multielettrodi per sviluppare una nuova generazione di biochips in grado di riparare i tessuti danneggiati del sistema nervoso centrale.
La nanotecnologia è già oggi utilizzata nella fabbricazione di pannelli solari, finestre autopulenti, tessuti antimacchia e, soprattutto, processori per computer: i microchip di silicio che sono alla base dei computer devono essere sempre più piccoli e veloci, ma hanno dei limiti strutturali a causa dei quali non si potrà scendere sotto i 100 nanometri. Grandi aziende informatiche, come Ibm o Hp, si sono già lanciate nella ricerca di nuove soluzioni per continuare sulla via della miniaturizzazione. Si sono già sperimentati circuiti e transistor di pochi nanometri, fatti con molecole organiche tratte dal Dna o da proteine, e si pensa di utilizzare anche i nanotubi. Un computer nanotecnologico potrebbe essere milioni di volte più veloce di uno attuale e soprattutto consumare modestissime quantità di energia. Proprio dalla realizzazione di un super-elaboratore di questo tipo si suppone possa venire alla luce una super-intelligenza artificiale.
Sembrano tutte cose positive... ma allora dove sarebbe il pericolo della nanotecnologia? Ce lo dice lo stesso Drexler:
«Piante artificiali nanotecnologiche con "foglie" non più efficienti delle odierne celle solari potranno adeguatamente competere con piante reali, affollando la biosfera di un immangiabile fogliame. Batteri nanotecnologici resistenti ed onnivori potrebbero competere nell'ambiente contro batteri reali: essi potrebbero diffondersi come soffi di polline, replicarsi rapidamente, e ridurre la biosfera in polvere nell'arco di giorni. Replicatori pericolosi potrebbero facilmente essere troppo resistenti, troppo piccoli, e di diffusione troppo rapida perché li si possa arrestare - per lo meno se non ci prepareremo in alcun modo. [...] Questa minaccia è divenuta nota come il problema del "gray goo" (melassa grigia).»
Piante artificiali create dalla nanotecnologia o batteri artificiali autoreplicanti sarebbero in grado di sfruttare l'energia solare e le risorse energetiche disponibili (minerali od organiche) con un grado di efficienza molto più alto degli organismi viventi naturali. Così facendo essi riuscirebbero a replicarsi in modo incontrollato colonizzando in pochi mesi ogni angolo del pianeta, fino a quando trovino risorse utili ed energia. Questo scenario è chiamato Grey Goo (melassa grigia) e sarebbe mortale per l'ecosistema naturale e quindi per l'uomo.
e ancora:
«La minaccia della tecnologia avanzata in mano ai governi, rende perfettamente chiara una cosa: non possiamo permetterci di avere uno stato oppressivo che ci guidi fino all'avvento dei prossimi passi avanti tecnologici. I problemi di base che ho fini qui delineato sono ovvi: nel futuro, come nel passato, le nuove tecnologie tenderanno di per se stesse verso utilizzi accidentali o abusivi. Poiché i replicatori e le macchine pensanti ci doteranno di nuovi grandi poteri, il potenziale per incidenti ed abusi crescerà nella stessa misura. Queste possibilità pongono una minaccia autentica alle nostre vite.»
E Bill Joy aggiunge che le tecnologie (comprese quelle militari) derivanti dalla nanotecnologia avanzata sarebbero disponibili a costi estremamente bassi e quindi realizzabili da chiunque potesse attrezzare un minimo laboratorio. Cosa che non avveniva con le armi di distruzione di massa tradizionali (es. bombe atomiche o ordigni chimici) in quanto realizzabili esclusivamente sotto enormi budget di spesa e sotto un know-how tecnologico altamente specializzato.
Attualmente Drexler sembra avere fatto una parziale marcia indietro affermando che possibilità di controllo sulla nanotecnologia possono essere messe in atto in modo da contenere il problema dei nanoBot autoreplicanti. Il premio nobel E. Smalley ha addirittura dichiarato che la nanotecnologia è impossibile dato che i manipolatori non riusciranno a collocare gli atomi poiché questi saranno troppo piccoli da manipolare o aderiranno alle "dita" del manipolatore. Ho quindi assegnato a questo evento una possibilità di realizzarsi del 50% ed un grado di distruttività del 75% in quanto è sempre possibile che la replicazione incontrollata, se avvenisse, potrebbe essere arrestata da un successivo tipo di nanoBot creato ad hoc.

 
Ipotesi (E): Un esperimento di fisica delle alte energie in un acceleratore di particelle
E' ben nota la polemica che interessò TV e giornali di tutto il mondo a seguito della attivazione del Large Hidron Collider avvenuta in Settembre 2008. Gli scienziati Walter Wagner e Luis Sancho, nel marzo 2008 citarono addirittura in giudizio presso una corte delle Hawaii il CERN, il Fermilab di Chicago e il Dipartimento dell'Energia degli Stati Uniti che hanno partecipato alla costruzione dell'acceleratore nel tentativo di impedire l'entrata in funzione del LHC, persero però la causa. In seguito nel settembre 2008 altri catastrofisti si sono rivolti alla Corte Europea dei diritti dell'uomo per fermare l'esperimento in quanto esso potrebbe causare la fine del mondo. Anche questa seconda richiesta fu respinta.
Il mastodontico super-acceleratore è stato costruito all'interno di un tunnel sotterraneo lungo ben 27 km situato al confine tra la Francia e la Svizzera, in una regione compresa tra l'aeroporto di Ginevra e i monti Giura. Tale tunnel si trova ad una profondità media di 100 metri. Il suo scopo è di tentare di riprodurre le altissime energie che si sono verificate nelle fasi iniziali del Big Bang che ha creato l'universo, per cercare l'origine della massa nella materia (che si concretizzerebbe con la scoperta del bosone di Higgs) e per spiegare l'asimmetria tra materia e antimateria nell'universo. Per ottenere questo LHC è in grado di accelerare protoni e ioni pesanti fino al 99,9999991% della velocità della luce e farli successivamente scontrare, raggiungendo un'energia, nel centro di massa, di 14 teraelettronvolt. Un livello di energia simile non era mai stato raggiunto in laboratorio.
Ma come potrebbe un nuovo super-acceleratore di particelle produrre un rischio esistenziale? Le risposte sono sostanzialmente tre:
  1. Potrebbe creare un buco nero stabile
  2. Potrebbe creare materia strana, composta da quark strangelet, che convertirebbe la materia ordinaria
  3. Potrebbe creare monopoli magnetici che potrebbero catalizzare il decadimento dei protoni
  4. Potrebbe creare materia oscura
  5. Potrebbe creare energia oscura
     
Punto (1) - I sostenitori del progetto LHC affermano che è noto da tempo che la Terra viene costantemente colpita da raggi cosmici di energia anche enormemente superiore a quella dei fasci di LHC, senza che ciò causi alcun danno. Inoltre, se pure venissero prodotti mini buchi neri, essi evaporerebbero immediatamente per via della radiazione di Hawking e quindi sarebbero innocui.
Però i raggi cosmici di energia più alta con particelle stazionarie hanno velocità di collisione minore rispetto a quella della luce, e tutte le particelle che si creano vengono spedite senza conseguenze nello spazio. Negli acceleratori di particelle invece le collisioni avvengono a una velocità doppia rispetto a quella della luce e sono progettate per concentrare tutta l'energia in un solo punto spaziale e si possono dunque creare delle particelle che potrebbero essere catturate dalla gravità terrestre. Il fisico nucleare Walter Wagner ha ipotizzato:
« Un mini buco nero creato in laboratorio è considerevolmente differente da uno creato dai raggi cosmici ad alta energia che colpiscono la Terra. Se i raggi cosmici producono veramente mini buchi neri, come sostengono alcune teorie, viaggerebbero a una velocità relativa alla Terra molto alta (0,9999 c) e, come un neutrino, attraverserebbero la Terra in circa 0,25 secondi senza interagire con la materia; o al massimo se interagissero comunque inghiottirebbero al massimo qualche quark a un ritmo molto lento. Al contrario un mini buco nero creato nell'LHC sarebbe relativamente a riposo, e ci sarebbe una probabilità su 10^5 che non raggiunga la velocità di fuga terrestre; nel caso la velocità del minibuco nero fosse minore della velocità di fuga della Terra verrebbe catturato dal campo gravitazionale terrestre e dopo un po' di tempo interagirebbe lentamente con la materia e acquisterebbe sempre più massa fino a inghiottire la Terra. »
Questo a patto che la "radiazione di Hawking" non esista perché se esistesse allora il mini buco nero evaporerebbe e non ci sarebbe pericolo. Però per quanto riguarda la radiazione di Hawking la sua esistenza non è stata ancora verificata e ci sono almeno tre studi che affermano che essa potrebbe anche non esistere.
In quest'ultimo caso un mini buco nero stabile, di dimensioni iniziali pari a 4 x 10^-17 metri ed un peso di 0.02 grammi migrerebbe al centro del pianeta dopo alcuni anni nei quali avrebbe acquisito la sua massa da migliaia di mini buchi neri catturati dalla forza gravitazionale terrestre. Al centro della Terra, la pressione è 3.6 x 10^11 Pascal ed è generata dalla massa del pianeta che preme sulla nube elettronica degli atomi del nucleo. Il moto degli elettroni è responsabile della pressione degenere che controbilancia la pressione della Terra.
Intorno a un buco nero non c'è una nube elettronica e non c'è una pressione degenere che controbilanci la pressione di tutta la materia della Terra. La pressione è uguale a F/S (Forza diviso Superficie). Se F è costante e la superficie diminuisce la pressione aumenterà. Qui F è il peso della Terra e questo non cambia. Poiché la superficie del mini buco nero sarà molto piccola, la pressione sulla sua superficie sarà approssimativamente 7 x 10^23 Pa. L'alta pressione in questa regione spingerà tutta la materia in direzione del mini buco nero, verranno catturati prima gli elettroni e poi i protoni dei nuclei atomici della materia terrestre.
Alcuni scienziati affermano che la pressione al centro della terra è normalmente troppo bassa per avviare questo processo, ma se creiamo un mini buco nero a bassa velocità che non evapora e se esso precipita al centro della Terra dove resta a riposo, la pressione al centro della Terra potrebbe essere sufficiente per innescarne la crescita. Al centro della Terra, l'alta pressione, l'alta temperatura, la massa in crescita associati con le forze elettriche e di gauge potrebbero determinare un processo di accrescimento esponenziale. Un mini buco nero di 0.02 g a riposo al centro della Terra potrebbe inghiottire materia a un ritmo che va da 1 g/sec a 5 g/sec, sembra poco ma il processo potrebbe accrescersi esponenzialmente tanto che lo scienziato biochimico tedesco Otto Rossler immagina che i mini buchi neri inghiottiranno la Terra in 50 mesi.
Punto (2): i quark strangelet creati dall'LHC, potrebbero avere stati più stabili che gli stati legati dei quark "ordinari" (up e down) come accade con i protoni e i neutroni della materia ordinaria. Sempre se l'ipotesi di materia strana è corretta, uno strangelet prodotto in un acceleratore che incontra della materia ordinaria potrebbe convertire quest'ultima in materia strana (cioè composta da quark strange), il che scatenerebbe una reazione a catena che porterebbe alla conversione di tutta la materia della Terra in materia strana.
Punto (3): creazione di monopoli magnetici; un monopolo magnetico è una ipotetica particella che può essere descritta come "un magnete con solo un polo". In termini più tecnici, dovrebbe avere una netta "carica magnetica". Gli interessi moderni della fisica verso questo concetto provengono dalla Teoria della grande unificazione e dalla teoria delle superstringhe, che tentano di predire l'esistenza dei monopoli magnetici.
Nella teoria classica la carica magnetica è antica quanto le equazioni di Maxwell. Per decenni, i monopoli magnetici sono stati largamente considerati finzioni teoriche risultanti da certi meri calcoli matematici. Nel 1931, Paul Dirac suscitò un grande interesse nella possibilità che i monopoli esistano legandoli ai fenomeni di quantizzazione della carica elettrica. Da allora sono state svolte sistematiche ricerche dei monopoli. Esperimenti nel 1975 e 1982 produssero eventi che vennero inizialmente ricondotti ai monopoli magnetici, ma oggi sono considerati come non conclusivi. Resta perciò la possibilità che i monopoli non esistano.
Però la Teoria della grande unificazione e la teoria delle superstringhe, predicono l'esistenza di monopoli nell'universo. Infatti, Joseph Polchinski, un promettente teorico delle stringhe, descrive l'esistenza dei monopoli come "una delle scommesse più sicure che uno possa fare circa la fisica non ancora scoperta". Se LHC creasse monopoli magnetici essi potrebbe far decadere i protoni della materia ordinaria, protoni che invece normalmente sono particelle stabili, quindi potrebbe crearsi una distruzione intrinseca della materia ordinaria su larga scala.
Punti (4) e (5): creazione di materia o energia oscura; i cosmologi affermano che solo il 4% della massa dell'universo sarebbe composta da materia ordinaria, il restante sarebbe composto da un 74% di energia oscura e da un 22% di materia oscura. La generazione di questo tipo di materia/energia non si sa nemmeno come reagirebbe con la materia ordinaria, nemmeno a livello di ipotesi!
Abbiamo quindi visto che il problema "mini buco nero" è solo uno dei cinque, e forse il meno probabile, che un acceleratore di particelle ultrapotente potrebbe creare. Ci troviamo di fronte a teorie non verificate che affermano che sperimentare in questo modo è "quasi" sicuro ma, paradossalmente, per verificare tali teorie bisogna sperimentare. Multinazionali che hanno speso miliardi di dollari per questo tipo di progetti certo non si tirano indietro di fronte a qualche dubbio. Ho dato a questo evento una possibilità di realizzarsi di solo il 5%, però se esso si dovesse realizzare non vi sarebbe scampo, nemmeno fuggendo su un altro pianeta del sistema solare, quindi il grado di distruttività è totale: 100%. Bisogna chiedersi se non è il caso di aspettare ancora qualche anno, magari realizzando un array di telescopi e radiotelescopi sulla Luna per approfondire lo studio della materia oscura e dei limiti dell'universo, piuttosto che andare a verificare con troppa fretta tramite mega-acceleratori teorie fisiche delle quali potrebbe non esserci alcun riscontro nella realtà cosi come in passato era stato ipotizzato un "etere" nello spazio interstellare o il phlogiston come causa del fuoco.
Va detto che le rassicurazioni degli scienziati del CERN sono ben fondate. Tuttavia, anche se il grado di pericolo fosse solo di 1/10.000 bisogna tener conto che dall'altra parte c'è la possibilità di rischio esistenziale, quindi le due domande sono: possiamo vivere senza il bosone di Higgs? Risposta: Certo! Possiamo morire TUTTI per il bosone di Higgs? Risposta: No!
La ricerca non deve essere fermata. Le sperimentazioni devono andare avanti e devono essere finanziate poiché attraverso esse la scienza progredisce. Non si tratta solo di cosmologia, e quindi del seppur importante dover scoprire qualcosa dell'universo ove viviamo, si tratta anche di scoperte che possono aver ricadute nella vita di tutti i giorni: nuovi carburanti, nuovi sistemi disinquinanti ecc. Però la ricerca in obiettivi che collidono con il cosiddetto "Rischio esistenziale" deve essere condotto solo quando si hanno basi teoriche di funzionamento dei processi che si intende attivare ben solide e conosciute. In caso contrario è come mescolare glicerina, acido nitrico e acido solforico (componenti per la nitroglicerina) nelle proporzioni sbagliate e agitando un po' troppo il contenitore che contiene tali elementi. La conseguenza è che esso deflagrerà!
 
Conclusioni
Come si può vedere di teorie scientifiche che possano abbozzare ipotesi sulla fine della civiltà ve ne sono e sono consistenti con le leggi fisiche conosciute e gli studi di avanzamento tecnologico proposti da seri scienziati. Altro che calendari Maya e teschi di cristallo, abbiamo ben altro di cui preoccuparci!
Il mondo quindi non finirà nel 2012 ed il 21 Dicembre saremo lì ad acquistare i nostri soliti regali di natale, ma l'iper-accelerazione tecnologica che contraddistinguerà questo secolo va tenuta sotto stretto controllo. E' come se fossimo saliti su un autobus che accelera sempre di più. Alla fine, se non si interviene con nuove tecnologie sui freni e sulle gomme, esso potrebbe uscire di strada. La singolarità tecnologica è prevista tra il 2025 e il 2035 ma essa potrebbe anche non realizzarsi poiché vi sono scienziati come Roger Penrose che pensano che la coscienza sia una forma di pensiero "non algoritmico", quindi non replicabile da un computer, potente che possa essere. Anche se così fosse futurologi accreditati come Ian Pearson ritengono che la fine del mondo potrebbe avvenire tra il 2085 e il 2095 a causa di modifiche estreme all'ecosistema del pianeta causate dalla nanotecnologia avanzata autoreplicante. Una possibile soluzione nelle parole di Bill Joy:
«L'unica alternativa realistica che vedo è un rallentamento: limitare lo sviluppo di tecnologie che sono troppo pericolose limitando la ricerca in certe aree della conoscenza.»
 
Fonti:


Fonte

Nessun commento:

Posta un commento

Ogni opinione espressa in questi commenti è unicamente quella del suo autore, identificato tramite nickname e di cui si assume ogni responsabilità civile, penale e amministrativa derivante dalla pubblicazione del materiale inviato. L'utente, inviando un commento, dichiara e garantisce di tenere INFORMARMY.com manlevato ed indenne da ogni eventuale effetto pregiudizievole e/o azione che dovesse essere promossa da terzi con riferimento al materiale divulgato e/o pubblicato.
INFORMARMY.com modera i commenti non entrando nel merito del contenuto ma solo per evitare la pubblicazione di messaggi volgari, blasfemi, violenti, razzisti, spam, etc.

LinkWithin

Related Posts Plugin for WordPress, Blogger...