SECRETS - STORIES
Vuoi reagire a questo messaggio? Crea un account in pochi click o accedi per continuare.


IL NUOVISSIMO PORTALE SUI MISTERI DELLA SCIENZA .
 
IndiceCercaUltime immaginiRegistratiAccedi

 

 ATLANTi SEGRETi........

Andare in basso 
AutoreMessaggio
MASCHERA
junior
junior
MASCHERA



ATLANTi SEGRETi........ Empty
MessaggioTitolo: Re: ATLANTi SEGRETi........   ATLANTi SEGRETi........ Icon_minitimeVen 13 Nov 2009, 18:43

UNA NUOVA STRAORDINARIA IPOTESI SU GESÙ


Da ormai oltre duemila anni la figura di Gesù avvolge, assilla, tormenta la mente degli uomini che, a vario titolo, chi come uomo di fede, chi come uomo di cultura o semplice persona che voglia vivere la vita non in modo banale e agnostico, cercano le verità supreme che la dominano ed a cui gli esseri umani si orientano per darle un senso.

La figura storica di Gesù, come abbiamo scritto in altri articoli, è difficile da ricostruire, stante la scarsità di testimonianze storiche che non siano riconducibili alle fonti della comunità paleocristiana, che diedero vita ai vangeli canonici e successivamente ai testi apocrifi.
Nel corso dei secoli è stato indagato dalla letteratura storica, dalla teologia e successivamente dalla critica storica, in modo apparentemente così profondo che sembra non vi sia più niente da dire sul personaggio, di volta in volta, catalogato come maestro spirituale, come figura politica che poteva incarnare il messianismo ebraico, come rivoluzionario e pensatore, come semplice essere umano, come personaggio storico di grande profilo morale e come reale messia (dall'ebraico "unto del Signore") inviato da Dio per salvare il suo popolo e divenuto il salvatore dell'intera umanità, colui che compie con il suo sacrificio la storia della salvezza, il figlio di Dio nel quale si completa la storia umana.
Non a caso recentemente nel commentare l'uscita del primo volume sulla biografia di Gesù, Benedetto XVI ha dichiarato di voler riportarne la figura a quella desumibile dai vangeli canonici dei quattro evangelisti Matteo, Marco, Luca e Giovanni, i cui testi furono elaborati tra il 50 e il 100 d.C..
Gli elementi fondanti della religione cristiana sono la divinità di Cristo, la sua doppia natura di vero uomo e vero Dio, la sua nascita miracolosa dalla vergine Maria, la sua consustanzialità col Padre celeste, la predicazione del Verbo (cioè la parola di Dio), quindi la sua missione divina nella quale compie miracoli che dimostrano la sua soprannaturalità (Egli piega le leggi che regolano la vita e la Natura al suo volere), il suo sacrificio per la salvezza dell'umanità, la sua morte in croce e la sua resurrezione con la promessa del suo ritorno nel giorno del giudizio universale.
Questi elementi sono sufficienti per comprendere il credo cristiano e tutto ciò che va oltre appartiene alla libera interpretazione che le diverse discipline sono in grado di fornire, di volta in volta, sulla sua figura o su singoli aspetti trattati dalla critica esegetica e storica. Tuttavia proprio questo limite naturale della religione e delle scienze bibliche ha lasciato aperti ampi spazi di analisi a tutti quegli studiosi che, ognuno con le proprie peculiarità e sfumature interpretative, hanno fornito nel corso del tempo elementi utili a comprendere la grande e misteriosa figura del Messia ebraico, la cui immagine storica potrebbe essere considerata emblematicamente come quella di un meraviglioso mosaico cui mancano sempre delle tessere, che non si riescono a trovare.
Gesù sfugge ad una comprensione totale del suo personaggio e della sua dimensione storica, i cui elementi interpretativi affondano non solo nel testo evangelico ma anche in una miriade di elementi narrativi contenuti nella tradizione e che hanno informato i testi apocrifi, a cui si affiancano elementi culturali di natura estranea all'ebraismo del I secolo d.C. e contenenti strutture, archetipi, immagini figurate, simbolismi che hanno radici antichissime e che hanno riferimenti alle cosmologie antiche, alle tradizioni persiane, alla religione zoroastriana, alle culture e tradizioni egizia e babilonese; elementi di cui ora cercheremo di fornire una traccia utile al lettore per comprendere la natura e la portata dell'ipotesi trattata in questo articolo.
Gli elementi che in particolar modo hanno destato l'interesse degli studiosi di tutte le epoche e su cui sono stati versati fiumi di inchiostro riguardano principalmente la data di nascita di Gesù, non desumibile direttamente dal racconto evangelico (forse perché non considerata importante ai fini della narrazione da parte degli evangelisti), le informazioni relative alla sua infanzia (di cui vi sono diversi elementi nei testi apocrifi come ad esempio il Vangelo Arabo dell'infanzia del Salvatore), l'origine della sua dottrina (che appare estranea almeno parzialmente alla tradizione ebraica), il ruolo dei re Magi nella sua vita e il reale significato della loro presenza nel racconto evangelico, il mistero della sua morte e resurrezione che fu la genesi del cristianesimo, ed ancora il ruolo che ebbero le tradizioni antiche nella formazione della figura di Gesù. A questi elementi se ne aggiungono altri, ancora più specifici ed elaborati e in stretta correlazione con i precedenti, di cui rappresentano la naturale prosecuzione del dibattito sorto tra gli studiosi sulla figura del Messia, tra cui il ruolo che la cosmologia e l'astronomia antica ebbero nell'evento messianico e la lettura del significato simbolico che aveva per gli antichi tale evento.
Analizziamo in special modo una delle questioni preminenti e cioè quella relativa alla data dell'evento messianico, introducendo una nuova ipotesi, frutto di studi ed analisi dell'autore di questo articolo.

LA DATA DI NASCITA DI GESÙ - L'EVENTO MESSIANICO
La data di nascita ha dato luogo da sempre ad un vivace dibattito culturale tra studiosi di tutte le discipline che ha generato una ridda di ipotesi che possono essere considerate opposte le una alle altre da notevoli differenze interpretative.
Occorre innanzitutto ricordare che la datazione delle epoche storiche subì una radicale modificazione a partire dal VI secolo d.C., quando il Papato chiese a studiosi appartenenti all'entourage ecclesiastico di fornire una risoluzione al problema della fissazione della data di nascita di Gesù, ponendo possibilmente tale data come "Anno Zero" di una nuova Era, che era quella cristiana.
Tra coloro che fornirono la soluzione vi è da ricordare il monaco Dionigi detto il Piccolo che, fornendo una soluzione al problema dell'esatta individuazione dell'equinozio di primavera, indispensabile ai fini della fissazione della Pasqua, introdusse anche un semplice sistema di calcolo della data dell'anno ricalcolando il tempo a partire dalla presunta data di fondazione di Roma, considerata approssimativamente al 754 a.C. Egli fissò così la data di nascita di Gesù, per convenzione, alla data in questione e da quel momento si cominciò a contare gli anni partendo dall'Anno 1, cioè l'anno in cui nacque Gesù.
In tal modo Gesù non nasce in un fatidico anno zero, poiché tale concetto non esisteva in quell'epoca ma secondo tale sistema egli nacque nell'Anno 1, in modo tale che ogni avvenimento accaduto prima della sua nascita sarebbe stato catalogato come evento accaduto in epoca prima di Cristo (a.C.) mentre tutti gli eventi accaduti dopo la sua nascita sarebbero stati registrati con data posteriore alla sua venuta (d.C.).
Come si può facilmente intendere la fissazione dell'Anno 1 rappresenta una questione piuttosto marginale rispetto alle implicazioni ben più profonde, relative all'individuazione dell'esatto anno a.C. o d.C. nel quale Gesù potrebbe essere nato, poiché mentre non ha senso cercare di individuare un singolo anno in cui può essere nato il personaggio storico in questione, ben altro senso ha invece cercare di individuare una serie concatenata di eventi di diversa natura che possono aver rappresentato, in termini culturali, filosofici, religiosi, astronomici o astrologici una serie di segni relativi al personaggio o evento in questione.
Infatti dire che Gesù sia nato nell'anno 1 oppure nell'anno 4 a.C. non ha un senso particolare, poiché in entrambi i casi le date sono solo delle convenzioni e per di più ci possono essere errori di datazione come presumibilmente si attribuiscono all'Abate Dionigi. Tuttavia ciò che a noi deve interessare sono le problematiche relative allo sviluppo e alla individuazione dei segnali attesi all'Evento Messianico, cioè dei segnali di carattere sociale, culturale, storico, politico, filosofico che diedero avvio all'Attesa della nascita del Salvatore, sulla base delle dottrine religiose antiche, che erano principalmente la dottrina ebraica e quella antico-persiana a cui si aggiungono diversi elementi provenienti dalla tradizione egizia, che saranno fondamentali per la formazione della struttura della figura del Messia ebraico.
Detto in altri termini mentre è difficile individuare l'esatta datazione di un evento in termini di anno a.C. o d.C. per motivi legati agli errori di convenzione, ben altra cosa è invece cercare i segnali di natura culturale o storico-sociale che indicano approssimativamente il periodo nel quale può essere accaduto tale evento, considerando cioè un lasso di tempo nel quale può essersi verificato con una probabilità molto elevata.
In tal senso si muovono tutti gli studiosi di discipline storiche e anche molti studiosi di materie scientifiche che vogliono datare un evento importante non disponendo di dati precisi in merito.
In questa direzione occorre muoversi anche per quanto riguarda la data di nascita di Gesù sulla quale disponiamo di poche e confuse informazioni di carattere storico, desumibili dalla lettura del testo evangelico, e una serie di segnali che provengono dalle tradizioni culturali (in particolare astronomiche e astrologiche di quell'epoca) che ci permettono di inquadrare l'epoca in cui approssimativamente può essersi verificata la nascita.
Le informazioni di carattere storico-narrativo relative alla nascita di Gesù sono contenute nel Vangelo di Matteo e in quello di Luca, dove sono narrati rispettivamente il racconto dei Magi e il racconto della nascita di Gesù a Betlemme al tempo in cui si compiva il censimento della popolazione voluto da Cesare Augusto, mentre governatore della Siria era Quirinio.
Il racconto dei Magi contenuto in Matteo permette solo ed esclusivamente di comprendere che dall'arrivo dei Magi a Gerusalemme e dal loro incontro con Erode e con i sacerdoti del Tempio fino al loro incontro con la Sacra Famiglia nella mangiatoia di Betlemme passano pochi giorni e dal giorno della fuga in Egitto fino alla morte di Erode un breve lasso di tempo, che può essere di due o tre anni al massimo, poiché quando Giuseppe e Maria tornano in Israele Gesù è ancora piccolo.
Le poche informazioni di carattere storiografico permettono di datare la morte di Erode intorno al 4 a.C. per cui si tende a datare la nascita di Gesù in un tempo compreso approssimativamente fra il 7 e il 5 a.C. Tale datazione, se gli elementi in questione fossero gli unici, potrebbe essere la migliore possibile, poiché non vi è ragione di credere che l'autore del Vangelo di Matteo volesse fornire informazioni diverse rispetto a quelle desumibili dalle cronache del tempo.
Il problema che la storiografia ha dovuto affrontare nel tentativo di datare la nascita di Gesù, deriva purtroppo dalle fonti storiche del Vangelo di Matteo raffrontate con quelle del Vangelo di Luca, in cui si parla della nascita di Gesù al tempo in cui Maria e Giuseppe si recarono a Betlemme per farsi registrare al censimento della popolazione realizzato durante il mandato del Governatore Quirinio, sotto il regno di Augusto.
Gli annali delle cronache romane dimostrano, con certezza, che Quirinio fu governatore della Siria in epoca compresa fra il 6 e il 9 d.C., per cui il censimento di cui si parla sarebbe "fuori tempo" rispetto al governatorato di Publio Simplicio Quirinio, in quanto gli storici attestano che i censimenti di quell'epoca furono realizzati nel 28 a.C., nell'8 a.C. e nel 14 d.C..
Il censimento in cui sono coinvolti Giuseppe e Maria sarebbe quindi quello dell'8 a.C., ma sarebbe errata l'informazione fornita dall'autore del testo in quanto in quel periodo il governatore della Siria-Cilicia era Sanzio Saturnino.
Tuttavia, se si considera il fatto che tra i funzionari con poteri delegati dal governatore vi era anche Quirinio, con incarico di reggente speciale per l'amministrazione di quella provincia, in quanto il governatore era impegnato sul fronte armeno, è comprensibile che venga fornita questa informazione, che dimostrerebbe almeno in linea di principio l'attendibilità storica della fonte di Luca, in quanto l'autore può non aver tenuto conto di questa "sfumatura".
Tuttavia è evidente che gli storici hanno bisogno di un minimo di certezze per considerare l'attendibilità storica di un'informazione fornita in un testo che si presume "storico", per cui rimane aperto il dubbio sulla credibilità del racconto evangelico, sia in termini di attendibilità storica degli eventi raccontati che in termini di datazione storica degli stessi.
Una volta appurato che la datazione più attendibile è compresa fra il 7 a.C. e il 4 a.C. (perché Gesù non avrebbe potuto essere nato dopo la morte di Erode, mentre dal racconto di Luca sappiamo che il censimento in cui furono registrati Giuseppe e Maria avvenne presumibilmente nell'8 a.C.) occorre ricostruire il sottofondo storico-culturale nel quale si compì l'avvento del Messia con la nascita di Gesù, mettendo al centro di questa trattazione le modalità con cui si manifestò in quell'epoca l'attesa messianica del Salvatore.

LA DINAMICA STORICA DELL'ATTESA MESSIANICA
Nella storia dei popoli e delle tradizioni religiose antiche vi è una costante che periodicamente ricompare a turbare le certezze degli studiosi di storia antica; l'incredibile e incrollabile fede, espressa dagli uomini di cultura, sacerdoti-astronomi, letterati, filosofi (almeno di quelli attratti con grande sensibilità da tale argomento) nella sicura venuta, prima o poi, di una figura umana inviata per salvare gli uomini e per governare il mondo secondo giustizia.
Le sfumature tra le diverse culture sono evidenti ma i tratti essenziali sono comuni alle diverse tradizioni.
Se consideriamo, senza voler soffermarci particolarmente su questo punto, la tradizione egizia e la sua cosmologia, questa narra di un tempo lontano nel quale gli dèi governavano sulla terra d'Egitto secondo pace e giustizia, apportando benessere e civiltà agli uomini e dopo la morte e resurrezione del dio Osiride questi ritorna sulla Terra per apportare luce all'umanità e accoglie le anime dei defunti per il rito della pesatura dell'anima.
Se consideriamo tradizioni più recenti, come quella ebraica a partire dal periodo delle Scritture (approssimativamente dal X-VIII secolo a.C.), ci rendiamo conto di come i sacerdoti della tradizione ebraica abbiano ben presente fin dal principio delle Scritture, quindi almeno a partire dal X secolo a.C., quando fu redatto il Genesi e nei secoli successivi quando furono redatti i libri dei profeti, che vi sarà la venuta di un Salvatore che avrà il compito di salvare il suo popolo (il popolo eletto di Dio) dalla schiavitù del nemico, dalla distruzione, dall'annientamento; concetto che nel popolo d'Israele è forte dopo l'Esodo dall'Egitto, nel quale si formò il primo nucleo delle Scritture secondo la tradizione che vuole i primi cinque libri della Torah redatti da Mosè.
Su questa linea si pongono, a distanza di alcuni secoli l'uno dall'altro, tutte le composizioni dei 46 libri dell'Antico Testamento, in un arco di tempo in cui la cultura del popolo ebraico si sviluppa autonomamente in oltre 500 anni, ma nella quale vi è l'incontro fondamentale con la cosmologia egizia da un lato e con la tradizione babilonese dall'altro, durante il periodo della schiavitù in Babilonia (tra il 600 e il 500 a.C.).
In questo periodo, nel quale alcuni concetti della cultura religiosa ebraica e della sua cosmologia sono ancora abbastanza confusi, cominciano a delinearsi in modo abbastanza netto quelli che saranno gli elementi fondanti della dottrina ebraica classica e della dottrina cristiana, come una più netta definizione del destino escatologico dell'Uomo, del concetto di inferno e paradiso, dell'immortalità dell'anima, della resurrezione dei corpi.
Gli studiosi, chiedendosi quale sia stato il percorso culturale che abbia portato a questa concettualizzazione, hanno potuto fornire l'unica risposta possibile che il buon senso della ricerca storica impone; il merito di tale dinamica storica si deve all'incontro della cultura ebraica monoteista con la tradizione egizia da un lato e con la tradizione persiana e zoroastriana dall'altro, tradizione giunta nel vicino oriente grazie alla fusione del mondo persiano con quello babilonese.
La religione zoroastriana si sviluppò presumibilmente grazie al contributo dei discepoli di Zarathustra, profeta persiano vissuto approssimativamente intorno al 600 a.C. La dottrina zoroastriana estremamente complessa ed elaborata narra dell'esistenza di una continua lotta tra Dio (Ahura Mazda) e il male rappresentato da Satana (lo spirito Angra Mainyu) in cui le forze della luce devono lottare contro le forze delle tenebre e gli esseri umani sono liberi di scegliere consapevolmente tra il bene e il male. Quando la lotta sarà giunta a compimento il male sarà sconfitto per sempre e tutti i morti risorgeranno per essere accanto ai vivi nel giorno del giudizio universale, quando i dannati saranno ricacciati all'Inferno e i beati saranno in paradiso.
Gli elementi principali della dottrina zoroastriana hanno rappresentato una delle componenti essenziali su cui si è fondata parte della dottrina ebraica e quella cristiana, nella quale i riferimenti al paradiso, all'inferno, alla resurrezione dei morti, sono elementi fondanti.
Nel suo sviluppo storico la tradizione persiana è desumibile dal suo principale testo religioso che è l'Avesta, in cui si narra dell'origine del Cosmo, della caduta e della contaminazione originale del Cosmo, del turbamento del suo equilibrio, che diede avvio alla lotta tra le forze della luce e le forze delle tenebre, e del modo in cui si compirà il destino escatologico dell'umanità. A questo occorre aggiungere che mentre l'Avesta si attribuisce ai discepoli della tradizione zoroastriana originale (almeno fino intorno al VI-V secolo a.C.), a questa tradizione fanno seguito altri testi che possono essere catalogati come testi astrologici in cui sono racchiuse previsioni dei sacerdoti-astronomi persiani dove si attribuisce, probabilmente proprio a Zarathustra, una importantissima profezia relativa alla Venuta di un Re-Sacerdote presso il popolo ebraico che sarebbe stato il Messia, il Salvatore del Mondo.
Il quadro culturale di riferimento per comprendere questo fenomeno è dunque quello di una tradizione, perpetuata già da tempi antichissimi, relativa alla venuta di un Messia che avrebbe salvato l'umanità e avrebbe riportato il Cosmo al suo equilibrio iniziale, impersonando il principio e la fine di tutto.
La figura del Messia, così come compare nelle tradizioni persiana ed ebraica non è esattamente uguale, o meglio non è priva di diverse sfumature, perché mentre nella tradizione zoroastriana il Re-Sacerdote di cui si parla è una figura di carattere universale, in quella ebraica sembra prevalere l'idea di un Messia di tipo più politico, come un personaggio che sarà in grado di guidare il suo popolo verso il riscatto dalla prigionia del nemico e verso la libertà. Tuttavia rimane evidente la matrice comune alle diverse tradizioni che ha creato il meccanismo dell'attesa messianica e che ha portato gruppi di sacerdoti-astronomi a profetizzare l'avvento del Messia seguendo le indicazioni che provenivano da tradizioni più antiche.
Storicamente la trasformazione politica dei regni del vicino oriente nella fase compresa fra il 600 e il 300 a.C. (lo sviluppo della civiltà greca, la caduta dell'impero babilonese, l'avvento e la caduta dell'impero persiano e l'avvento di Alessandro Magno e dei regni successivi) portò al rimescolamento delle culture greca, babilonese, persiana, indo-ariana, indiana in cui diversi elementi provenienti da diverse culture millenarie si fusero a creare una nuova cultura, quella ellenistica, che divenne il punto di riferimento della vita culturale dei popoli del vicino oriente in tutta la fase compresa fra il IV e il I secolo a.C..
Questa fu l'epoca in cui si svilupparono i grandi centri culturali come Alessandria d'Egitto, con la sua biblioteca e i suoi centri di studio in cui si forgiavano molti intellettuali cosmopoliti dell'epoca.
In questo periodo avviene la più importante operazione culturale, che fu la traduzione degli antichi testi delle Scritture ebraiche, scritte in aramaico antico, quindi non più comprensibile anche per gli Ebrei, in greco, in modo da rendere i testi antichi intelligibili alla più vasta platea dei letterati del tempo.
L'interesse suscitato dai testi ebraici e la forza degli avvenimenti storici, che avevano portato alla ribalta l'immagine di un uomo forte come Alessandro Magno, furono alcuni tra i fattori trainanti di un ritorno in auge della tradizione dell'attesa messianica, che appare come un meccanismo ad orologeria, e che avrebbe portato di lì a poco allo sviluppo e alla nascita della figura di Gesù Cristo, come figlio di Dio e personificazione del Messia atteso dai popoli.
Le origini di questo meccanismo culturale non sono facilmente comprensibili ma affondano sicuramente in un insieme di elementi culturali estremamente variegati che provengono dalle antiche tradizioni astrologiche in cui gli elementi più prettamente astronomici (in quell'epoca non esisteva una vera separazione tra astrologia e astronomia), come lo studio e l'analisi delle configurazioni e dei moti degli astri e dei pianeti, l'analisi della loro posizione apparente nella volta celeste (quindi misurazioni dell'altezza in gradi, moti lineari e retrogradi, analisi delle congiunzioni e occultazioni ecc.) erano fusi con interpretazioni meramente astrologiche, relative cioè al tentativo di interpretare la previsione di eventi futuri dell'umanità o di singoli personaggi attraverso la lettura dei segni del cielo (cioè quelli derivati dallo studio astronomico relativo a astri e pianeti) nei quali venivano applicati appositi simbolismi a singoli modelli astrali e di configurazione della volta celeste in un dato istante o periodo di tempo.
Per fare un esempio se all'alba dell'equinozio di primavera la costellazione dominante fosse stata quella dei pesci e questa veniva a trovarsi in un dato periodo dell'anno in congiunzione con un determinato pianeta, il sacerdote-astronomo avrebbe attribuito, considerando anche altre condizioni, un determinato simbolismo alla costellazione dei pesci e un determinato simbolo al pianeta in questione, deducendo un modello previsionale sulla base dei simbolismi coinvolti.
La forza di questo meccanismo sta nell'assoluta certezza, per gli Antichi, che nei segni del cielo stia la volontà degli dèi o anche di quell'unico dio monoteistico per il quale i sacerdoti e dotti ebrei e cristiani (e più tardi anche musulmani) rifiutavano in toto l'astrologia praticata dai Gentili (i pagani) ma di cui al tempo stesso conservarono segretamente per secoli i testi antichi che ne parlavano.
Occorre anche valutare attentamente il ruolo che ebbero i sacerdoti-astronomi nell'antichità, attori che diedero origine alla figura dell'intermediario tra l'uomo e il divino, fondando la loro forza di interpretazione del piano umano e divino nella capacità di cogliere e interpretare i segni del cielo, quindi nella lettura astronomica e astrologica dei segni relativi al verificarsi dell'evento atteso.

I SACERDOTI-ASTRONOMI E LE ORIGINI DELL'ATTESA MESSIANICA
Le origini della tradizione dell'attesa messianica si perdono nella notte della storia umana, ma gli studi realizzati negli ultimi anni, volti a riprendere queste antiche tradizioni, hanno messo in luce importanti connotati e peculiarità di tale fenomeno riuscendo a coglierne gli aspetti più importanti.
È importante innanzitutto ricordare che nell'alveo delle civiltà antiche del vicino Oriente, tra cui spiccano quella egizia, babilonese e persiana, si formarono fin da tempi anteriori al 2500 a.C., caste di sacerdoti dediti alla gestione della vita religiosa, alla gestione dei templi e del cerimoniale di Stato, in cui tutte le componenti della cultura religiosa erano improntate all'analisi, allo studio e alla predisposizione di una cosmologia religiosa in cui gli dèi avevano una rappresentazione umana o zoomorfa ed una corrispondente immagine nella volta celeste, nei termini di una costellazione o di un astro particolare, o di un pianeta.
Nel caso ad esempio della antica religione egizia, sappiamo per certo che in una particolare epoca storica, che può essere considerata come la storia antica della grande civiltà del Nilo, prevalse una cultura religiosa astrale, in cui gli dèi principali della cosmologia eliopolitana, Osiride e Iside, erano rappresentati dalla costellazione di Orione e dalla stella Sirio, a cui è dedicata la maggior parte degli inni e delle formule religiose contenuti nella sterminata letteratura religiosa risalente al periodo compreso fra il 2500 e il 2000 a.C. (Il libro dei morti, I testi delle piramidi); mentre dopo la fine dell'Antico Regno e l'avvento delle grandi riforme religiose (da Akhenaton in avanti) prevale una dottrina religiosa fondata sul culto di Ra, il Dio Sole, che determina lo sviluppo dei primi passi verso una forma strisciante di monoteismo.
Il culto delle stelle ha quindi origini così lontane che non è stato possibile datarlo con certezza poiché sappiamo per certo che in epoche antichissime erano già presenti calendari lunari e rappresentazioni zoomorfe delle costellazioni e degli astri sulle rocce preistoriche risalenti almeno al 15.000 a.C..
Ciò che si sa con certezza è che il culto astrale nella sua forma più antica è presente in modo uniforme nella civiltà egizia, come in quella sumero-accadica e più tardi babilonese, nella cultura persiana e nei popoli che erano stanziati nella penisola arabica e conosciuti come Sabei (originari della zona dello Yemen). Qualunque sia stata l'origine, nella cosmologia antica o nella religione di questi popoli, della figura del Salvatore e guida spirituale che viene dall'Alto per salvare l'umanità, tale figura impregna la cultura dei popoli del Vicino Oriente per millenni fino a quando i saggi astrologi ritengono che fosse arrivato il momento in cui questa realmente si stesse manifestando nel mondo; il modo in cui essa si manifestò passò attraverso un complesso modello di pensiero cosmologico che coinvolge la cultura e il pensiero di queste grandi civiltà antiche.
Presso i popoli antichi il culto degli astri era il fondamento della propria religione, poiché i propri dèi appartenenti al pantheon cosmologico erano rappresentati da singoli astri o costellazioni.
Gli studi condotti nei secoli e decenni scorsi hanno dimostrato che l'astronomia era alla base non solo del pensiero religioso politeistico dei popoli antichi ma ne rappresentava, spesse volte, il perno anche dell'architettura sacra, per cui templi, palazzi, costruzioni megalitiche erano spesso dedicate agli dèi e presentavano peculiarità tecniche straordinarie. Normalmente tali strutture venivano infatti allineate ai punti cardinali con margini di errore molto bassi, a dimostrare che il grado di conoscenze tecnico-geometriche e astronomiche era straordinariamente più avanzato di quanto gli studiosi moderni fossero stati disposti a credere.
Un caso evidente, ed è quello di nostro interesse in questa trattazione, riguarda le piramidi di Giza, realizzate secondo gli studiosi durante la IV dinastia dell'Antico Regno egizio, in epoca compresa fra il 2600 e il 2500 a.C. circa, sotto il regno di Khufu (Cheope), Khafra (Chefren) e Menkaura (Micerino). È stato dimostrato scientificamente, almeno per la grande piramide di Cheope, che essa presenta allineamenti astronomici dei suoi condotti interni alla costellazione di Orione, alla stella Sirio e alla Stella Polare con riferimento ad un'epoca compresa fra il 2500 e il 2400 a.C..
La Grande piramide di Cheope presenta incredibili specifiche tecniche che lo rendono unico al mondo; oltre ad avere allineamenti astronomici dei condotti interni, presenta delle misure geometriche che fanno rabbrividire anche il più scettico degli studiosi e che devono far riflettere; con una lunghezza del perimetro alla base pari a 921,459 metri ed un'altezza originaria di 146,73 metri presenta un rapporto tra perimetro ed altezza pari a 2π (il rapporto costante tra circonferenza e diametro del cerchio, scoperto ufficialmente da Archimede solo nel II sec a.C., mentre il monumento risale ad oltre 2000 anni prima) a dimostrazione del grande grado di conoscenze geometriche raggiunte dagli egizi in epoca antica.
Presenta inoltre una pendenza delle sue pareti lisce pari a circa 51° 52', pendenza che fu volutamente attribuita ai lati del manufatto affinché potesse presentare quei determinati parametri geometrici relativi alla rappresentazione della sfera.
Inoltre, modelli matematici realizzati da studiosi di misure antiche hanno dimostrato che la Grande piramide può essere considerata, a meno di approssimazioni dell'ordine dello 0,75%, come un modello della circonferenza terrestre e del raggio polare della Terra in scala 1:43.200 (una sorta di rappresentazione su quattro superfici triangolari) ove la scala di misurazione richiama proprio l'ordine cosmologico che sta alla base della religione egizia, fondata sul modello astronomico della precessione.
Il movimento precessionale del nostro pianeta, spiegato scientificamente in epoca recente dopo la scoperta della rotazione del pianeta, che consiste nella lenta oscillazione e rotazione inversa dell'asse terrestre rispetto al moto di rotazione del pianeta e che comporta un effetto visivo di modifica delle coordinate celesti degli astri e quindi un loro spostamento apparente nella volta celeste nel corso degli anni con un ritmo di 1 grado ogni 72 anni, era in realtà già conosciuto a livello visivo dagli antichi. Questi studiavano e registravano su tavole, papiri, libri il corso degli astri e ne registravano le modifiche delle coordinate che venivano inserite negli almanacchi e nelle tavole astrologiche consultate dagli astronomi e dagli astrologi per prevedere eclissi, congiunzioni planetarie e astrali ecc..
Gli effetti visivi della precessione, facilmente ricostruibili disponendo di misure che riguardano periodi lunghi (almeno un secolo), sono essenzialmente di due tipi; per quanto riguarda le stelle occidue (che sorgono e tramontano come il Sole) il ciclo precessionale di 26.000 anni circa comporta, insieme alla variazione dell'obliquità dell'eclittica, un movimento apparente dell'astro o costellazione che tende ad innalzarsi fino ad un'altezza massima per poi ridiscendere verso un'altezza minima sull'orizzonte del punto di osservazione, mentre per la fascia dell'eclittica, che è la proiezione nella volta stellata del percorso apparente del Sole durante l'anno, chiamata anche fascia delle costellazioni zodiacali, il movimento apparente del Sole durante l'anno comporta il passaggio del Sole, mese per mese nelle dodici costellazioni dello zodiaco.
Nel caso del Sole l'effetto visivo della precessione, dovuto al movimento conico dell'asse terrestre, comporta il lento scivolamento retrogrado del Sole lungo il punto equinoziale nel corso di circa due millenni, in modo tale che mentre circa duemila anni fa il Sole sorgeva, all'alba dell'equinozio di primavera nella costellazione dell'Ariete, a partire da circa il I secolo a.C. questo lento movimento retrogrado (dell'ordine di circa 50'' di arco ogni anno) spostò il Sole equinoziale nella costellazione dei Pesci e così sarà nel prossimo futuro nella costellazione dell'Acquario.
Vi sono diverse testimonianze scritte, proprio nella letteratura religiosa e nei grandi poemi cosmologici antichi, del fatto che la conoscenza di un meccanismo astronomico di questa portata, ciclico e lineare al tempo stesso, abbia influenzato la stesura di questi testi antichi (come i Testi delle piramidi e poemi come L'epopea di Gilgamesh). Sono state lasciate tracce vistose della sua presenza, dimostrando al tempo stesso come tale meccanismo abbia influito sulla formazione del pensiero religioso antico e sul culto delle stelle, nella certezza per gli Antichi che la precessione astrale fosse l'unico o comunque uno dei moti della volta celeste in grado di influire sul destino dell'Uomo, creando i presupposti per grandi cambiamenti nella storia umana e per l'avvento di uomini in grado di portare giustizia e pace all'umanità.
La conoscenza della precessione portò gli antichi a creare un vero e proprio strumento di pensiero secondo cui lo sviluppo e il passaggio delle ere cosmiche (il Sole che si sposta da una costellazione all'altra nel corso dei millenni) abbinato a particolari congiunzioni astrali o planetarie che si verificano in tempi secolari, avrebbero determinato i presupposti per modificare la storia umana e per permettere l'avvento di personaggi storici che avrebbero guidato l'umanità redenta verso un cammino di pace e giustizia, nonché riportato il Cosmo alla sua configurazione iniziale, depurato del suo turbamento iniziale che diede avvio alla battaglia cosmica tra bene e male.
Questo meccanismo, per quanto con sfumature e caratteristiche diverse, è presente anche nella cultura ebraica e nel messianismo presente in alcuni temi religiosi persiani che informarono diverse leggende e profezie sull'avvento di un Salvatore con poteri divini di cui parleremo più oltre.
L'astronomia precessionale è quindi il fondamento del principio dell'attesa messianica e tale strumento di pensiero cosmologico fu consacrato e implementato attraverso la realizzazione di una grande opera monumentale come la piramide di Cheope che oltre ad essere una rappresentazione in scala precessionale delle dimensioni del pianeta può essere visto anche come un misuratore precessionale delle epoche cosmiche.
Scorrendo infatti lungo il meridiano del punto di osservazione la costellazione di Orione è possibile individuare l'epoca in cui tale costellazione o altre si trovavano sull'orizzonte all'altezza corrispondente ai suoi condotti interni e quindi presumibilmente l'epoca in cui fu realizzato parte del manufatto oppure l'epoca a cui fu riferita la sua costruzione, indicando un punto di riferimento storico per un determinato evento.
La conoscenza di questo meccanismo astro-temporale, da parte dei sacerdoti astronomi antichi di tutte le culture del vicino oriente, spinse le caste sacerdotali a custodire la conoscenza di tale paradigma culturale nei termini di una conoscenza esoterica e creò le circostanze perché il movimento degli astri e la sua rappresentazione simbolica divenisse il fattore trainante dello sviluppo dei movimenti religiosi e messianici che attraversarono quelle straordinarie epoche che a noi ormai paiono così lontane.
Tale meccanismo divenne l'espediente per l'avvio dell'attesa messianica e in particolari circostanze e luoghi si crearono i fattori che legarono il culto astrale all'avvento dell'era messianica.
Ai sacerdoti astronomi dell'Antico Regno egizio era chiaro che il proprio orizzonte religioso e politico-sociale fosse limitato alla perpetuazione della religione osiridea, ma nel momento in cui la storia cominciò a cancellare la civiltà egizia, la sua cultura non venne cancellata ma si trasmise, sia nei termini della cultura ufficiale che nei termini di quella esoterica alle popolazioni e alle civiltà limitrofe che permisero la perpetuazione, anche sotto altre forme, delle pratiche religiose, esoteriche e astrologiche degli antichi sacerdoti eliopolitani.
È in questo contesto che la conoscenza dei luoghi, delle pratiche religiose, dei misteri insiti nei grandi monumenti megalitici egizi divennero patrimonio comune di tutti quei sacerdoti astronomi appartenenti anche a popoli diversi ma che avevano condiviso con gli egizi il culto delle stelle.
Tra le caste sacerdotali antiche possiamo annoverare i sacerdoti persiani, dediti al culto delle stelle e all'astrologia ed i sacerdoti sabei, appartenenti a questo popolo le cui origini si possono far risalire alla zona della penisola arabica dove quale erano presenti a partire almeno dal 1000 a.C..
I sacerdoti sabei erano dediti al culto degli astri e praticavano l'astrologia e vi sono testimonianze storiche di contatti commerciali e culturali tra i sabei, gli egizi e i popoli semiti almeno dall'epoca dei primi regni di Israele (dal XI-X secolo a.C.).
I fattori culturali comuni ai due popoli spinsero i sacerdoti astronomi sabei a conoscere i segreti delle antiche religioni astrali come quella egizia e furono tra i primi ad intuire il meccanismo astronomico di fondo che stava alla base della realizzazione delle piramidi della piana di Giza, qualunque fosse la finalità ufficiale per cui erano stati costruiti, fosse quella di conservare la mummia del Faraone o rappresentare la tomba di Osiride.
Comunque la si pensi resta il fatto che a partire da una certa epoca in avanti (almeno dal II millennio a.C.) gruppi di sacerdoti astronomi di diverse caste si recavano a cadenze temporali in pellegrinaggio presso la piana di Giza per visitare le piramidi e compiere antichissimi riti legati ai propri culti astrali.
Le piramidi di Giza oltre a presentare allineamenti astronomici con la costellazione di Orione, presentano una struttura del piano architettonico generale, con l'allineamento sulla stessa direttrice delle prime due e un leggero spostamento della terza rispetto alla stessa, che può essere considerato come una rappresentazione cartografica della cintura di Orione (le tre stelle Al Nitak, Al Nilam e Mintaka) e ciò lega indissolubilmente le tre piramidi di Giza al culto di Osiride, poiché come già detto per gli egizi Osiride era rappresentato da Orione.
I sacerdoti astronomi sabei e persiani e altre sette religiose antiche sapevano che Orione rappresentava il dio Osiride e quindi ne rappresentava anche l'espressione della sua stessa epopea (la sua morte e resurrezione e la sua venuta per giudicare le anime), per cui affinché si potesse perpetuare il suo culto essi posero le basi, adottando il meccanismo astronomico-precessionale delle ere cosmiche, per la creazione dell'attesa messianica e per la venuta futura di un Re di pace e giustizia nel mondo che avrebbe perpetuato il culto del dio Osiride. Il modo in cui essi operarono, all'ombra della storia ufficiale, è caratterizzato dagli strumenti di pensiero cosmologico e astrologico che permettono di leggere i segnali simbolici che provengono dal cielo quando si verificano determinate condizioni astrali (particolari congiunzioni planetarie, astrali in particolari epoche astronomiche).
Man mano che trascorrevano le epoche il fervore culturale legato all'attesa messianica subì un'accelerazione, nel momento in cui si presentarono le condizioni astrologiche che permettevano di leggere un chiaro messaggio relativo all'avvento di un personaggio storico che avrebbe avuto le qualità descritte nelle profezie. Profezie che ora appaiono lontani vaticini ma che all'epoca in questione risuonavano come un potente richiamo per tutti gli uomini di cultura e religiosi in merito al verificarsi dell'evento atteso.
Possiamo così verificare che presso gli Ebrei il profetismo cresce l'attesa per l'avvento del Messia in un'epoca compresa fra l'VIII secolo a.C. e il III secolo a.C. quando vengono scritti importanti libri come quello di Daniele, in cui vi è un chiaro riferimento all'avvento del Messia (la profezia dell'era messianica).
Allo stesso tempo compare in un'epoca compresa fra il VII e il V secolo a.C. una profezia, contenuta in antichi manoscritti persiani, scritti da sacerdoti zoroastriani, che parla dell'avvento di un Re-Sacerdote che sarebbe stato il Messia apportatore di pace e giustizia per l'umanità e che sarebbe nato in Palestina, presso il popolo di Israele.
Tra il II e il I secolo a.C. il meccanismo relativo all'attesa messianica raggiunge il suo apice, poiché in questo periodo si verificano una serie di condizioni che astronomicamente spingono gli astrologi a ritenere che si stia verificando l'evento messianico.
All'incirca tra il 200 e il 150 a.C. il punto equinoziale cominciò ad oscillare nella costellazione dei pesci, per cui il Sole passò dalla costellazione dell'Ariete a quella dei Pesci. Questo evento millenario (occorrono circa 2160 anni per il passaggio da un'era all'altra) venne letto come un potente segnale di un grande evento che avrebbe riguardato l'umanità e questo si sarebbe verificato con il Sole nella costellazione dei Pesci.
Approssimandosi alla data di nascita di Gesù, compresa tra il 7 e il 4 a.C. si verificarono una serie di congiunzioni astrali e planetarie molto rare, che si hanno una volta ogni mille anni circa e che ebbero l'effetto di fornire la certezza ai saggi astrologi che l'evento messianico fosse in corso.
Proprio il racconto evangelico della nascita di Gesù, contenuto nel Vangelo di Matteo, ci parla della nascita del Salvatore come di un importante evento astronomico che l'accompagna e che è definito, in modo generico come l'apparizione di una stella molto brillante nel cielo che apparendo ad oriente guidò i Magi, i saggi astrologi provenienti dall'Oriente, sulle orme del piccolo Gesù fino a Betlemme.
Così le cronache del tempo ed i cataloghi realizzati dagli astronomi di allora dimostrano che in epoca molto prossima alla nascita di Gesù abbiamo il passaggio della cometa di Halley intorno al 12 a.C.; a questa fa seguito la tripla congiunzione planetaria tra Giove e Saturno, visibile nel vicino oriente, che ebbe luogo nel 7 a.C. quando i due pianeti furono in congiunzione per ben tre volte, in maggio, in ottobre e in dicembre, nella costellazione dei Pesci.
Nel febbraio del 6 a.C. si verificò un raggruppamento di tre pianeti, Giove, Saturno e Marte (a pochi gradi l'uno dall'altro, sempre nella costellazione dei Pesci).
Sempre nel 6 a.C. si ebbe l'occultazione di Giove da parte della Luna in due date, il 6 marzo e il 17 aprile, nella costellazione dell'Ariete.
Nel periodo compreso fra marzo e aprile del 5 a.C. gli astronomi cinesi registrarono una stella "nova" nella costellazione del Capricorno, a cui fece seguito l'apparizione di due comete sempre tra il 5 e il 4 a.C., di cui comunque non c'è traccia in scritti e cronache del vicino oriente.
Nei due anni successivi si verificarono ulteriori congiunzioni planetarie e tra le più significative degli ultimi 3000 anni.
Nel 3 a.C. si verificò la congiunzione di Saturno e Mercurio il 19 maggio. Nel mese successivo Saturno entrò in congiunzione con Venere il 12 giugno in modo da essere estremamente brillanti fino a metà agosto dello stesso anno, nella costellazione del Cancro.
Nel settembre del 3 a.C. Giove si trovò in congiunzione con la stella Regolo, nella costellazione del Leone, congiunzione che si ripeté nel febbraio del 2 a.C. e ancora l'8 maggio del 2 a.C..
Il 17 giugno del 2 a.C. Giove e Venere furono in congiunzione sempre nella costellazione del Leone, mentre il 27 agosto dello stesso anno Giove, Marte, Venere e Mercurio formarono un raggruppamento sempre nella zona del Leone.
La lettura astrologica di questi eventi che seguirono tra il 7 e il 2 a.C. andò in direzione della nascita di un potente personaggio storico che avrebbe avuto dei poteri divini e avrebbe inaugurato una nuova era.
In particolare sulla tripla congiunzione planetaria tra Giove e Saturno nella costellazione dei pesci del 7 a.C. occorre dire che gli astrologi attribuivano a Giove il simbolo della regalità mentre Saturno era il simbolo di Israele e della Palestina ed i Pesci erano considerati come simbolo del popolo ebraico.
Tale congiunzione ebbe l'effetto di amplificare l'idea che un potente Re stava per nascere in Palestina presso il popolo ebraico, mentre sull'occultazione di Giove da parte della luna del 6 a.C. l'astronomo americano M. Molnar ha recentemente approfondito la questione affermando che tale fenomeno avrebbe rappresentato un'ulteriore conferma di un segnale preciso in merito alla nascita di un Re potente nella terra simboleggiata dall'Ariete (costellazione in cui avvenne l'occultazione), che era la Giudea e la Palestina secondo l'astronomo Claudio Tolomeo.
Le ipotesi relative alla data di nascita di Gesù e all'evento astronomico che l'accompagnò sono le più disparate ed esse, in linea di principio, possono indicare un quadro d'insieme di una serie di eventi astronomici che complessivamente indicarono l'evento messianico secondo l'astrologia antica. Tuttavia è viva l'impressione, guardando alle diverse ipotesi messe in campo in questi decenni e ultimi anni, che manchi qualcosa nel disegno complessivo dell'evento messianico e che ora andremo ad analizzare più attentamente.


per il resto della notizia prego ,kliccare il link:

http://www.edicolaweb.net/atlan23a.htm
Torna in alto Andare in basso
MASCHERA
junior
junior
MASCHERA



ATLANTi SEGRETi........ Empty
MessaggioTitolo: Re: ATLANTi SEGRETi........   ATLANTi SEGRETi........ Icon_minitimeVen 13 Nov 2009, 18:35

L'OSCURITÀ INTORNO A NOI


Il cammino dell'umanità ebbe inizio, secondo le scoperte della scienza moderna, almeno un milione di anni fa, con l'evoluzione lenta ma graduale verso l'homo sapiens. Dai primi ominidi fino a giungere all'uomo di Neandhertal e infine all'homo sapiens la storia dello sviluppo umano è ancora poco conosciuta dagli stessi paleontologi e archeologi per poter fornire un giudizio definitivo su quello che sia stato il percorso effettivo che ha portato allo sviluppo attuale.

In questo lungo percorso, fatto di centinaia di migliaia o di milioni di anni preistorici e di una "storia effettiva" che si riduce a poche migliaia di anni, vi sono delle tappe fondamentali che portano l'Uomo dalla presunta vita simile allo stato animale alla capacità di creare una civiltà evoluta, in cui il grande sviluppo riguarda un complesso di variabili in gioco:

Sviluppo tecnologico: porta l'uomo a costruire civiltà megalitiche in epoche che per noi oggi sono antichissime, come la civiltà egizia, babilonese, indiana, cinese, persiana, precolombiana, ecc..
Sviluppo della scrittura: l'uomo passa dalla capacità di esprimersi con una lingua orale a quella di servirsi di segni che esprimono concetti sulla pietra fino ad inventare un alfabeto che consente di consegnare all'eternità il pensiero umano.
Sviluppo dell'architettura urbana e delle istituzioni sociali-politiche-economiche: non appena l'uomo comincia ad organizzarsi in una comunità evoluta si sviluppano le comunità urbane, si vive in agglomerati che esprimono il concetto di comunità organizzata al suo interno, nella quale si sviluppano delle istituzioni che la regolano e che interagiscono con i suoi membri per ordinarne i rapporti. Queste istituzioni si sviluppano nel tempo divenendo sempre più complesse fino a raggiungere la massima complessità nell'epoca delle grandi civiltà del vicino oriente, quindi a partire almeno dal 3000 a.C.. Già nell'epoca delle grandi civiltà esiste un ordinamento statuale e codici che regolano il funzionamento della società anche da un punto di vista giuridico. Esiste una concezione del potere che si incarna nella figura del sovrano che detiene sia quello legislativo che quello esecutivo e giudiziario e che in parte detiene in sé anche il potere religioso. Esiste in queste società antiche un'organizzazione non solo del potere del leader politico ma anche delle risorse, quindi un vero e proprio sistema fiscale, un esercito per difendere i confini ed espanderli, addirittura un sistema di misure, un catasto dei terreni e fabbricati, ecc..
Sviluppo della religione: l'uomo passa dalle prime forme di espressione della spiritualità di tipo magico e animiste ad una vera e propria organizzazione del pensiero religioso di tipo politeista in cui si sviluppano vere e proprie dottrine religiose e cosmogoniche, con una vera e propria letteratura religiosa già nelle civiltà del vicino oriente e della valle dell'Indo.
Sviluppo delle conoscenze umane, delle arti e delle scienze: da una conoscenza empirica della sua stessa vita e delle esperienze quotidiane l'uomo passa ad una teorizzazione di tutto lo scibile. Nascono le grandi scienze relative al pensiero umano come la filosofia, la matematica, la geometria, la scienza medica, l'astronomia. Nascono anche le arti, intese come espressione della creatività umana già ben presente nella preistoria umana.
In linea di principio si può dire che tutte le civiltà antiche siano state caratterizzate dallo stesso cammino evolutivo passando da una fase "preistorica" ad una fase più evoluta. La sociologia, come scienza che studia l'evoluzione storica della società umana e la sua struttura, può senz'altro confermarci che anche nel futuro vi saranno delle costanti cui l'uomo non potrà mai rinunciare.
Eppure c'è da chiedersi fino a che punto questo possa essere considerato scontato oppure se si possa portare l'umanità verso un abisso insondabile, a causa della corsa verso l'ignoto iniziata con il progresso tecnologico moderno.
Considerazioni, parzialmente sibilline, che derivano da osservazioni e pensieri scaturiti dalla visione di due grandi pellicole cinematografiche che sono diventate, a distanza di oltre vent'anni dalla loro uscita, veri e propri cult movie della fantascienza e fantapolitica: Blade Runner (1982) e 1997 Fuga da New York (1981) rispettivamente di Ridley Scott e John Carpenter, due maestri del cinema americano.
Che cosa raccontano questi film che tanto hanno affascinato e spaventato il pubblico?

BLADE RUNNER
Film, ambientato nella Los Angeles del 2019, espone uno scenario futuribile relativo ad un'epoca prossima alla nostra. All'inizio del XXI secolo una società di bioingegneria genetica americana, la Tyrrell Corporation, porta la ricerca scientifica sulla robotica ad uno stadio tale da riuscire a realizzare dei Replicanti, cioè degli esseri che, pur essendo realizzati con una tecnica mista che unisce la robotica con l'ingegneria genetica, sono in tutto e per tutto simili agli esseri umani, al punto da divenire in grado di provare emozioni dopo poco tempo dalla loro attivazione, emozioni che sono tipiche della vita umana (rabbia, invidia, odio, paura, passione, amore, desiderio di potere). Lo stadio a cui giunge la ricerca permette al Dott. Tyrrel di creare una generazione di super-esseri che viene definita Nexus 6, in tutto e per tutto uguali agli Uomini ma molto più potenti fisicamente e resistenti. Per evitare che possano diventare un pericolo per l'umanità il proprio codice genetico viene limitato per garantire una durata breve della vita, non superiore a 4 anni. I Replicanti Nexus 6 vengono impiegati nelle missioni più pericolose e nell'esplorazione e colonizzazione dello spazio e per la costruzione e la gestione delle colonie extramondo, ma la situazione sfugge di mano alle autorità terrestri. I Nexus 6 si ribellano e resisi conto della loro vita limitata cercano di tornare sulla Terra nella speranza di poter allungare la propria vita e di ottenere l'immortalità. Le autorità incaricano allora l'agente scelto Deckard (Harrison Ford), che fa parte delle Unità Speciali che si occupano dell'eliminazione dei Replicanti pericolosi, di uccidere cinque replicanti sfuggiti al controllo. Deckard riesce in modo avventuroso e con grandi colpi di scena ad uccidere quattro replicanti ma si innamora di una di essi, Rachel, con la quale cerca di fuggire nel finale quando scopre di essere anche lui un replicante. Il finale è sconcertante e lascia aperta la porta ad ogni possibilità.

1997: FUGA DA NEW YORK
Del 1981, questo film mette in luce uno scenario relativo al futuro prossimo. Nel 1988 il tasso di criminalità raggiunge il 400% negli Usa. Il governo decide allora, stante l'impossibilità di gestire una grande megalopoli come New York, di trasformare l'isola di Manhattan in un carcere di massima sicurezza, circondato da un muro di 15 metri di altezza che corre lungo il perimetro dell'isola. All'interno dell'isola-carcere i detenuti possono muoversi "liberamente" (si organizzano così in bande e sono abbandonati a se stessi) ma una volta entrati non è possibile più uscirne, pena la morte. Chiunque tentasse l'evasione verrebbe eliminato dalla polizia che sta perennemente a guardia della città trasformata in uno strumento di punizione e di morte sociale. Tutti i reietti dalla società vengono condannati ad una pena che è peggiore della pena di morte in quanto tale, poiché sono condannati a soffrire fino alla fine dei propri giorni all'interno della città di New York trasformata in un inferno di orrore, sopraffazione, paura, fame, malattia, violenza, un luogo infernale nel quale prevale solo il più forte, il quale troverà prima o poi sulla sua strada qualcuno più forte di lui. Questo meccanismo infernale, che schiaccia qualunque individuo si sia macchiato del minimo reato per il quale viene espulso dalla società, finisce con lo travolgere le stesse autorità istituzionali. Infatti proprio l'aereo presidenziale cade, a causa di un dirottamento, all'interno della città-prigione, mentre il Presidente si sta recando ad un vertice militare programmato con la Cina e la Russia. Il Presidente viene rapito dai detenuti e tenuto in ostaggio in cambio della loro liberazione. L'alto commissario Hauke decide allora di tentare un'azione, una sorta di missione impossibile, dando l'incarico all'ex tenente S.D. Plisken (Kurt Russell), ora detenuto in attesa di essere inviato a Manhattan per rapina e altri reati, di entrare nella città con l'oscurità, di raggiungere il Presidente (che aveva al braccio un segnalatore a radiofrequenza) e di portarlo in salvo, poiché l'intervento della polizia in modo massiccio avrebbe determinato la morte dell'ostaggio. Per compiere la sua missione Plisken deve calarsi sulla città inosservato per mezzo di un aliante che gli permetta di atterrare sul tetto del World Trade Center. Egli è l'unica persona in grado di compiere una missione segreta di questo tipo data la sua esperienza di eroe di guerra pluridecorato e la dimestichezza con l'aliante che altri non hanno. In cambio Plisken otterrà una grazia speciale per i crimini commessi negli Usa e sarà reintegrato nella società. Il tenente Plisken, sotto la minaccia di due capsule esplosive iniettate nelle arterie, riesce a compiere la sua missione fra incredibili colpi di scena e al termine del film si fa beffe delle stesse autorità nelle quali non ha più fiducia.

CONSIDERAZIONI CONCLUSIVE
Le due opere di Carpenter e Scott non sono solo film di fantascienza ma piuttosto pellicole che mettono in risalto una profonda spaccatura socio-politica che potrebbe esistere in futuro all'interno della società umana, trasformata in una società anti-umana.
I protagonisti si muovono in uno scenario prossimo futuro, ma non fra mostri e alieni che vogliono far del male all'uomo ma all'interno della società dove gli uomini fanno male a se stessi.

In particolare, il personaggio di Jena è un uomo e come tale un eroe di guerra caduto in disgrazia che può riscattarsi compiendo una missione impossibile. Egli vive la vicenda solo per salvarsi la vita e non per spirito di appartenenza in qualcosa in cui non crede, e nella sua discesa agli inferi incontra personaggi e si muove in scenari terrificanti. Palazzi semidistrutti, incendi appiccati da esseri errabondi con bottiglie in mano, negozi e supermercati pieni di topi, esseri simili a zombie cannibali e vestiti di stracci che escono dalle fognature in cerca di carne umana, mostri che non hanno più nulla di umano e si muovono sulla scena come fantasmi. E sopra a tutto ciò domina l'oscurità, una tetra e buia notte, che vuole essere soprattutto la Notte dell'umanità, una notte simbolica, cioè il venire meno di qualunque tipo di luce, e forse di speranza. La speranza che l'umanità possa vivere il proprio futuro in pace, nell'uguaglianza, nello sviluppo armonico dell'economia e della società. Tutte queste speranze sono disattese e gli esseri che non appartengono alla società ma che si sono macchiati di un'onta indelebile sono espulsi dalla società e relegati a carne da macello all'interno del carcere di massima sicurezza da cui nessuno può più uscire, pena l'eliminazione fisica. Non esiste possibilità di recupero sociale per questi esseri che lo Stato del futuro vuole annientare, abbandonare a se stessi. Da una parte del muro i mostri infernali che devono essere espulsi dalla società e dall'altra i Giusti che vivono in una sorta di Eden che non ci viene mostrato.
Jena appartiene ad una umanità che ha già superato il concetto di istituzioni socio-politiche e vive proiettato in un futuro che in realtà è un ritorno al passato di una preistoria umana in cui vi sono peculiarità sociali e umane anteriori allo sviluppo della società organizzata. L'umanità che traspare dal film è un'umanità preistorica in cui vi sono anche i cannibali e in questo contesto Jena si adatta perfettamente.
Lo scenario apocalittico che traspare da questo film tetro e oscuro è l'annientamento della civiltà umana, cioè una dinamica regressiva in cui la società organizzata esplode o meglio implode per dare luogo ad una miriade di sfaccettature socio-culturali che sono comunque legate ad una violenza infernale. Il tema dello scontro di civiltà non è alla portata di questo film perché il problema islamico non era evidente nel 1981, ma traspare lo scontro razziale, in cui il capo di New York è un nero che si fa chiamare il Duca e che domina sulla città.
Tuttavia questo è l'ultimo dei problemi, perché il problema più grande è il venir meno della civiltà e delle regole anche per i carcerati, perché in un carcere ci sono delle regole, mentre qui non esiste più nessun ordinamento interno e gli uomini o esseri che dir si voglia sono messi l'uno contro l'altro pronti a mangiarsi o sgozzarsi l'uno con l'altro. Chi ha creato tutto questo può dirsi migliore di quegli esseri che sono dentro a quelle mura?
A questa domanda nessuno può rispondere o meglio tutti possono rispondere almeno nel proprio animo interpellando la propria coscienza. Il messaggio anche politico che traspare da questa pellicola e che secondo me giustamente Carpenter ha messo bene in luce è che quando la società non si evolve verso una "rivoluzione" democratica che abbia al centro i valori dell'uguaglianza, della libertà, della giustizia sociale ed economica, allora può implodere su se stessa e regredire verso una forma di cieca e brutale violenza in cui anche se il contenitore, la cornice politica e istituzionale sembra democratica, in realtà siamo di fronte ad una forma di dittatura latente, perché non c'è libertà senza giustizia sociale, non c'è giustizia senza democrazia economica, senza valori condivisi.
Inoltre il film mette in luce quello che appare come un fallimento delle istituzioni politiche. Infatti che razza di nazione democratica è una nazione che non riesce a combattere la violenza e il disagio sociale? Una nazione che trasforma il proprio gioiello, la propria città-simbolo in un carcere di massima sicurezza da cui nessuno può più uscire?
Va messo in luce che alcune tematiche narrative di "1997 Fuga da New York" anticipano in modo quasi profetico, vent'anni prima dell'11 settembre, il dramma e l'orrore del terrorismo come forma di lotta politica e sociale. Infatti come nell'attentato dell'11 settembre anche qui c'è un aereo dirottato da terroristi, aereo che si schianta contro i grattacieli di New York, aereo guidato da una terrorista kamikaze, che si uccide e che utilizza le persone per uccidere le persone, per colpire il nemico. In tal senso il film appare come uno scenario profetico di ciò che avrebbe atteso l'umanità nel prossimo futuro e che in parte si è già realizzato.
Invece Deckard, il protagonista di "Blade Runner", si muove in uno scenario futuristico in cui il mondo sembra inghiottito da una perenne oscurità, nella quale non esiste più la luce del giorno e non c'è più differenza tra il giorno e la notte; inoltre gli esseri umani sono condannati a subire la caduta di una pioggia fine ed insistente. La grande megalopoli, con architetture futuristiche, schiaccia e avvolge l'umanità con un'architettura urbana di tipo verticale, in cui i trasporti sono garantiti da macchine volanti che possono anche essere usate come veicoli stradali.
La vita "reale" si svolge negli edifici in cui vi sono le sedi delle autorità istituzionali, mentre veicoli perennemente in movimento sopra i grattacieli e con luci spettacolari pubblicizzano con voci e immagini le colonie extramondo invitando i cittadini a partecipare alle selezioni. Giù, sotto, nelle strade che un tempo erano le strade di asfalto, vi è un'umanità perduta formata da prostitute, loschi individui, poveri, derelitti, ristoratori che vendono strani prodotti alimentari, persone che si riuniscono in mercatini improvvisati dove vendono prodotti impensabili (come i serpenti clonati) e in genere tutti i reietti dalla società che non sa cosa farsene di queste persone che non sono state selezionate per vivere nelle colonie extramondo; è in questa umanità perduta che si muove Deckard nella lotta contro i replicanti.
Gli esseri umani in realtà sono esclusi dalla vita reale e si ha quasi la sensazione che sulla scena si muovano solo i replicanti contro l'ultimo degli uomini, ma alla fine si scopre che anche lui è un replicante...
Che fine hanno fatto gli esseri umani?
In questo film in realtà l'umanità non esiste più e sembra essere esautorata dalle macchine parlanti.
Alla fine ciò che importa è che questi individui abbiano preso il posto della vecchia umanità per creare una nuova umanità in cui Deckard e Rachel sembrano una sorta di nuova coppia adamitica, comunque più "umani" degli umani.
La sensazione che si prova è quella di un futuro apocalittico, non nel senso di un olocausto atomico, ma piuttosto derivante da un'evoluzione "naturale" della storia umana.
Siamo di fronte ad un avvertimento di quanto può accadere nel futuro prossimo dell'umanità.

Abbiamo brevemente preso in considerazioni solo ed esclusivamente le tematiche socio-politiche relative al futuro dell'umanità, senza considerare il ruolo che avranno i cambiamenti ambientali su cui torneremo in un prossimo articolo. La conclusione cui si giunge è che qualunque ottimismo sul futuro dello sviluppo tecnologico e socio-politico della civiltà umana debba essere quantomeno temperato dalle considerazioni fatte più sopra.
La sensazione che si prova all'inizio del nuovo millennio è che l'umanità abbia intrapreso un veloce cammino verso una netta separazione tra il nord e il sud del mondo, in cui le disuguaglianze anziché essere ridotte siano amplificate da un abbandono totale del sud del mondo da parte dei paesi occidentali.
A parte tutte le buone intenzioni sbandierate durante i vertici periodici che si tengono per fare il punto della situazione, non sembra che i grandi problemi del mondo siano stati fin ora affrontati con quella volontà politica di risolverli alla radice con un grande sforzo comune.
Va aggiunto che i grandi cambiamenti epocali cui sta andando incontro la comunità mondiale con la globalizzazione dell'economia, spingeranno in futuro i paesi di tutti i continenti a creare veri e propri blocchi politici in cui sarà realizzata l'unità politica di federazioni di stati.
Un processo politico di unificazione riguarderà proprio la nostra Vecchia Europa che, volente o nolente, dovrà diventare prima o poi gli Stati Uniti d'Europa. Lo stesso vale anche per altri continenti come l'Africa nel quale nascerà l'Unione Africana e così via.
Blocchi che si contenderanno le risorse e che dovranno fare al più presto i conti con le crisi energetiche che colpiranno il pianeta nei prossimi 50 anni, quando le risorse petrolifere cominceranno a scarseggiare.
A questo scenario socio-politico relativo alle grandi questioni internazionali, si aggiungeranno gli scenari interni, relativi al grado di sviluppo armonico delle società del futuro.
Quale sarà il destino di milioni di uomini, donne, giovani, anziani?
Come potremo garantire uno sviluppo economico tale per cui ci sarà lavoro per tutti?
Quale sarà il ruolo che potranno avere le generazioni future nello sviluppo della società?
Milioni di persone saranno tagliate fuori da qualunque ruolo attivo e crescerà il disagio sociale per cui si avrà lo scenario di "1997 Fuga da New York" di Carpenter?
A ciò si aggiunge lo scenario relativo al grado di sviluppo delle tecnologie che permetteranno di intervenire geneticamente sulla propria specie e sul regno animale e vegetale, in modo da modificare ciò che la natura ha modellato per centinaia di milioni di anni.
Se in parte questo scenario desta interesse per i risultati positivi della ricerca scientifica per la cura di malattie genetiche gravi e svariati tipi di patologie, c'è da chiedersi quale sarà il destino di milioni di persone che potranno essere manipolate geneticamente fin dal proprio concepimento, o per il quale sarà possibile clonare il proprio essere!
Su altre questioni sembra che lo scenario sia più roseo, poiché si prospetta la possibilità in un futuro che è già cominciato di avere computer sempre più potenti e piccoli che permetteranno di scambiare informazioni e dati a velocità sempre maggiore.
Per quanto riguarda la capacità dell'uomo di muoversi, si effettueranno viaggi a velocità sempre maggiore con i treni a levitazione magnetica ed aerei supersonici in grado di volare nella stratosfera. L'uomo colonizzerà presto lo spazio con basi lunari e marziane e niente può escludere che milioni di persone potranno emigrare su nuovi mondi.

Lo scenario descritto nei film di cui abbiamo parlato mette in luce una grande contraddizione: cioè grande sviluppo tecnologico ma regresso economico-sociale della civiltà futura.
Una grande paura del futuro incombe sulla civiltà umana, che mai come ora sembra di fronte ad un bivio, a scelte epocali, tra la salvaguardia della vita e il baratro di un apocalisse.
L'umanità potrebbe sprofondare in un regresso della sua storia verso forme sociali protostoriche; pochi privilegiati con il controllo della conoscenza e della tecnologia ed il resto della popolazione umana ridotta a zombie. Un futuro infernale dal quale potremmo non risollevarci più.

http://www.edicolaweb.net/atlan24a.htm
Torna in alto Andare in basso
MASCHERA
junior
junior
MASCHERA



ATLANTi SEGRETi........ Empty
MessaggioTitolo: Re: ATLANTi SEGRETi........   ATLANTi SEGRETi........ Icon_minitimeVen 13 Nov 2009, 18:33

LA STRUTTURA DELLA MATERIA


L'Uomo da sempre è affascinato, nella sua instancabile e continua ricerca della Verità e dell'Assoluto, dai misteri del Cosmo nel suo complesso e in particolare dal mistero della comprensione di come sia strutturata la materia che ci circonda e che pervade l'Universo stesso.

La comprensione di cosa sia la materia e quali siano le sue caratteristiche intrinseche ha rappresentato da sempre il punto di riferimento guida degli scienziati che per secoli e millenni hanno cercato di scoprirne i misteri a beneficio della conoscenza umana.
Ognuno dei grandi studiosi del passato ha lasciato un'impronta indelebile dando un contributo fondamentale al cammino e allo sviluppo dello scibile e di essi cercheremo ora di sintetizzare il pensiero e le grandi scoperte che hanno permesso all'Umanità di progredire verso la conoscenza dei segreti stessi dell'Universo.

CENNI STORICI SULLO STUDIO DELLE TEORIE ATOMICHE
Già nell'Antichità, in diverse epoche, studiosi come Democrito, Leucippo, Epicuro, Lucrezio nel IV sec. a.C., ipotizzarono con valide argomentazioni che la materia fosse composta da particelle "minime" che non potevano essere ulteriormente divisibili (da ciò il termine "atomo" che in greco significa non divisibile).
In epoca successiva, a causa del prevalere delle dottrine aristoteliche che avversavano l'ipotesi atomista, questa teoria fu abbandonata per poi essere ripresa solo in epoca moderna, quando lo sviluppo del pensiero filosofico e scientifico si fece più vivo, a partire dal XVII e XVIII secolo.
Per giungere ad una vera e propria teorizzazione sulla struttura della materia si dovette attendere, tuttavia, l'inizio del XIX secolo, quando lo scienziato inglese John Dalton scoprì con i suoi esperimenti di chimica le prime prove della struttura atomica della materia. Egli infatti intuì che le reazioni e i fenomeni chimici che determinano la formazione di sostanze chimiche avveniva sulla base di rapporti ben determinati fra le stesse in modo tale che fosse ipotizzabile la suddivisione della materia sulla base di una sua precisa struttura atomica. Sulla base delle poche conoscenze scientifiche di cui poteva avvalersi all'inizio dell'800 egli formulò la sua teoria atomica fondata su quattro punti fondamentali:

la materia è formata da particelle elementari chiamate atomi;
gli atomi di uno stesso elemento sono tutti uguali tra loro;
gli atomi non sono ulteriormente scomponibili;
gli atomi non possono essere né creati né distrutti;
È interessante notare che John Dalton rilevò nei suoi esperimenti che le masse degli atomi delle diverse sostanze chimiche differivano fra di loro, determinando in tal modo una più che plausibile ipotesi relativa ad una particolare struttura della materia che non poteva limitarsi a considerare l'atomo come la particella più piccola in cui era suddivisa la materia stessa priva, quindi, di una sua struttura interna.
Per diversi anni gli studiosi considerarono in modo acritico la teoria atomica di Dalton come una valida teoria sulla struttura della materia.
È importante tuttavia ricordare che nel corso del XIX secolo si ebbe lentamente una vera e propria evoluzione del concetto di atomo e delle ipotesi sulla struttura della materia; ipotesi fatte soprattutto grazie all'evoluzione fondamentale degli studi sull'energia elettrica le cui origini erano ancora sconosciute all'inizio del secolo.
In questo periodo la scoperta dei raggi catodici riaccese l'interesse dei fisici sulla natura corpuscolare o ondulatoria della luce e ciò permise di approfondire gli studi che di lì a poco avrebbero risolto la questione e fatto giungere ad una prima vera teorizzazione sui modelli atomici.
Alla fine dell'800 il fisico J.J. Thomson (1856-1940) con le sue ricerche dimostrò che i raggi catodici erano deviati da un campo elettrico ed inoltre che i raggi catodici erano delle particelle cariche negativamente (elettroni) mentre furono individuate anche altre particelle di carica opposta.
Thomson riuscì anche a calcolare il rapporto carica/massa.
Successivamente il fisico Millikan riuscì a calcolare la carica elettrica minima portata da una particella (1.6x10-19 Coulombs) riuscendo così a definire la massa degli elettroni; massa che risultava molto più piccola rispetto a quella dell'atomo di idrogeno (1/1830).
I risultati delle scoperte di Thomson e Millikan dimostrarono che l'atomo non era la particella minima da cui era composta la materia e dal quel momento si cominciarono a teorizzare i primi modelli relativi alla struttura atomica della materia stessa.

IL MODELLO PLANETARIO
All'inizio del XX secolo diversi esperimenti dimostrarono che la struttura atomica della materia poteva rifarsi ad un modello di tipo planetario-orbitale.
Nel 1911 il fisico Rutherford compì un importante esperimento di fisica. Egli bombardò un sottilissimo foglio metallico (una lamina d'oro dello spessore di 10 mila atomi) con particelle a (atomi di elio ionizzati) e dall'esperimento risultò che la maggior parte di queste particelle attraversava "senza ostacoli" la lamina metallica mentre soltanto alcune venivano deviate come conseguenza della repulsione elettrostatica.
Da ciò si poteva evincere che la maggior parte della massa era concentrata in uno spazio di dimensioni molto ridotte rispetto all'atomo, che fu chiamato nucleo.
Lo stesso Rutherford calcolò che il rapporto tra il diametro dell'atomo (10-8 cm) e quello del nucleo (10-12 cm) fosse pari a circa 10 mila.
Secondo questo schema teorico l'atomo era formato da un nucleo carico positivamente al centro e gli elettroni in orbita attorno al nucleo in rotazione.




Il modello planetario di Rutherford era uno schema teorico estremamente affascinante (nel senso che spiegava la struttura della materia sulla base di una composizione logica fondata sui modelli planetari) ma fu fin da subito messo in discussione dai fisici a causa di alcune osservazione sperimentali già notate nel momento stesso in cui veniva elaborato.
Fu infatti notato che un elettrone in movimento irradia energia sotto forma di radiazione elettromagnetica, per cui lungo la sua orbita intorno al nucleo l'elettrone avrebbe dovuto perdere progressivamente la sua energia fino a "cadere" sul nucleo.
In altri termini la teoria planetaria di Rutherford non era in grado di spiegare la stabilità degli atomi in certe condizioni.

L'ATOMO DI BOHR
Le problematiche insite nella conoscenza della struttura atomica fornite dal modello planetario di Rutherford furono affrontate in modo innovativo tra il 1913 e il 1922 dal fisico danese Niels Bohr; questi introdusse una serie di analisi volte a dimostrare l'inadeguatezza dell'elettrodinamica classica per poter spiegare il comportamento di un sistema atomico.
Bohr propose un modello alternativo della struttura atomica dell'idrogeno che pur mantenendo valida la struttura classica a nucleo centrale ed elettroni periferici, si fondava su due nuovi postulati:

l'elettrone può percorrere solo certe orbite sulle quali non si verifica perdita di energia per irraggiamento;
l'emissione o l'assorbimento di energia sotto forma di radiazione avviene rispettivamente quando l'elettrone passa da un'orbita a un'altra più interna o più esterna.
Le orbite permesse sono individuate da un numero intero n, detto numero quantico principale o totale, che può assumere i valori 1, 2, 3…

ATLANTi SEGRETi........ Atomo22ATLANTi SEGRETi........ W176

Struttura atomica dell'idrogeno

Successivamente altri studiosi estesero la teoria di Bohr al caso di orbite ellittiche.
Per descrivere l'atomo di idrogeno Sommerfeld ipotizzò che non vi è emissione di energia quando l'elettrone si trova in un'orbita stazionaria definita da un particolare diametro.
L'ipotesi di Bohr si appoggiava sulla teoria di Max Planck secondo cui l'emissione di energia da un sistema atomico avviene in modo non continuo ma secondo distinte emissioni separate descritte dall'equazione

con n = numero intero h = costante di Planck pari a circa 6,63x10-34 Joules e v = frequenza della radiazione emessa.
La teoria di Bohr soddisfaceva l'ipotesi per cui l'elettrone nel suo moto intorno al nucleo potesse occupare solo alcune particolari orbite stabili secondo la relazione

in cui mvr (m = massa, v = velocità ed r = raggio dell'orbita) indica il momento angolare dell'elettrone.
Grazie a questa relazione Bohr calcolò il raggio dell'orbita dell'elettrone intorno al nucleo nell'atomo di idrogeno e questo risultò pari a 0,53 Angstrom.
Alla base delle scoperte di Bohr stavano gli esperimenti sulle radiazioni elettromagnetiche emesse dagli atomi in certe condizioni da cui risultò che l'idrogeno è capace di emettere non una gamma continua di frequenze ma bensì un numero limitato di frequenze.



Spettro dell'idrogeno

Ad ognuna delle righe dello spettro corrisponde un ben determinato livello di energia.



Livelli energetici

Lo studio della relazione tra energia e lunghezza d'onda rappresentò un problema notevole per gli studiosi del primo Novecento, fin quando Planck introdusse l'equazione sopra descritta.
Risultò così evidente che gli atomi possono esistere solo in certi stati caratterizzati da determinati livelli di energia e possono passare da uno stato all'altro emettendo o assorbendo un'energia pari alla differenza energetica dei diversi stati.

NUOVI MODELLI ATOMICI - LA MECCANICA QUANTISTICA
La teoria di Bohr sulla struttura di un sistema atomico per l'idrogeno e per gli atomi che possono essere qualificati come monoelettronici (tra cui He+, Li2+, Be3+ ecc.) che ebbe inizialmente un grande successo, ben presto ci si accorse che non concordava con le risultanze sperimentali.
Ci si rese infatti conto che l'estensione della sua teoria ad atomi con coppie di due o più elettroni non otteneva i risultati sperati nel confronto con i dati sperimentali e quindi la teoria atomica di Bohr restava sostanzialmente una teoria legata ad una visione classica dell'elettrodinamica in cui per lo studio e l'analisi delle particelle subatomiche come l'elettrone si ipotizzava di poter determinare in ogni istante, in modo deterministico, la posizione e la velocità secondo la fisica classica.
Bohr aveva dato un contributo determinante allo studio della fisica relativa al modello atomico dell'idrogeno ma i fisici avvertirono il limite insito nelle sue teorie e negli anni a venire (tra il 1920 e il 1930) impressero uno sviluppo notevole allo studio e all'analisi dei modelli atomici e alla struttura della materia.
Un grande contributo in questo periodo venne da illustri fisici che lasciarono un'impronta indelebile nella storia della fisica moderna.
Nel 1923 il fisico francese De Broglie introdusse l'ipotesi per cui ad ogni particella in movimento potesse essere associata un'onda




In sostanza de Broglie suppose che analogamente alla luce e alle radiazioni elettromagnetiche in generale, anche le particelle subatomiche potessero presentare in determinate circostanze proprietà ondulatorie in modo tale che per esse, in movimento ad una velocità v fosse possibile associare una lunghezza d'onda definita dalla relazione

in cui h è ancora la costante di Planck pari a circa 6,63x10-34 Joules, v indica la velocità e m la massa della particella.
Secondo questa relazione, quindi, la lunghezza d'onda di un elettrone è inversamente proporzionale alla sua quantità di moto.
Questa importante ipotesi trovò conferma in esperimenti che dimostrarono le proprietà di interferenza e di diffrazione degli elettroni e da tale ipotesi gli studiosi dedussero importanti conseguenze sulle proprietà della materia.
I fisici capirono che se nell'atomo di Bohr l'elettrone assume nel suo moto orbitale un andamento ondulatorio occorre che tale movimento ondulatorio sia stabile (si formi cioè un'onda stazionaria stabile) e ciò avviene quando la circonferenza dell'orbita 2r è uguale ad un numero intero n (detto numero quantico principale) di lunghezza d'onda pari a , cioè quando si verifica la relazione

se ciò non fosse possibile le onde associate alla particella subatomica interferirebbero distruggendosi e rendendo energeticamente instabile l'atomo.
Le prove sperimentali realizzate in quegli anni andavano in direzione di una rappresentazione ondulatoria della struttura delle particelle subatomiche.
Da ciò gli studiosi dedussero che nel mondo subatomico le particelle che componevano la struttura atomica non potessero essere soggette ai postulati della fisica classica; nel senso che appariva impossibile, attraverso dei modelli deterministici, descrivere esattamente il moto degli elettroni in un sistema atomico. A tali modelli classici si preferì sostituire dei modelli probabilistici che descrivessero con buona approssimazione la struttura della materia e di un sistema atomico.
Ciò comportò la necessità di elaborare una nuova meccanica che descrivesse la fisica delle particelle, la quale prese il nome di meccanica quantistica.
Con l'introduzione della meccanica quantistica e della meccanica ondulatoria fu abbandonato il concetto classico di orbita e fu introdotto il concetto di orbitale




che può essere definito come uno spazio intorno al nucleo di un atomo, definito da una superficie di equiprobabilità (quindi da una funzione di densità di probabilità), in cui vi è una probabilità molto elevata che vi si trovi in un determinato istante l'elettrone (per esempio una probabilità del 95%). Cioè l'orbitale non può più essere visto come una traiettoria su cui si muove un elettrone nel suo moto intorno al nucleo ma bensì come uno spazio in cui con probabilità elevata si trova l'elettrone.
Questo perché per la fisica dei quanti non ha più senso parlare di traiettoria di una particella e quindi non è neanche possibile stabilire con precisione dove si trovi un elettrone in un dato istante, dato il "Principio di indeterminazione di Heisenberg".

LA MECCANICA QUANTISTICA E LA MECCANICA ONDULATORIA: LE EQUAZIONI D'ONDA

Le ipotesi introdotte da De Broglie, secondo cui ad ogni particella possa essere associata un'onda la cui lunghezza è inversamente proporzionale alla sua quantità di moto e che quindi tutte le particelle esistenti in natura si comportino con andamento ondulatorio, fu accettata in modo entusiastico dagli studiosi dell'epoca (1920-1930).
In questo periodo il fisico austriaco Erwin Schrodinger, partendo dalle ipotesi di De Broglie, propose un modello matematico di equazioni che mette in relazione l'energia cinetica e l'energia potenziale con l'energia totale di un sistema atomico per ogni coppia di coordinate spaziali.
Dove è la frequenza angolare o pulsazione intesa come quella centrale del pacchetto d'onde, k è il vettore d'onda che identifica la direzione di propagazione del pacchetto, E è l'energia associata alla particella e p il suo impulso cinetico.
Una volta che fu associato ad una particella il pacchetto d'onda gli studiosi si trovarono davanti la necessità di individuare quale fosse l'equazione che descrivesse l'evoluzione dello stesso compatibilmente con la nuova meccanica quantistica interpretandone le soluzioni.
Il problema, estremamente complesso venne risolto applicando l'operatore matematico di d'Alambert. Si ottenne così l'espressione
considerando inoltre la relazione relativistica dell'energia si ottenne così

l'espressione sopra indicata è l'equazione di Klein-Gordon in cui appare al secondo membro una sorgente della particella con lunghezza d'onda di Compton e che descrive la propagazione nello spazio di un'onda elettromagnetica.
Schrodinger ottenne così la propria equazione da quella di Klein-Gordon nel limite non relativistico, considerando per l'energia lo sviluppo in serie al primo ordine del tipo:
in tal modo l'equazione di Klein-Gordon si riduce a quella di Schrodinger per la particella libera:
è importante precisare che le soluzioni dell'equazione d'onda di Schrodinger diedero luogo inizialmente a difficoltà interpretative relative alla corretta considerazione della funzione d'onda.
Infatti considerando il quadrato del modulo di cioè = |2| inizialmente si teorizzò che fosse descrivibile come la densità di materia contenuta nel volume dR in modo tale che l'equazione derivabile da quella di Schrodinger rappresentasse la conservazione della massa.
Tuttavia questa interpretazione risultò errata in quanto le evidenze dei risultati sperimentali ottenuti in quel periodo sulla diffrazione degli elettroni dimostrarono che gli elettroni avevano un andamento ondulatorio e quindi interferivano come le onde luminose ma si comportavano come particelle (quindi con caratteristiche corpuscolari) quando venivano considerate isolatamente.
Da ciò si dedusse che per comprendere appieno la diffrazione e l'interferenza degli elettroni la funzione d'onda (r, t) doveva essere vista come una proprietà d'insieme delle particelle, cioè di un pacchetto d'onda piuttosto che di una proprietà di singole particelle.
Storicamente si può dire che l'interpretazione corretta della funzione d'onda si ottenne dagli studi di Max Born analogamente alla teoria ondulatoria della luce secondo cui il quadrato dell'ampiezza dell'onda luminosa poteva essere interpretato come funzione di intensità che equivaleva al numero di fotoni presenti.
Così mentre il valore di poteva essere considerato come ampiezza della funzione d'onda, il valore di 2 poteva essere considerato come la probabilità di trovare l'elettrone in uno spazio infinitesimo di coordinate x, y, z; più in particolare si può dire che se in un punto r (x, y, z) la funzione d'onda ha ampiezza pari a , la probabilità di trovare l'elettrone in un volume infinitesimo di spazio x è proporzionale a 2.
Fu quindi introdotta un'interpretazione di natura statistico-probabilistica secondo cui la giusta interpretazione della funzione d'onda comportava la normalizzazione dell'equazione di riferimento, poiché essa faceva riferimento ad una probabilità.
L'equazione di continuità derivata dall'equazione di Schrodinger rappresentava l'insieme delle soluzioni possibili dell'equazione stessa. Queste sono date da tutte le funzioni complesse, tali per cu
dove l'integrale indefinito della funzione 2 indica che la somma delle probabilità di trovare la particella in un punto dello spazio intorno al nucleo deve convergere ad un valore finito N; questa costante viene posta per convenzione pari a 1 poiché per motivi interpretativi la probabilità calcolata sull'integrale deve essere uguale a 1, in quanto deve trattarsi di una probabilità certa.
Infatti l'interpretazione matematica dell'integrale di una funzione f(x) ci indica che l'integrale può essere considerato come il valore dell'area di una superficie per cui, nel caso tridimensionale, ci indicherà un volume di spazio infinitesimo nel quale è certa la probabilità di trovare la particella anche se non è possibile determinare istantaneamente la sua posizione orbitale.
Generalizzando gli studiosi hanno formalizzato il modello probabilistico di riferimento partendo dal presupposto che essendo un'equazione differenziale al primo ordine temporale, l'equazione di Schrodinger doveva essere affiancata dalla condizione temporale di riferimento per la funzione d'onda del tipo t = 0 da cui si ottiene:

in modo che sia verificabile la sua evoluzione temporale.
Poiché la giusta interpretazione della funzione d'onda è che P (x,t)dx = |(x, t)|2dx essa rappresenta la probabilità che la particella si trovi nell'intervallo x, x+dx con la normalizzazione della funzione d'onda generalizzata tale per cui

che rappresenta il fatto che la probabilità di trovare la particella in qualche punto dello spazio (unidimensionale o tridimensionale che sia) deve essere certa (cioè uguale a 1, poiché la probabilità assume sempre valore compreso fra 0 e 1).
Per l'elettrone dell'atomo di idrogeno la funzione d'onda normalizzata è pari a

dove a0 è pari a 0.53 Angstrom ed r è la distanza dal nucleo; da cui elevando a quadrato la funzione si ottiene

che indica la probabilità di trovare l'elettrone in un volume infinitesimo di spazio pari a dv a distanza r dal nucleo.
La funzione qui descritta esprime la densità di probabilità elettronica. Dal grafico si evince che la densità per unità di volume è massima sul nucleo e decresce allontanandosi dal nucleo fino a tendere a zero a distanze infinite.
Il concetto di densità di probabilità per la funzione va inteso nel senso che, poiché 2dv indica la probabilità di trovare l'elettrone in una zona di spazio infinitesimo intorno al nucleo, questa probabilità è maggiore in prossimità del nucleo piuttosto che in unità di volume più distanti da esso.
Poiché allontanandosi dal nucleo il numero degli elementi di spazio in cui è possibile trovare l'elettrone cresce proporzionalmente al quadrato della distanza, dato che l'area di una superficie sferica è data da 4r2, è possibile descrivere in modo più adeguato tale fenomeno attraverso la funzione di distribuzione radiale




che descrive la possibilità di trovare l'elettrone su una superficie sferica ovvero su uno spicchio di superficie sferica di spessore infinitesimale a distanza r dal nucleo.
Poiché r2 aumenta in modo quadratico al crescere del raggio mentre 2 diminuisce tale funzione di distribuzione radiale assume la forma indicata nella




dove il valore massimo raggiungibile dalla stessa corrisponde al raggio r = a0 più probabile, al quale si può incontrare l'elettrone intorno al nucleo.
Solo per l'atomo di idrogeno questo valore corrisponde al raggio di Bohr.
Si può dire che nell'interpretazione dei modelli atomici di Bohr l'elettrone si trova ad una distanza definita dal nucleo, mentre per le leggi della meccanica ondulatoria e quantistica la posizione dell'elettrone è completamente indeterminata o meglio l'elettrone è non localizzabile ma si trova con probabilità molto elevata ad una distanza di 0,53 Angstrom dal nucleo.
È interessante notare come la superficie di massima probabilità è considerata sferica poiché essa può essere rappresentata nel diagramma di cui sopra come il luogo geometrico dei punti del piano equidistanti dal nucleo (per convenzione dalla definizione circonferenziale). Essa dipende da r ed è indipendente da qualsiasi direzione; nel caso dell'idrogeno infatti l'orbitale 1s ha simmetria sferica.
La prevalenza del modello quantistico di rappresentazione probabilistica della struttura atomica ha fatto si che l'atomo non possa più essere rappresentato secondo un preciso schema spaziale ma bensì possa essere rappresentato soltanto da un nucleo circondato da una nube carica elettricamente in cui vi è una probabilità elevata che vi si trovi ad un qualsiasi istante l'elettrone ad una definita distanza dal nucleo.
Il termine di nube o nuvola elettronica ben si addice alla rappresentazione della qualità ondulatoria della materia.
Dalla loro introduzione ad oggi (dal 1920-1930) gli studiosi hanno facilmente risolto le equazioni d'onda per i casi più semplici come quello della rappresentazione dell'atomo di idrogeno, mentre la rappresentazione degli atomi più complessi ha sempre messo in difficoltà la comunità scientifica, per cui furono introdotti importanti modelli semplificativi come quello di Hartree-Fok e di Thomas-Fermi.

per piu complete spiegazioni premere il linik:

http://www.edicolaweb.net/atlan25a.htm
Torna in alto Andare in basso
MASCHERA
junior
junior
MASCHERA



ATLANTi SEGRETi........ Empty
MessaggioTitolo: ATLANTi SEGRETi........   ATLANTi SEGRETi........ Icon_minitimeVen 13 Nov 2009, 18:24

IL PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG

ATLANTi SEGRETi........ Indet00ATLANTi SEGRETi........ W59


Nel 1927 il fisico Werner Heisenberg scoprì che la natura probabilistica delle leggi che regolano la fisica quantistica poneva notevoli limiti alla conoscenza dello stato effettivo di un sistema atomico.


Secondo la fisica classica lo stato di un corpo in movimento può essere in qualunque momento suscettibile di misurazioni quantitative che riguardano la sua velocità e la sua posizione rispetto ad un sistema iniziale di riferimento.
Heisenberg, sulla base delle scoperte realizzate in quegli anni dai suoi illustri colleghi come de Broglie, Bohr e altri, suppose invece che a livello subatomico la velocità e la posizione di una particella in movimento siano sempre del tutto indeterminati, cioè rimangono sempre indefinite.
Tale principio, che fu definito di indeterminazione, postula che quanto maggiore è l'accuratezza nella misurazione della posizione di una particella subatomica, tanto minore è la precisione inerente alla misurazione della velocità e viceversa.
L'interazione della realtà fisica degli strumenti di misurazione sulla realtà microscopica del mondo subatomico appare come una perturbazione notevole che incide sulle variabili oggetto di misurazione.
Gli strumenti di misurazione hanno una incidenza tale per cui la misurazione della velocità crea una perturbazione della particella che risulta del tutto indeterminata la posizione e viceversa.
Sotto questo aspetto è importante precisare che la limitazione nella possibilità di determinare esattamente la posizione e la velocità di una particella non è l'effetto della sola interazione del mondo fisico o macroscopico nella realtà atomica o subatomica ma è piuttosto una proprietà intrinseca della materia che di desume dall'analisi della struttura atomica della stessa, sulla base dei principi della fisica quantistica che furono studiati e scoperti all'inizio del XX secolo.
Si può dire che in alcun modo si può ritenere che in qualsiasi istante una particella subatomica abbia una posizione e una velocità determinati.
In termini formali possiamo dire che nella misura simultanea della posizione x e quantità di moto q di una particella è impossibile ottenere valori x' e q' con indeterminazione infinitesima a piacere.
Detto in altri termini:

se x e q indicano rispettivamente l'indeterminazione in x e q, cioè esprimono matematicamente una variazione infinitesimale della posizione spaziale della particella e della sua velocità e quindi indicano in linguaggio matematico l'indeterminazione nella misurazione di tali variabili, appunto perché l'errore è dato da una misurazione infinitesimale errata delle variabili in oggetto,
allora deve esistere una relazione tale per cui:


x q h

dove h è la costante di Planck pari a circa 6,63x10-34 Joules.
Allo stesso modo per quanto riguarda la relazione energia-tempo, in base al principio di indeterminazione, è impossibile determinare l'esatto valore dell'energia di una particella durante un'osservazione che duri un tempo infinitesimo t con un margine d'incertezza inferiore a E, data la relazione:


E t h

Questa indica che in nessun caso si può affermare che in un dato istante una particella abbia una quantità di energia definita (Indeterminazione energia-tempo).
È importante inoltre capire che il principio di indeterminazione di Heisenberg è valido per tutta la realtà del mondo fisico, cioè è valido per qualsiasi oggetto, ma in realtà ha conseguenze importanti solo nell'ambito della fisica delle particelle, perché nel caso dei corpi macroscopici il principio di Heisenberg perde significato a causa del basso valore della costante h.

LE ORIGINI DELLA MECCANICA QUANTISTICA:
IL PROBABILISMO E L'ACAUSALITÀ


Gli sviluppi realizzati a partire dal XVII-XVIII secolo (Galileo, Copernico, Newton ecc.) nella fisica avevano creato una serie di concezioni e tesi deterministiche riguardanti la realtà oggetto di studio della fisica, secondo cui l'Universo è una macchina perfetta in cui, a diversi livelli della realtà universale stessa, valgono le stesse leggi della fisica (la gravitazione universale, studio dei moti dei corpuscoli ecc.).
Ma all'inizio del XX secolo le certezze degli scienziati cominciarono ad essere messe in discussione dagli innovativi studi condotti sulla struttura atomica della materia (tra questi Max Planck) nei quali gli scienziati cercarono senza successo di applicare le stesse leggi meccanicistiche al comportamento dei sistemi atomici e subatomici. Qui si accorsero che nel mondo atomico gli eventi non fluiscono in modo armonioso e graduale nel tempo ma avvengono in modo brusco e discontinuo. In questo contesto microscopico gli atomi riescono ad assumere e liberare energia solo in forma di pacchetti discreti detti Quanti (da cui il termine meccanica quantistica).
Ciò spinse gli studiosi a ipotizzare che a livello della struttura dei sistemi atomici la natura funzioni come un processo probabilistico, per cui approntarono dei modelli matematici adeguati per spiegare in termini probabilistici tutte le variabili insite nello studio della struttura dei sistemi atomici.
Molti studiosi, nel corso del tempo, si sono spinti ad ipotizzare che lo studio della struttura e trasformazione dei sistemi atomici possa essere spiegato in termini acausali, secondo cui ogni processo di disintegrazione dei sistemi instabili avrebbe una natura assolutamente casuale o spontanea che non avrebbe spiegazioni causali.
Allo stesso tempo gli studi realizzati all'inizio del XX secolo (de Broglie, Bohr, Heisenberg, Schrodinger ecc.) dimostrarono che possibilmente l'Universo non può più essere considerato come una sommatoria di oggetti fisici nello spazio vuoto, ma piuttosto come una rete inestricabile di energia che subisce fluttuazioni quantiche continue in spazi e tempi infinitesimali.
In questo contesto culturale rivoluzionario, che ancora oggi mette in difficoltà molti studiosi, la fisica quantistica crebbe quindi sulla base di alcuni principi fondamentali tra i quali possiamo annoverare i seguenti:

non esiste una realtà oggettiva della materia, ma solo delle realtà di volta in volta create dalle misurazioni dell'uomo;
le dinamiche evolutive dei sistemi atomici e subatomici sono caratterizzate dall'acausalità;
è possibile che in determinate condizioni la materia possa scaturire dal "nulla" o "comunicare a distanza";
lo stato oggettivo della materia sarebbe caratterizzato da una sovrapposizione di più strati.
Da un punto di vista prettamente filosofico una delle conseguenze più sconvolgenti della fisica quantistica (di cui forse gli stessi studiosi inizialmente non si resero conto) è quella per cui si ipotizzi che la realtà fisica oggettiva della materia esiste solo a fronte delle misurazioni compiute dall'uomo con i suoi esperimenti.
L'evidente differenza rispetto alle altre rivoluzioni scientifiche, che avevano rilegato l'uomo ai margini del Cosmo, è che la rivoluzione quantistica riporta l'uomo al centro dell'Universo, spingendo alcuni studiosi a pensare che addirittura la fisica quantistica possa aver risolto almeno in parte i problemi inerenti il rapporto tra la materia, lo spirito e la mente umana. Ciò in quanto l'introduzione dei processi di misura quantistica sia una modalità di costruzione della realtà umana in rapporto al microcosmo e al macrocosmo.

FORMULAZIONE SPERIMENTALE E MATEMATICA
DEL PRINCIPIO DI INDETERMINAZIONE


Vediamo in che modo Heisenberg giunse alla formulazione del principio di indeterminazione nei suoi studi pubblicati nel 1927.
L'esperimento ideale di Heisenberg partì dalla formulazione di un insieme di ipotesi.
Immaginiamo di avere la seguente situazione:

presenza di un ambiente chiuso in cui sia possibile ricreare il vuoto assoluto;
una macchina in grado di lanciare nel vuoto gli elettroni;
una sorgente luminosa in grado di emettere fotoni a piacere in numero variabile e di qualsiasi frequenza;
un microscopio in grado di rendere visibile e di osservare qualsiasi frequenza.
Heisenberg ipotizzò di lanciare nel vuoto un elettrone cercando così, utilizzando le leggi della fisica classica, di misurarne perfettamente la velocità e la traiettoria in un istante preciso.
Secondo le leggi della fisica l'elettrone dovrebbe avere una traiettoria che grosso modo ricorda quella di un arco di parabola:

foto 1



Per poter visualizzare la traiettoria dell'elettrone occorre interagire con esso attraverso i fotoni che devono essere presenti nella stanza in modo da illuminare l'elettrone, ma l'interazione fotone-elettrone comporta nel mondo subatomico delle conseguenze notevoli se si considera che lo scambio di energia tra queste particelle è dello stesso ordine di grandezza.
Quindi, se si ipotizza di colpire un elettrone con un fotone nella speranza di poterne visualizzare traiettoria e misurarne la velocità, dato il notevole scambio di energia che ne deriva, dopo tale urto la traiettoria dell'elettrone sarà completamente perturbata, cioè l'elettrone avrà completamente cambiato la sua traiettoria originaria ed anche la sua velocità.
Osservando l'elettrone per diversi istanti al microscopio si otterrebbe una traiettoria a zig-zag come quella della figura seguente:

foto 2


In particolare si può dire che, pur essendo determinata la posizione dell'elettrone, risulterebbe completamente indeterminata la traiettoria della particella.
Da ciò si deduce che è impossibile determinare con esattezza e simultaneamente la posizione e la velocità di un elettrone ed in genere di tutte le particelle subatomiche.
In termini formali è possibile calcolare la relazione matematica che descrive lo stato dell'indeterminazione. Indicando con x la posizione dell'elettrone e con q la sua quantità di moto (cioè la sua velocità) risulta che x è l'indeterminazione della posizione. Questa è pari alla lunghezza d'onda (leggi lambda) del fotone.
Indichiamo invece con q l'indeterminazione della velocità e sappiamo che anche la sua indeterminazione dipende da , in modo tale che quanto maggiore è l'energia trasportata dal fotone, tanto maggiore sarà l'energia scambiata con l'elettrone.


Da cui, applicando le formule relative alla quantità di moto e alla costante di Planck, si ottiene la formula definitiva del principio di indeterminazione che è la seguente:


Nella realtà del mondo atomico e subatomico in cui si opera nelle dimensioni dell'ordine di grandezza di 10-10 m si deduce facilmente che quando si tratta di questioni atomiche risulta completamente indeterminata la posizione o la velocità delle particelle oggetto di misurazione poiché l'ordine di grandezza dell'indeterminazione è a livello di dimensioni atomiche, per cui non può essere facilmente trascurata. Infatti se ipotizziamo di avere un elettrone di massa pari a m = 9,1·10-31 Kg con una velocità v ~2.000.000 m/s (= 2.106 m/s), con un'indeterminazione ipotetica del 10% della velocità, per cui abbiamo v = 0,2.106 m/s. Rispetto a x otteniamo:




Come si vede dalla formula applicativa, l'indeterminazione rispetto alla posizione è dell'ordine di grandezza delle dimensioni atomiche, per cui è letteralmente impossibile stabilire con precisione la posizione dell'elettrone all'interno dell'atomo, poiché la fascia di indeterminazione relativa alla sua posizione è grande all'incirca quanto la distanza che c'è tra l'orbita e il nucleo dell'atomo.
Da ciò si deduce anche che è impossibile descrivere l'orbita dell'elettrone intorno al nucleo atomico per gli stessi motivi legati all'indeterminazione della sua posizione. Appunto per questo motivo gli studiosi hanno abbandonato il concetto di orbita definita dell'elettrone intorno al nucleo (che presupponeva la definizione precisa di valori relativi alla distanza e alla posizione e velocità dell'elettrone) e hanno introdotto il concetto di orbitale atomico, inteso come volume di spazio infinitesimo intorno al nucleo entro cui si trova l'elettrone con probabilità p.
La formulazione teorica del principio di indeterminazione di Heisenberg indusse lo stesso studioso e i suoi illustri colleghi a formulare deduzioni e controdeduzioni nel tentativo di risolvere le conseguenze dell'enorme responsabilità scientifica che derivava dall'asserzione del principio stesso.
Si pensò allora di ipotizzare che se fosse possibile ridurre l'energia del fotone sarebbe stato possibile ridurre la perturbazione potenziale prodotta dall'urto contro l'elettrone in modo tale da modificarne il meno possibile la traiettoria e la velocità, così sarebbe stato possibile avvicinarsi il più possibile all'individuazione più esattamente possibile della posizione e della velocità di una particella.
Poiché la relazione che esprime l'energia di una particella è data dall'espressione:

E = hv


si può ipotizzare che per ridurre il valore di E è possibile agire su v, cioè sulla frequenza rendendola sempre più piccola, dato h costante. E poiché la frequenza e la lunghezza d'onda sono tra di loro inversamente proporzionali, diminuire la frequenza comporta un aumento della lunghezza d'onda:

foto 3




La conseguenza immediata di una scelta di questo tipo è che variando la frequenza e quindi la lunghezza d'onda dei fotoni che incidono sull'elettrone otterremo via via delle immagini con diversa rappresentatività della traiettoria dell'elettrone, passando dal caso di un fotone con maggiore energia e quindi frequenza, che riporta al caso in cui si otterrebbe un'immagine della traiettoria a zig-zag, fino ad arrivare al caso in cui riducendo la frequenza e quindi l'energia del fotone si otterrebbe un'immagine in cui si ha una traiettoria approssimata ma nella quale comunque rimane impossibile individuare la posizione dell'elettrone:

foto 4




Da ciò si deduce che: o si dà la posizione di un elettrone, rimanendo indeterminata la traiettoria dello stesso (vedi Figura 2), oppure si determina la traiettoria ma rimane indeterminata la posizione (vedi Figura 4).
Esiste comunque una situazione intermedia in cui in linea di principio è possibile usando una frequenza intermedia individuare una traiettoria perturbata solo parzialmente e in cui sarà possibile individuare la posizione dell'elettrone con un piccolo grado di incertezza:


foto 5





In tal caso l'elettrone non avrà una traiettoria ben definita ma resterà confinato entro una certa zona.
Le leggi matematiche della meccanica quantistica e ondulatoria permisero così di individuare la zona o volume di spazio infinitesimo intorno al nucleo atomico in cui è possibile che si trovi con probabilità p l'elettrone.
In base all'equazione di Schrodinger:




una particella in movimento (l'elettrone) può essere rappresentato da una funzione d'onda (associata all'elettrone) che indichiamo con la lettera (leggi psi).
Proprio a causa del principio di indeterminazione di Heisenberg non siamo in grado di dire in quale punto dell'onda si trovi l'elettrone ma possiamo calcolare la probabilità di trovare l'elettrone in un certo punto dell'onda o meglio in un volume di spazio infinitesimo intorno al nucleo atomico.
Poiché noi siamo certi che in un atomo (per esempio di idrogeno) vi è un elettrone intorno al nucleo ciò significa che esiste una probabilità certa (cioè uguale a 1) di trovare l'elettrone in un volume di spazio preciso intorno al nucleo. Quindi la probabilità p a cui abbiamo accennato poc'anzi è qualcosa di scientificamente concreto e osservabile; e poiché i fisici capirono che lo stato di un sistema atomico dipende dalla sua funzione d'onda si giunse ad individuare la funzione di densità di probabilità nell'espressione:




cioè la probabilità di trovare l'elettrone nella zona di spazio intorno al nucleo atomico è data dal quadrato di in modulo (cioè in valore assoluto).
Dato che si tratta di un numero reale tale risulterà anche il valore di psi al quadrato in modulo, risultando P maggiore o uguale a zero.
Così si può dire che mentre il valore di può essere considerato come ampiezza della funzione d'onda, il valore di 2 può essere considerato come la probabilità di trovare l'elettrone in uno spazio infinitesimo di coordinate x, y, z; più in particolare si può dire che se in un punto r (x,y,z) la funzione d'onda ha ampiezza pari a , la probabilità di trovare l'elettrone in un volume infinitesimo di spazio x è proporzionale a 2.
Fu quindi introdotta un'interpretazione di natura statistico-probabilistica secondo cui la giusta interpretazione della funzione d'onda comportava la normalizzazione dell'equazione di riferimento, poiché essa faceva riferimento ad una probabilità, che può assumere solo valori compresi fra 0 e 1 (maggiori dettagli nell'articolo "La struttura della materia").


foto 6




L'INDETERMINAZIONE ENERGIA-TEMPO
Quanto detto a proposito del principio di indeterminazione, relativamente al tentativo di determinare la posizione o la velocità di una particella subatomica, vale anche per la relazione energia-tempo.
Per comprendere il concetto ipotizziamo di voler determinare l'energia di un fotone.
Secondo Planck, l'energia di un fotone è direttamente proporzionale alla frequenza della luce (E = hv): questo significa che se si raddoppia la frequenza, anche l'energia raddoppia.
Per misurare l'energia occorre quindi misurare la frequenza dell'onda luminosa, il che si può fare contando il numero di oscillazioni, il susseguirsi cioè di massimi (creste) e di minimi (avvallamenti) in un dato intervallo di tempo.
Per poter applicare questa procedura occorre comunque che si verifichi almeno una oscillazione completa, che richiede un intervallo di tempo definito. L'onda deve passare da un massimo ad un minimo, e poi di nuovo tornare a un massimo.
Misurare la frequenza della luce in un tempo inferiore a quello occorrente per un'oscillazione completa è evidentemente impossibile, anche in via di principio. Per la luce visibile il tempo occorrente è ridottissimo (un milionesimo di miliardesimo di secondo). Onde elettromagnetiche con lunghezze d'onda maggiore e frequenza minore, come le onde radio, possono richiedere qualche millesimo di secondo per compiere un'oscillazione completa. I fotoni delle onde radio hanno, in confronto, un'energia molto bassa mentre i raggi gamma oscillano migliaia di volte più rapidamente della luce e le energie dei fotoni sono maggiori di migliaia di volte.
Quanto detto ci permette di capire che vi è un limite fondamentale alla precisione con cui è possibile misurare la frequenza di un fotone (e quindi la sua energia) in un dato intervallo di tempo. Se l'intervallo è inferiore a un periodo dell'onda, l'energia risulta essere indeterminata; ciò dimostra che esiste quindi una relazione di indeterminazione che lega l'energia al tempo, identica a quella già vista precedentemente per posizione e quantità di moto.
Per avere una determinazione esatta dell'energia si deve effettuare una misurazione "relativamente lunga", ma, se ciò che ci interessa è invece l'istante in cui si verifica un evento, lo si potrà determinare in modo esatto solo a spese dell'informazione sull'energia. Ci si trova così a dover scegliere tra l'informazione sull'energia e l'informazione sul tempo, che presentano un'incompatibilità analoga a quella per posizione e moto.
Questa nuova relazione di indeterminazione ha conseguenze molto importanti.
Va precisato ancora una volta che i limiti alle misurazioni sia di energia che di tempo, sia di posizione e quantità di moto, non sono semplici insufficienze tecnologiche, ma proprietà assolute e intrinseche della natura.
In nessun senso secondo la meccanica quantistica si può pensare che un fotone (o un elettrone) possieda realmente un'energia ben definita in un dato istante. Per i fotoni energia e tempo sono due caratteristiche inconciliabili; quale delle due si manifesti con maggior precisione dipende solo dalla natura della misurazione che si sceglie di effettuare. In termini formali dalla relazione:


deriva che E= h/t.
Da questa formula si vede che quanto più t diventa piccolo (cioè più tende a 0) più E diventa grande (cioè tende all'infinito).

L'EFFETTO TUNNEL QUANTISTICO

Dalla fisica classica sappiamo che un corpuscolo o una particella può superare un determinato ostacolo o barriera potenziale che si oppone ad esso solo se possiede sufficiente energia che le permette di far verificare l'evento atteso (e ciò accade anche nell'esperienza del macrocosmo, cioè nella realtà umana).
Questa situazione esistente nella fisica classica non è ammissibile per la fisica quantistica.
Infatti, se è pur vero che nell'ambito dei processi fisici reali la possibilità di compiere un dato processo è sempre strettamente legata all'energia impiegata, poiché per portare a compimento un determinato evento (un movimento, una reazione ecc.) occorre fornire al sistema iniziale un'energia sufficiente senza la quale il fenomeno non può avvenire, la fisica quantistica ha dimostrato che in un sistema atomico, per effetto dell'indeterminazione energia-tempo e per tempi dell'ordine del miliardesimo di trilionesimo di secondo una particella può acquisire l'energia necessaria per compiere il fenomeno atteso dall'ambiente circostante per poi rilasciarla al sistema stesso.
Nell'ambito degli effetti temporali previsti dalla scala quantistica quando ciò accade non viene violata nessuna legge, anche se la legge di conservazione dell'energia subisce delle alterazioni infinitesimali (trascurabili) per cui la particella ottiene l'energia sufficiente ad oltrepassare una barriera potenziale che altrimenti non potrebbe superare, per poi rilasciarla istantaneamente in modo da riportare in equilibrio il bilancio energetico del sistema.
Qui sotto è possibile vedere l'evoluzione di un pacchetto di onde associate ad un gruppo di particelle che incontrano una barriera potenziale (per esempio può trattarsi della giunzione di un diodo):





foto 7




Le particelle che si trovano nel pacchetto d'onda non dispongono teoricamente (secondo la fisica classica) dell'energia sufficiente per superare tale barriera potenziale. Nonostante ciò riescono, per effetto tunnel, a superarla agevolmente.
È interessante notare che l'effetto tunnel quantistico è alla base di alcuni fenomeni come il tunneling elettronico e la radioattività.

LA FISICA QUANTISTICA E LE FLUTTUAZIONI NEL VUOTO
Tra le conseguenze più importanti e rivoluzionarie delle teorie quantistiche e in particolare dell'indeterminazione energia-tempo e del tunnel quantistico vi sono una serie di sviluppi che, pur mantenendosi nel campo delle ipotesi, hanno inciso notevolmente sullo studio e sull'analisi dei fenomeni della fisica atomica e subatomica. Sviluppi che riguardano la relazione esistente tra l'energia, il tempo, la struttura delle particelle elementari, la struttura del vuoto e la cosmologia quantistica, in un mix di teorie innovative che hanno gettato una luce nuova non solo nello studio delle particelle subatomiche ma anche su quelli che potrebbero essere i tentativi di spiegare le origini stesse dell'Universo.
Per effetto dell'indeterminazione energia-tempo in un sistema atomico si ipotizza, sulla base anche dei risultati sperimentali ottenuti dagli studiosi, che per brevissimi intervalli di tempo, dell'ordine del miliardesimo di trilionesimo di secondo, la legge di conservazione dell'energia subisca un'alterazione in modo tale che vi siano delle fluttuazioni di energia (dette appunto fluttuazioni nel vuoto).


foto 8



In questo contesto infinitesimale un elettrone e la sua particella di antimateria corrispondente (positrone) sbucherebbero letteralmente dal "nulla", cioè dal vuoto, in modo tale da interagire tra di loro, congiungendosi, per poi svanire nel nulla.
Le conseguenze di queste azioni sono notevoli poiché nel lasso di tempo infinitesimale in cui queste particelle si formano e interagiscono fra di loro operano a livello delle leggi di attrazione, repulsione, elettromagnetismo.
Lo sviluppo e la formazione di questi fenomeni subatomici rilevanti da un punto di vista teorico ha fornito una chiave di lettura nuova ai fisici in merito alla comprensione della natura dell'Universo e dello spazio vuoto.
Secondo molti studiosi lo spazio vuoto esistente nell'Universo, a livello subatomico, è formato da un oceano di particelle subatomiche che in realtà interagiscono tra di loro creando continuamente fluttuazioni di energia.
L'Universo potrebbe essere visto, per usare un'immagine figurata, come la superficie del mare vista dall'alto. Dalla posizione di osservazione sembra che la superficie del mare sia uniforme, ma se potessimo guardarla da molto vicino, stando sulla superficie stessa vedremmo intorno a noi un continuo movimento di onde.
Analogamente si potrebbe dire per lo spazio vuoto.
Sulle grandi distanze che noi sperimentiamo nell'esperienza della percezione sensoriale umana, vediamo lo spazio vuoto, ma se potessimo vederlo a livello microscopico potremmo vedere letteralmente le particelle subatomiche fluttuare energeticamente entrando e uscendo dal nulla.
In questo contesto, quindi, secondo le teorie della meccanica quantistica, lo spazio vuoto sarebbe in realtà una fluttuazione energetica continua ed infinitesimale di particelle subatomiche che interagiscono tra di loro.

LA DISUGUAGLIANZA DI BELL E IL PROBLEMA DEL LOCALISMO-REALISMO


Nell'ambito delle moderne teorie della fisica quantistica notevole peso ha assunto il corpus di ipotesi elaborate da diversi studiosi nell'intento di dimostrare che la scienza quantistica non fosse del tutto in grado di fornire una rappresentazione realmente efficace o completa della realtà oggettiva del mondo subatomico.
In particolare Einstein, Podolsky e Rosen (più oltre definiti EPR) ipotizzarono, con un articolo pubblicato nel 1935, che la meccanica quantistica fosse una teoria fisica incompleta.
Alla base delle loro ipotesi vi è l'idea che i principi introdotti dalla meccanica quantistica non tenessero conto dell'esistenza di una serie di variabili nascoste, e non ancora individuate dalla scienza fisica, rispetto alle quali la meccanica quantistica stessa operasse una sorta di approssimazione probabilistica.
Secondo EPR una teoria più completa della realtà del mondo subatomico esiste ed è fondata su principi che tengono conto di tutti gli elementi fisici della realtà.
Esiste così qualche ignoto meccanismo che agisce su queste variabili nascoste dando origine agli effetti osservati nelle variabili quantistiche (il principio di indeterminazione).
Su questo punto notevole fu l'apporto teorico del "teorema di Bell" secondo cui qualsiasi teoria locale, che assume che determinate coppie di particelle correlate e separate, inviate verso rivelatori lontani abbiano proprietà definite anche prima di essere sottoposte a test, non può riprodurre esattamente la distribuzione di probabilità prevista dalla meccanica quantistica quando si considerano non solo misure opposte e simmetriche ma anche misure su posizioni intermedie.
Le obiezioni apportate alla meccanica quantistica da Einstein e altri suoi illustri colleghi si fondarono sulla piena certezza riguardo alcuni principi ritenuti universalmente validi per la fisica di cui i più importanti sono la completezza e il localismo o realismo locale.
Secondo la fisica possiamo parlare di "Localismo" quando due oggetti che si trovano a grande distanza l'uno dall'altro esistono indipendentemente l'uno dall'altro, in modo tale che qualunque operazione compiuta sull'uno non incide in modo sensibile sull'altro modificandone le proprietà.
Le teorie della fisica classica antecedente alla fisica quantistica non assumono mai come principio possibile il superamento del localismo.
La meccanica quantistica invece prevede la possibilità di "superare" il localismo, cioè prevede la possibilità che vi sia una sorta di influenza a distanza tra le particelle.
Su questo punto il fisico danese Niels Bohr si esprimeva in tal modo: "Tra due particelle [correlate] che si allontanano l'una all'altra nello spazio, esiste una forma di azione-comunicazione permanente. [...] Anche se due fotoni si trovassero su due diverse galassie continuerebbero pur sempre a rimanere un unico ente...".
A ciò si aggiunge che in via sperimentale è stato verificato dagli studiosi, attraverso esperimenti di misurazione di fotoni con rivelatori di particelle, che i principi della meccanica quantistica violano la disuguaglianza di Bell.
Da ciò si deduce che se la disuguaglianza di Bell non fosse violata sperimentalmente allora ciò implicherebbe che la meccanica quantistica non è incompleta (come dicevano Einstein, Podolsky e Rosen) ma completamente errata. Ma se la meccanica quantistica è corretta, allora non esistono variabili nascoste che possano spiegare la realtà oggettiva in modo alternativo (come sostenevano EPR).
La disuguaglianza di Bell e le sue applicazioni scientifiche hanno messo in seria difficoltà la fisica classica e le teorie realiste. Il risultato finale a cui sono giunti gli studiosi, anche se la questione è lungi dal poter considerarsi chiusa, è che la meccanica quantistica non può essere considerata come una teoria di "prima approssimazione" perché se la disuguaglianza di Bell non fosse violata sarebbe tutto l'impianto stesso della fisica quantistica a cadere.
Questa importanti scoperte rappresentarono fin da subito un macigno sulle certezze degli scienziati che come Einstein confidavano ancora sulla fisica classica. Infatti uno degli assunti della fisica classica rivoluzionata dalla teoria della relatività di Einstein è che nessun oggetto o ente può muoversi o comunicare a velocità superiore a quella della luce (300 mila km/s).
Gli esperimenti sulla disuguaglianza di Bell realizzati negli anni scorsi (a partire dal 1965, dopo la morte di Einstein) hanno dimostrato che l'azione-comunicazione tra particelle correlate era istantanea.


Foto 9




Tuttavia Einstein e i suoi colleghi ipotizzarono che gli effetti di interazione istantanea tra le particelle correlate potessero essere considerati come un effetto apparente spiegabile con il paradosso dell'esperimento ideale descritto nel loro articolo del '35, in cui si mostrano gli effetti della misurazione di elettroni inviati da una sorgente a due osservatori situati ai due estremi di un asse.


foto 10


In questo sistema quantistico ideale, se consideriamo vere alcune condizioni generali, che devono essere ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività (quindi senza contraddire i principi di località, realismo e completezza) si giunge ad un risultato contraddittorio.
Tuttavia gli stessi EPR ammettono che apparentemente la meccanica quantistica non è intrinsecamente contraddittoria né risulta contraddire la relatività.
Gli ulteriori sviluppi teorici e pratici conseguiti dalla scienza dall'epoca in cui operarono EPR hanno spinto i fisici a ritenere che le ipotesi di EPR rappresentino un tentativo ben congegnato (anche se apparentemente contraddetto dai risultati sperimentali) per spiegare che la meccanica quantistica si scontra con l'intuizione classica la quale deriva dall'osservazione della realtà del mondo macroscopico.
Questa spiegazione classica di EPR non dimostrerebbe tuttavia l'incompletezza assoluta della fisica quantistica, la quale rimane comunque per gli studiosi una teoria corretta, mentre il paradosso dell'esperimento ideale di EPR che porterebbe a risultati contraddittori per la fisica quantistica resterebbe confinato nel campo delle ipotesi poiché le intuizioni classiche che riguardano il mondo macroscopico non trovano applicazione a livello dei sistemi atomici e subatomici, cioè non corrispondono alla realtà microfisica.
Nonostante si possa dire che gli studiosi si trovino lontano dalla risoluzione definitiva del problema, lo sforzo teorico notevole di Einstein e colleghi è servito quantomeno a fornire una comprensione più profonda e significativa della meccanica quantistica e a dimostrare la natura complessa e non di origine classica del processo di misurazione delle particelle subatomiche.

PRECISAZIONI A RIGUARDO LE FORMULE E I DATI NON POTENDOLI METTERE QUA DENTRO IL POST,POSSONO ESSERE VISTI NEL LINK QUA SOTTO ELENCATO:


http://www.edicolaweb.net/atlan26a.htm
Torna in alto Andare in basso
Contenuto sponsorizzato





ATLANTi SEGRETi........ Empty
MessaggioTitolo: Re: ATLANTi SEGRETi........   ATLANTi SEGRETi........ Icon_minitime

Torna in alto Andare in basso
 
ATLANTi SEGRETi........
Torna in alto 
Pagina 1 di 1
 Argomenti simili
-
» DOSSIER PROGETTI SEGRETI USA: ROBOT UMANO
» Una missione della Nasa per scoprire i segreti delle Piogge.
» Obama parlerà degli Ufo il 27 Novembre ?
» I segreti del buco nero Crazy Diamond - il più brillante oggetto cosmico mai osservato.
» Ecco ET, il mega telescopio sotterraneo (30 Km di perimetro) che svelerà i segreti dell'Universo.

Permessi in questa sezione del forum:Non puoi rispondere agli argomenti in questo forum.
SECRETS - STORIES  :: . :: OoPARTS-OGGETTI FUORI DAL TEMPO-
Vai verso: