Fig. 1 – Filamenti di materia oscura?
Il concetto di materia nella storia del pensiero filosofico e scientifico.
.
Da Newton ai giorni nostri.
Che cos’è la materia? (Parte II)
di Giorgio Masiero
Nello scorso articolo ho esaminato il concetto di materia, come elaborato dai Greci e dalla Scolastica medievale prima, ed evoluto nella scienza galileiano-newtoniana nei secoli XVII-XIX.
Nel primo periodo la materia fu pensata come l’elemento indistinto costitutivo del mondo sensibile. Man mano che progredì la riflessione a riguardo, la filosofia si divise in diverse scuole. Anzi, proprio sulla concezione della materia e sulla sua relazione con un altro concetto fondamentale della filosofia, quello di realtà, si costituirono i grandi sistemi di pensiero tuttora vigenti.
Con l’affacciarsi della scienza empirica a partire dal ‘600, il termine materia acquisì un significato misurabile, perché venne a coincidere con la massa, introdotta da Newton in meccanica. Un problema però, irresolubile negli schemi della fisica di allora (la “fisica classica”), risultò dalla convivenza nella massa di due proprietà apparentemente contraddittorie e niente affatto indistinte: l’inerzia, che è la resistenza dei corpi a subire cambi di velocità in intensità o in direzione, e la gravitazione, che è la loro capacità di attirarne altri e di esserne attirati. Inoltre la materia vi venne a perdere il suo monopolio di substrato unico della realtà fisica, perché le due più grandiose costruzioni scientifiche dell’epoca, la gravitazione di Newton e l’elettromagnetismo di Maxwell, tanto belle nella forma matematica quanto precise nelle predizioni sperimentali, rivelarono l’esistenza di un secondo elemento costituente: i campi.
In questo articolo esaminerò i capovolgimenti scientifici intervenuti nel XX secolo e come essi abbiano portato ad un’ulteriore smaterializzazione dei costituenti del mondo, alla loro frammentazione in una pluralità di fondamentali distinti, nonché all’espandersi della percezione della nostra ignoranza con l’anelito di conoscenza e la volontà di potenza.
.
Le rivoluzioni di Einstein
Il XX secolo ha smantellato il monopolio della massa, già colpito dai campi gravitazionale ed elettromagnetico. Il primo choc intervenne nel 1905 con la relatività speciale (RS) di Einstein. Questa metateoria[i] scompigliò il senso comune su vari punti:
– la diversità dei tempi misurati dagli orologi di osservatori in moto relativo,
– la diversità delle lunghezze misurate dai loro metri,
– l’esistenza di un limite massimo delle velocità,
– l’esistenza di particelle prive di massa, ecc.
Ma ciò che ebbe conseguenze più rilevanti fu l’equivalenza tra massa ed energia sancita dall’equazione E = mc2. L’equazione significa che nelle trasformazioni dove avviene un’annichilazione di massa m (e ce ne sono a smentire l’assolutezza del principio di Lavoisier), c’è il rilascio contestuale di energia E in quantità m × c2, sotto forma di campi radioattivi (privi di massa) e di energia cinetica delle particelle finali. I due ordigni esplosi nel 1945 a Hiroshima e a Nagasaki lo hanno provato a tutti. Inversamente, da dosi adeguate di energia E si può avere una creazione di particelle di massa complessiva m in quantità E / c2: per es., i raggi gamma (una radiazione elettromagnetica ad alta frequenza) possono trasformarsi in coppie di particelle elettrone-positrone. La Fig. 2 è la fotografia delle tracce lasciate da una coppia di particelle sorte in seguito alla scomparsa di un fotone di energia, proveniente invisibilmente dal basso.
Fig. 2 – La “creazione” di una coppia di particelle
.
L’equivalenza tra massa ed energia nega nuovamente (stavolta dall’interno della scienza naturale, piuttosto che dall’esterno della filosofia, com’era avvenuto con la metafisica cartesiana della res cogitans) l’assunto vetero-materialistico che la materia sia l’unico aspetto della realtà. Qualcosa senza massa per Newton poteva essere solo un fantasma, di quelli vaganti di notte nei castelli inglesi. La radiazione elettromagnetica essendo priva di massa non potrebbe quindi chiamarsi materia. A questo punto, se si vuole continuare a far coincidere il mondo fisico col mondo materiale non resta che ridefinire il concetto di materia. Ma come?
Nel 1916, con la teoria della relatività generale (RG), Einstein affrontò la gravitazione. Qui l’equivalenza tra massa ed energia portò ulteriori conseguenze. Nella gravitazione di Newton la massa era uno scalare, cioè un numero uguale per tutti gli osservatori a rappresentare l’unico agente, attivo e passivo, della forza. Nella gravitazione di Einstein questo ruolo viene assunto da una nuova grandezza, il tensore di stress-energia – una matrice di 10 numeri distinti, variabili per classi di osservatori – dipendente sì dalle masse dei corpi, ma anche dalle energie cinetica e potenziale presenti nel campo. Così, un orologio a molla appena caricato contribuisce alla gravità più di uno scarico, a cagione della sua energia potenziale; o la luce, a dispetto della sua massa nulla, subisce anch’essa gli effetti della gravitazione. La predizione fu verificata nel 1919 da Eddington durante un’eclissi solare da un’isoletta del golfo di Guinea, cosicché la Royal Society dovette dismettere a malincuore la teoria dell’arcinoto baronetto britannico (falsificata sulla precessione di Mercurio) per quella d’uno sconosciuto ebreo tedesco.
Fig. 3 – Una corroborazione della RG[ii]
.
Nella meccanica relativistica ci sono la massa (a riposo) e l’energia, e queste due grandezze, anche se convertibili l’una nell’altra, hanno come l’euro e il dollaro identità separate, perché la massa non è una forma di energia, né l’energia ha una massa. Quando si evoca in relatività il termine massa-energia s’intende massa più energia. L’equazione di equivalenza serve a sommare tutti gli apporti in maniera appropriata.
Se il concetto di materia si smaterializza parzialmente in quello di energia, all’inverso gli assoluti spazio e tempo newtoniani, forme trascendentali della percezione umana per Kant, si fisicizzano in uno spazio-tempo reale quanto la materia e i campi. Lo spazio-tempo è un fluido a 4 dimensioni che interagisce con le particelle e con i campi, modificandoli ed essendone modificato. Esso ha per le masse e le energie che lo popolano la stessa concretezza che ha il mare per le navi che lo solcano. Il mare s’allarga, si stringe, s’incurva, avvolge la nave, la può spostare ed anche rovesciare; viceversa la nave sposta l’acqua, fa cambiare forma alla superficie del liquido, modifica le onde e ne crea di nuove. Se nei pressi c’è una barchetta, gli spostamenti provocati dalla nave all’acqua circostante vengono trasmessi attraverso le onde fino all’acqua che circonda il natante minore e ne disturbano il movimento. Allo stesso modo il Sole attrae la Terra, e viceversa; la Luna muove le maree sulla Terra, e viceversa la Terra trattiene intorno a sé la Luna; e roteano reciprocamente le galassie nell’Universo. La massa del Sole modifica incurvandolo lo spazio-tempo che circonda il Sole, queste increspature come onde si trasmettono (alla velocità della luce) alle zone di spazio-tempo vicine, che si trasmettono a quelle più in là…, fino ad arrivare (nel tempo di circa 8 minuti, non istantaneamente come nella teoria di Newton) alle regioni di spazio-tempo vicine alla Terra e la Terra ne risente incurvandosi verso il Sole, e correggendo la propria traiettoria altrimenti rettilinea.
La materia e l’energia prescrivono allo spazio-tempo come curvarsi, e lo spazio-tempo prescrive all’energia e alla materia come muoversi. Così la gravitazione einsteiniana ripristina il principio di località[iii]. Non c’è più quell’azione istantanea a distanza che Newton congetturò senza potersela spiegare, condividendo la concezione democritea dello spazio e del tempo come recipienti vuoti, infiniti e assoluti[iv].
Dal monologo della materia indistinta, inerte, impenetrabile e moventesi nello spazio vuoto della vecchia fisica meccanicistica siamo così giunti ad un duetto con 2 coprotagonisti agenti in una scenografia interattiva 4-dimensionale: la massa delle particelle atomiche e l’energia dei campi gravitazionale ed elettromagnetico, moventisi in un fluido spazio-temporale non euclideo. Così si presentava almeno lo spettacolo, fino all’irrompere negli anni ’20 della teoria dei quanti.
.
La prima rivoluzione quantistica
Dall’avvento della scienza naturale convivevano separati in casa due modi opposti di considerare la luce: o come fatta di corpuscoli (modello di Newton) o come fatta di onde (Huygens). Una coabitazione precaria, sempre in attesa dello show down sperimentale che avrebbe decretato il vincitore, o magari una terza spiegazione. Agli inizi del XX secolo però apparve chiaro che non c’era alternativa a dire che la luce si comporta come un corpuscolo e come un’onda allo stesso tempo. Eppure, non c’è chi non veda che la bilia d’un bambino che gioca sulla sabbia è tutto l’opposto dell’onda cavalcata al largo da un surfista; ma tant’è, per la luce ci si acconciava ormai ad accettare la sua natura ambigua, simile talvolta ai pallini scagliati rettilineamente da una carabina (come la luce ci appare quando penetra in una stanza attraverso una persiana), talaltra alle sinusoidi delle onde marine (come si desume dalla diffrazione dell’arcobaleno). Ma gli atomi della materia? Certamente un atomo non può essere assimilato ad un’onda! Invece…
La gragnuola di colpi inferti al senso comune da Einstein non si era ancora pacata che, prima su basi teoriche ad opera di De Broglie nel 1924 e poi per via sperimentale da Davisson e Germer nel 1927, si trovò che anche le particelle massive, anzi tutti i corpi, si comportano come onde. Ogni corpo ha il suo alter ego in un’onda, ed ogni onda il suo alter ego in un corpo. E non si trovò di meglio che attribuire anche a queste onde due significati diversi, o come di vettori d’energia o come delle ampiezze di probabilità – calcolabili con un’equazione, quella di Schrödinger – di trovare gli alias materiali qui piuttosto che là, ora piuttosto che allora. Così il principio di complementarietà (1927) di Bohr smaterializzò gli elettroni da rigide sferette a nubi evanescenti. Nacque la meccanica quantistica (MQ), di cui la meccanica newtoniana si rivelò un’approssimazione valida a livello macroscopico.
Ricordiamo le proprietà “primarie” della materia secondo il materialismo sette e ottocentesco: estensione, forma, densità, mobilità, impenetrabilità, inerzia e infine gravitazione, una proprietà questa meno intellegibile delle altre, ma che portò il cielo in Terra mostrando che i corpi celesti remoti sono fatti dello stesso materiale dei corpi terrestri sottomano. Ebbene, dopo il primo attacco di Bohr, toccò ad Heisenberg azzerare col principio d’indeterminazione l’oggettività delle proprietà primarie: la posizione e la velocità d’un corpo, o l’energia e il tempo, e altre coppie di grandezze “coniugate” non possono essere determinate con esattezza allo stesso istante. Anzi, secondo l’interpretazione prevalente allora (detta di Copenaghen), i corpuscoli non hanno affatto una posizione ed una velocità ad ogni istante, né mantengono un’energia definita per un dato tempo; almeno fino a quando una grandezza non venga effettivamente misurata da un osservatore: allora avviene il “collasso d’onda”, dove l’elemento della coppia scelto dall’osservatore assume un valore preciso, mentre il suo coniugato diventa del tutto indeterminato.
Cosicché gli elettroni, gli elementi chimici, un cristallo, una montagna, la Luna[v] e tutto l’Universo fisico non sarebbero più materia secondo la concezione oggettiva e realistica della parola dal tempo dei Greci; ed il “Soggetto” osservatore (Schrödinger) oltre che tornare ad essere cartesianamente irriducibile alla materia, ne assumerebbe un ruolo costituente, pericolosamente evocativo del berkeleyano “Esse est percipi”.
Si può immaginare una controriforma idealistica, anti-materialistica più radicale nella scienza naturale dei fondamenti, rispetto al materialismo e al meccanicismo precedenti?
.
La teoria quantistica dei campi
RS, RG e MQ appartengono nei loro tratti essenziali al bagaglio culturale di tutti. Ma qui, alla fisica di 80 anni fa, si ferma anche la conoscenza generale. Eppure questa MQ è sbagliata ed è stata sopravanzata da una teoria differente: la teoria quantistica dei campi (TQC).
La TQC nacque dall’esigenza di aggiustare la MQ alla RS che, come abbiamo visto, non è una teoria delle tante ma una metateoria della fisica. Una teoria che sia in conflitto con la RS è falsificata a priori. L’equazione di Schrödinger non poteva neanche calcolare le probabilità di annichilazione o creazione di materia: per quanto la shakeriamo, non ci darà mai le particelle finali di una trasformazione diverse da quelle iniziali. Né l’armamentario di Bohr, De Broglie e Heisenberg dava ai campi una quantizzazione come quella riuscitagli per le particelle. Negli anni ’40 e ‘50, per gli sforzi eroici di geni come Dirac e Feynman, lo studio della struttura della materia produsse una nuova teoria a due facce: una rivolta all’esterno e l’altra all’interno. La prima s’impegnò ad osservare la natura per fornire modelli e calcoli di numeri, da confrontare con le evidenze sperimentali. Questa è oggi la faccia “fisica”, brillante della TQC, che mette ordine nel caos di decine di tipi di particelle interagenti tramite campi diversi, fornendo predizioni d’una precisione mai prima raggiunta. L’altra faccia, quella “matematica” rivolta a fondare in maniera logicamente consistente la teoria, resta invece ancora avvolta nel mistero, perché non se ne è trovata una formalizzazione rigorosa secondo gli standard della matematica pura. Questo è l’aspetto problematico della TQC[vi], costellato di serie divergenti e concetti indeterminati.
La TQC si caratterizza per un’incredibile scoperta dall’impatto critico sulle tecno-scienze, a cominciare dalla biologia: la struttura del vuoto. Che cos’è il vuoto? Non è facile trovarlo, ma è semplice concepirlo. Togliamo con una pompa l’aria da una bolla di vetro: dopo l’operazione, l’interno non è ancora vuoto perché, anche se siamo riusciti ad espellere tutta la materia (un miscuglio di molecole di azoto, ossigeno, ecc.), è ancora ricolmo di campi. Una radiolina nella bolla si sintonizzerebbe su un canale radio. Naturalmente, per l’assenza d’aria, non udremmo alcun suono, però le spie luminose della radiolina ci rivelerebbero la presenza di campi elettromagnetici. Per eliminarli, allontaniamoci da ogni stazione trasmittente andando in una landa desolata. Ora nella bolla sopravvivono ancora il campo magnetico terrestre (come ci rivelerebbe una bussola posta all’interno) ed anche, ovviamente, il campo gravitazionale terrestre. Per svuotare del tutto la bolla dobbiamo portarla con un’astronave nello spazio, in una regione piatta intergalattica. Ecco: il vuoto è la base uguale in ogni tempo e luogo dell’Universo (una piattaforma quindi priva di struttura spazio-temporale), sopra la quale si svolgono i giochi dei corpuscoli di materia e dei campi di energia. E qui viene la sorpresa: il vuoto è dotato di una struttura fisica ed agisce con effetti osservabili sui fenomeni del mondo!
Il vuoto della fisica non ha niente a che fare con il nulla della metafisica. Il nulla metafisico è pure della massima complicazione, tant’è che se ne contano decine di sfumature diverse, però non ha struttura fisica, non agisce sull’essere, né è invischiato con l’Universo. Rinviando ad altra occasione un meticoloso approfondimento sul nulla, torniamo al vuoto. Eviterò la matematica, perché anche nei tempi in cui essa era più semplice qualcuno metteva in guardia: “È molto difficile scrivere libri di matematica al giorno d’oggi. Se non ci preoccupiamo delle sottigliezze di teoremi, spiegazioni, dimostrazioni e corollari, allora non è matematica; d’altra parte, se facciamo queste cose, la lettura diventa noiosa” (J. Kepler, “Astronomia nova”, 1609). E la prenderò alla larga.
Nella fisica classica, il vuoto di materia e di campi coincide con lo stato in cui l’energia è ovunque zero. Invece nella TQC intorno al valore nullo pulsano infinite molle, non all’unisono ma indipendentemente l’una dall’altra (“incoerenti”), ciascuna con una propria frequenza ed un’energia minima diversa da zero. Cosicché l’energia del vuoto non è uguale a zero, ma ad infinito[vii].
Già la MQ implicava proprietà fisiche per il vuoto. Se la metafisica parmenidea e il dubbio amletico prevedono un’ontologia a 2 stati, l’essere e il non essere, la MQ dovette ammettere un terzo stato: la virtualità. Applicando infatti il principio di Heisenberg alla coppia coniugata energia-tempo, lo stato energetico del vuoto di campo non può assumere il valore esattamente nullo, ma oscilla intorno allo zero con un’ampiezza di variazione correlata al tempo in cui l’oscillazione persiste. Questa fluttuazione non può essere osservata; e se non può essere osservata, il suo alias particellare è solo virtuale.
Nella TQC le particelle virtuali, inosservabili ma dagli effetti indiretti osservabili, entrano in gioco nei diagrammi di Feynman. Questi grafici servono a calcolare le probabilità delle trasformazioni indotte dal campo elettromagnetico (come nella creazione della coppia elettrone-positrone di Fig. 2), ma anche di quelle indotte da due nuovi campi nel frattempo scoperti: le interazioni nucleari forti (responsabili della stabilità dei nuclei atomici) e le interazioni nucleari deboli (responsabili della radiazione beta). Nei diagrammi di Feynman, le forze della fisica classica sono sostituite da scambi di particelle virtuali, che trasferiscono l’impulso e l’energia dalle particelle reali iniziali a quelle reali finali: la località è così garantita nelle trasformazioni causate dai campi al costo d’inventare nuovi fantasmi.
Il vuoto della TQC è però molto più d’un ricettacolo di particelle virtuali. È un insieme infinito di molle incoerenti, pulsanti in tutti i modi possibili.
Ancora nel contesto della fisica classica, era emerso a fine ‘800 un problema. In termodinamica la temperatura è una grandezza che misura l’energia cinetica media delle particelle. Esiste perciò una temperatura minima, lo zero assoluto, che coincide con la condizione in cui le particelle sono ferme. Questo accade a 273 gradi sotto lo zero centigrado. D’altro canto ogni sostanza ha un suo calore specifico, che è il numero di calorie che l’ambiente deve fornire ad un grammo di sostanza per accrescerne la temperatura di un grado, o all’inverso il calore che un grammo della sostanza cede all’ambiente quando la sua temperatura è raffreddata di un grado[viii]. Ora, poiché un grado di temperatura è una precisa quantità di energia cinetica, il calore specifico di una sostanza non dovrebbe dipendere dalla temperatura. Questa era appunto la legge di Dulong-Petit…, fino al 1906 allorché Nernst, misurando i calori specifici di diverse sostanze a temperature molto basse (intorno ai 5 gradi assoluti), trovò il risultato strabiliante che essi non sono costanti, ma diminuiscono con la temperatura. Nell’usuale scambio di energia tra sostanza e ambiente, chi è il Robin Hood che appare alle basse temperature, per prelevare durante il raffreddamento una quota di energia da trasferire durante il riscaldamento? Più ci penso e più mi pare incredibile l’audacia intellettuale di Nernst, il quale puntò il dito sul vuoto per questa operazione di contrabbando energetico, nella quale tutti i corpi sarebbero fortemente invischiati (“entanglement” è il termine tecnico usato in TQC).
La TQC ha preso sul serio la proposta di Nernst. L’introduzione del vuoto, come ente dotato di proprietà fisiche e privo di struttura spazio-temporale, col suo entanglement che invischia tutti i corpi tra loro, distrugge in un colpo solo tre mostri sacri della scienza naturale dalla sua nascita:
1) il concetto galileiano di corpo isolato[ix],
2) l’assolutezza della località e
3) il totem della causalità[x].
La MQ era ancora (come la fisica classica e le due relatività einsteiniane) una teoria della località, cioè dell’interazione diretta tra i corpi mediata dagli scambi di energia ed impulso trasportati dai campi e soggetta alla causalità. Nella TQC rimane l’interazione tra i corpi fisici con la località garantita dalle particelle virtuali e con la causalità ad ordinare i tempi di successione dei fenomeni, ma ci sono anche l’interazione di ogni corpo col vuoto e l’interazione tra tutti i corpi mediata dal vuoto, senza località né causalità perché non importa qui quanto i corpi siano reciprocamente distanti nello spazio e nel tempo.
L’assurdo dualismo onda-corpuscolo della MQ era un residuo dell’assunzione classica d’isolamento dei corpi, immaginata per la prima volta nel gedanken Experiment di Galileo sul vascello in moto uniforme. Nella TQC nessun corpo fisico è isolato dal vuoto e la sua lunghezza d’onda di De Broglie è la vibrazione del suo Doppio (la molla della stessa frequenza pulsante nel vuoto), tra tutti gli infiniti modi di vibrazione possibili.
La nuova ontologia fisica
Consideriamo ora le tre proposizioni seguenti:
1) la realtà fisica è suscettibile di una descrizione oggettiva, indipendente dall’osservatore (realismo);
2) la realtà fisica è soggetta ai principi di località e di causalità;
3) la realtà fisica è quantizzata, nella materia e nei campi.
C’è un risultato matematico del 1964, il teorema di Bell, che stabilisce l’incompatibilità delle tre proposizioni in blocco: possiamo sceglierne due, ma dobbiamo mollare la terza. L’interpretazione di Copenaghen della MQ lasciò cadere la proposizione 1) e precipitò nell’idealismo, che si aggiunse alle contraddizioni e alle incompletezze della teoria. Einstein avrebbe mollato volentieri la proposizione 3), perché la sua metafisica realistica non poteva rinunciare ai principi di località e di causalità, che l’avevano tanto premiato con la relatività. La TQC salva il realismo e l’evidenza di un mondo quantizzato, lasciando parzialmente cadere la 2), che non vale nei fenomeni dove gli effetti dell’entanglement operati dal vuoto siano comparabili a quelli delle interazioni locali e causali operati dai campi. Ci sono quindi due tipi di fenomeni in natura secondo la fisica contemporanea:
a) i processi diacronici, che accadono nello spazio-tempo e sono soggetti ai principi di località e di causalità. Qui vale il metodo riduzionistico di scomporre il sistema nei suoi costituenti elementari e di studiare come questi interagiscono. La teoria si concentra sugli aspetti “platonici” del mondo: lo studio matematico degli invarianti di trasformazioni astratte (i gruppi), rappresentative delle trasformazioni reali; e
b) i processi sincronici, che avvengono fuori di una descrizione spazio-temporale, e sono quindi privi di località e causalità. Attraverso il vuoto, la storia dell’Universo impatta tutti i fenomeni, in particolare quelli compresi nella zona mesoscopica dove le condizioni iniziali e al contorno pesano come le leggi d’invarianza. Nel regno “aristotelico” dei sistemi dinamici fallisce il riduzionismo e l’ignoranza del metodo sistemico da parte del credo riduzionistico si rivolge contro lo stesso progresso scientifico.
In fondo, già il principio di Heisenberg implicava i processi sincronici. Il numero di bosoni N e la fase ϕ di oscillazione del campo (elettromagnetico, o nucleare forte, o nucleare debole) sono grandezze coniugate: quando, con una descrizione analitica vogliamo conoscere con precisione il numero N dei granuli del campo (i fotoni del campo elettromagnetico o altri tipi di particelle per gli altri due campi), dobbiamo rinunciare a conoscere il ritmo di oscillazione del campo (la fase ϕ); se invece poniamo l’attenzione sulla musica del Cosmo (la fase ϕ del campo) perdiamo ogni conoscenza del numero N di corpuscoli.
Non esistono elementi di casualità intrinseca nella TQC, specifici rispetto a quanto non accadesse già nella fisica classica, come pretendeva l’idealismo di Copenaghen e racconta tutt’oggi la vulgata; e la funzione d’onda è solo il ricoprimento statistico dei modi del campo quantizzato, cosicché il tanto misterioso collasso d’onda della MQ – nella cui mitologia l’osservatore diventava responsabile della vita e della morte del gatto di Schrödinger[xi] e più in generale attualizzava prodigiosamente gli stati fisici – è solo il particolare modo del campo registrato da un rivelatore localizzato, invischiato col vuoto.
Col che, dopo le particelle materiali e i campi (saliti a 4), un terzo attore prende prepotentemente posto nel mondo fisico: il vuoto.
La stoffa dell’Universo
Anche la cosmologia ci riserva sorprese riguardo alla materia. Dopo che il modello del Big Bang ricevette negli anni ’60 un’ampia corroborazione, il fato dell’Universo (se la sua espansione, peraltro accelerata nella nostra epoca, continui o se finirà per rovesciarsi in una contrazione) è divenuto il problema principale di quella disciplina. Il filo che separa i due destini è estremamente sottile: la costante Λ, da cui dipendono le soluzioni dell’equazione di Einstein che descrive l’evoluzione cosmica, sta all’interno d’un intervallo numerico fantasticamente stretto, centrato sul valore critico che impedisce all’Universo un’espansione o un collasso così rapidi da essere incompatibili con la vita. Dov’è il problema? Sta nella predizione che questa selezione antropica fu garantita all’inizio del Big Bang prima ancora che cominciasse l’espansione. E il maggiore disappunto dei teorici delle stringhe è proprio di non riuscire a dare spiegazione a tale coincidenza. Vediamo.
Da che mondo è mondo, o almeno da Ockam in poi, appare più ragionevole assumere che qualcosa sia esattamente zero (così da farne a meno), piuttosto che abbia il valore 0,000…[124 zeri]…0005. Sarebbe curiosa una spiegazione che postulasse qualcosa di più incomprensibile di ciò che intende spiegare, giusto? Ebbene, mentre in cosmologia i teorici si scervellavano a trovare un argomento convincente per azzerare Λ, gli sperimentali scoprivano l’energia oscura (dove la denominazione significa: per far tornare i conti di come crediamo di spiegare ciò che osserviamo con i telescopi, postuliamo l’esistenza nell’Universo d’un tipo di energia di cui non sappiamo nulla) e la materia oscura (il cui significato è come sopra). Precisamente, secondo gli sperimentali, che hanno sempre l’ultima parola in scienza sperimentale, l’energia oscura rappresenterebbe il 68% del materiale dell’Universo e la materia oscura il 27%. La materia-energia ordinaria sarebbe quindi solo il 5% del mondo. E l’accoppiamento più ragionevole tra teoria ed osservazione è ottenuto assegnando a Λ la rappresentanza dell’energia oscura, con un numero positivo non superiore a 10-124 (in unità naturali). Due nuovi fantasmi ed un numero assurdo: abbasso Ockam!
Non basta. Accade che il valore 10-124 di Λ sia più o meno uguale alla densità di massa attuale dell’Universo. Poiché però all’espandersi del raggio R dell’Universo la densità di massa decresce con 1/R3, ne deriva che nel lontano passato la densità era molto maggiore di Λ e che nel lontano futuro sarà molto minore. Cosicché solo nell’epoca in cui tu ed io, caro lettore, siamo potuti sorgere dalle ceneri delle prime stelle, solo in questa particolare era cosmica accade che la materia sia distribuita nell’Universo giusto nella misura di Λ: una coincidenza? Solo chi è senza cuore non comprende la disperazione dei cosmologi, prigionieri per decreto galileiano nella gabbia delle cause efficienti, a non trovare una spiegazione d’un numerino così finemente finalizzato…
Conclusioni
Il modello standard della fisica ha ottenuto importanti corroborazioni anche nel 2013, a livello di microcosmo e di macrocosmo. Nelle osservazioni all’acceleratore del Cern così come in quelle del satellite Planck, abbiamo trovato conferma a quanto crediamo di sapere (che risulta poco) e a quanto sappiamo d’ignorare (che risulta molto). L’Universo “comparve” 13,8 miliardi di anni fa e si sta espandendo alla velocità di 67,3 chilometri al secondo per megaparsec. Nel primo decimiliardesimo di secondo, in seguito alla rottura spontanea di simmetria di una funzione matematica (la “lagrangiana”), emersero gli attuali 4 campi di forza e le prime eteree particelle. Poi, dalla vibrazione durata 10-21 secondi di un quinto campo[xii], la materia fu. Oggi le particelle sono catalogate in una trentina di tipi diversi per massa, spin ed altre proprietà distintive.
Se ci sono voluti pochi istanti a campi e particelle, occorsero una decina di miliardi di anni perché queste fossero prima addensate in stelle dalla gravitazione, poi lì assemblate in 92 conformazioni atomiche principali sotto l’azione degli altri campi ed infine scagliate nello spazio in macro-agglomerati incandescenti. Dopo il raffreddamento della sua crosta, in uno di tali frammenti comparve non sappiamo come la vita, con l’accompagnamento di curiosi osservatori altri 3,5 miliardi di anni dopo.
Quelle particelle elementari sono proprio “elementari” o sono ulteriormente suddivisibili? Come Lavoisier per gli elementi chimici, anch’io risponderò pragmaticamente: fin qui siamo arrivati nella scomposizione della materia! A questi numeri abbiamo costruito un modello matematico semplice, corroborato dagli esperimenti possibili alle energie oggi disponibili, e forse migliorabile ai livelli superiori richiesti per un’analisi più intima, che appaiono però fuori dalla portata delle tecnologie prossime future.
Questo per la fisica. Alla filosofia compete il giudizio finale su due millenni e mezzo di ricerca, nella quale il pensiero occidentale, non soddisfatto del dato bruto che gli proveniva dai sensi, si è interrogato sull’essenza delle cose e la loro origine.
1. Ferma restando la competenza della metafisica sull’origine, la ricostruzione che il modello standard fa dei momenti iniziali dell’Universo è il trionfo della concezione platonica delle Idee intellegibili. Il modello standard è il moderno Timeo.
2. Per Aristotele, la materia era l’elemento indistinto costitutivo della realtà e il serbatoio di potenzialità dove i moti delle forme attualizzandosi davano origine alla cornucopia delle sostanze. In questa concezione non esisteva potenza senza atto. L’energia cinetica e l’energia potenziale della meccanica classica furono la prima traduzione scientifica, quantificata della potenza dei corpuscoli materiali in atto. Con i 4 campi di forza infine, la potenza acquisì in fisica uno status ontologico autonomo dall’atto della materia. Addirittura sarebbe stata la potenza di un campo, quello di Higgs, ad attualizzare le particelle massive. Possiamo quindi dire che, dal mito presocratico alla ragione aristotelico-scolastica alla fisica contemporanea, è andato crescendo il ruolo della potenza (non più indeterminata, ma misurabile) rispetto all’atto.
3. Forse l’aspetto che più marcò la rivoluzione scientifica alle sue origini fu l’idea di spiegare le proprietà dei corpi macroscopici tramite la struttura sottostante microscopica, insieme all’assunzione che questa struttura consistesse in corpuscoli, onde ed eteri aventi proprietà (“primarie”) intuitive, desunte dalle percezioni sensoriali più semplici che riceviamo tutti i giorni dagli oggetti macroscopici. Il metodo che spiega le proprietà dell’insieme con le proprietà delle sue parti, attribuendo alle parti le proprietà più familiari dell’insieme, si chiama riduzionismo.
I campi fisici però si estendono in una regione ed il loro valore in ogni punto dipende dal complesso dei valori in tutta la regione: cosicché spiegare il moto di una massa col campo gravitazionale o il moto di una carica col campo elettromagnetico è l’opposto del riduzionismo. Spiegare il comportamento delle parti nei termini del tutto si chiama olismo. È vero che il tutto (il campo) può ancora essere definito ontologicamente come nulla più che la collezione delle sue parti (le sorgenti del campo), ma solo alla condizione che le parti siano ontologicamente definite sulla base del ruolo che giocano nel tutto.
Riduzionismo e olismo sono due descrizioni equivalenti del microcosmo. La scienza sperimentale è muta sull’ontologia primaria. Fin qui.
4. Un terzo player svolge un ruolo attivo, impensabile fino a mezzo secolo fa: il vuoto. Il vuoto è sinonimo della storia dell’Universo, la quale impatta su tutti i processi, criticamente su quelli biologici e cognitivi. L’invischiamento di tutto col vuoto e di tutto con tutto tramite il vuoto (“entanglement”) segna i limiti di validità dell’isolamento e del riduzionismo, nonché la soglia dove la comprensione della natura implica l’auto-organizzazione e l’informazione.
5. Riduzionismo e olismo, quando non siano ipostatizzati in schemi metafisici, sono le due facce inseparabili del metodo sistemico. La sistemica ha mostrato che l’indeterminazione, lungi dall’essere un’esclusiva dei quanti, appartiene alla modellistica di ogni ente reale che essa pretenda di rappresentare esaustivamente con equazioni lineari, come volevano la fisica classica e la MQ e come vorrebbero – per la nostra ignoranza matematica – anche la TQC e la teoria M. Ma che gli umani scelgano le equazioni lineari perché sono le uniche che essi sanno risolvere non implica che la realtà fisica sia intrinsecamente “indeterminata” (o casuale), ma solo che essa è inafferrabile dal logos analitico degli umani. Il principio d’indeterminazione traduce l’inesauribilità dell’essere (che sia una particella elementare o una cellula o un cervello o un’organizzazione sociale) e la complessità della sua relazione col Cosmo.
Non c’è essere al mondo che la tecno-scienza non voglia penetrare, ma ciò che può essere penetrato dalla tecno-scienza non è l’essere.
6. Per la filosofia naturale e la fisica classica spiegare il molteplice significava ridurlo al semplice. In questa strategia la materia, concepita come fondamentale indistinto, fu necessariamente il punto di partenza della ricerca. Oggi però le “spiegazioni” della fisica muovono nella direzione opposta di derivare anche le cose più semplici dalle assunzioni meno intuitive, da elaborarsi nella matematica più astratta. Anziché ad un unico indistinto, siamo così giunti a 30 tipi di particelle più 4 campi d’interazione più il vuoto, strutturati nei sistemi formali della TQC e della RG (in prospettiva, unitariamente nella teoria M). Più un 95% d’ignoto?
7. Nel secolo di Newton e ancora in quello di Maxwell si poteva sottoporre al controllo dell’esperienza un’assunzione scientifica isolata. La gravitazione newtoniana ipotizza che la forza sia inversamente proporzionale al quadrato della distanza? La matematica ne deriva la predizione che le traiettorie sono sezioni coniche ed è facile verificare che proprio così accade nei moti celesti e nella balistica. Come fu facile controllare la predizione di sir Halley che una cometa sarebbe riapparsa a Natale 1758. Ma il bosone di Higgs non è una pallina che si può vedere, toccare, pesare, ecc. Oggi è difficile, anzi forse è diventato impossibile, stabilire dove finisce l’immaginazione e comincia la scienza popperianamente falsificabile.
Per prima cosa si è ampliato il criterio di scientificità: una teoria è ora accettata anche se contiene agenzie onnipotenti occulte ed oggetti inosservabili (caratteristiche che sarebbero state aborrite da Galileo, Newton, Lavoisier o Maxwell), purché faccia predizioni indirettamente controllabili.
Poi, è mutato il significato di “dato” empirico. Oggi il sistema delle scienze sperimentali e delle loro teorie è diventato così complesso che non è più possibile controllare una singola ipotesi, né un insieme di ipotesi, perché ogni parte acquisisce significato solo in relazione alle altre parti. Così, il 6 marzo 2013, dopo un confronto collettivo internazionale perdurato mesi, si è convenuto d’annunciare l’esistenza del bosone di Higgs perché un fenomeno (elettromagnetico) A, osservato con una probabilità maggiore del numero convenuto B, è implicato dalla proposizione C che rientra nel meccanismo D della teoria E che insieme alla teoria F, ecc. rappresenta la migliore spiegazione che attualmente abbiamo della struttura della materia: il modello standard. Certo, è ancora possibile rigettare una nuova proposizione trovata contraddittoria con i “dati” dell’esperimento. Ma poiché questi dati non sono direttamente desunti dai sensi, ma interpretati sulla base di un insieme di altre proposizioni e teorie del sistema totale umano di conoscenze, ci sarebbe sempre anche la strada di modificare un sottosistema (non si sa a priori quanto grande) di quelle proposizioni e teorie.
Oggi la scienza sperimentale non si confronta più con “dati”, con “esperimenti”, con la “natura”, ma è un sistema di proposizioni che si confronta con nuove proposizioni. Ma se è così, dove sta la scienza intesa come conoscenza?
8. Einstein ha spiegato la gravitazione in maniera del tutto differente da Newton. Ma davvero la dinamica è univocamente fissata dal tensore 4-dimensionale di stress-energia? Già emergono dubbi e sono proposte ulteriori dimensioni spaziali nella teoria M. La RG ha inglobato la gravitazione newtoniana falsificata dalla precessione di Mercurio, la TQC ha inglobato la MQ falsificata dai processi di creazione e annichilazione, che a sua volta avevainglobato la meccanica classica falsificata dalla stabilità dell’atomo… Ma quando una nuova teoria scientifica ingloba una teoria precedente falsificata, s’intende che la nuova funziona in tutti i fenomeni dove funzionava la vecchia più in altri, non che il sistema formale vecchio è un sotto-sistema logico del nuovo sistema. Assunzioni, concetti, teoremi sono intraducibili; le teorie sono reciprocamente incoerenti. Solo, si fa che accada che i vecchi numeri verificati costituiscano, sotto alcune condizioni di limite, un sottoinsieme dei nuovi numeri.
L’evoluzione della scienza sperimentale, testimoniata dalla sua storia, non è un progresso di avvicinamento alla verità (come avviene in matematica quando si trova una nuova cifra di π), ma è la marcia trionfale del dominio dell’uomo sulla natura, scandita per discontinuità di rappresentazioni. La scienza naturale è diventata tecnica. Tecno-scienza.
L’ampliamento della scientificità ad agenzie arcane e ad oggetti inosservabili (culminato nel parossismo del multiverso inflazionario) alla condizione di ottenere comunque risultati controllabili – che vuol dire replicabili, e infine duplicabili in dispositivi vendibili – ha sigillato la vittoria della visione di Francesco Bacone. L’essere è visto sotto gli aspetti della manipolazione e dell’amministrazione. Tutto diventa ripetibile e sostituibile, compreso l’essere umano.
L’allargamento all’invisibilità e all’onnipotenza ha trasformato la falsificabilità di Popper da criterio di distinzione tra la fantasia e la scienza (intesa come “adaequatio rei et intellectus”, Tommaso d’Aquino) a separazione del divertissement dall’utile. Ciò che conta non è la verità, ma l’operation, il procedimento efficace. Non in “discorsi plausibili, edificanti, dignitosi o pieni di effetto, o in pretesi argomenti evidenti, ma nell’operosità e nel lavoro e nella scoperta di particolari prima sconosciuti per un migliore equipaggiamento e aiuto nella vita [stanno]il vero scopo e ufficio della scienza” (F. Bacone, “Valerius Terminus: of the Interpretation of Nature”, 1603). Lo stupore di fronte all’essere e la felicità di conoscerlo sono diventati lascivia per l’homo œconomicus. Non solo non c’è nessun mistero per lo scientista, ma neppure il desiderio della sua rivelazione. E a chi mi canterà l’ultima teoria sull’origine del mondo o delle specie o della mente o dell’amore, nel dubbio io domanderò come l’asset manager d’un fondo d’investimento specializzato nella ricerca scientifica: dove sono le applicazioni?
9. Il dualismo classico tra mente e corpo (o tra anima e corpo) pose una netta separazione tra l’immateriale e il materiale, dove l’immateriale era semplicemente inteso come il complementare delle proprietà della materia e delle sue potenzialità. Ma ciò non si può fare, finché non si conoscono tutte le proprietà della materia, dell’energia e dell’Universo fisico nel suo insieme; se nemmeno sappiamo che cos’è la materia. D’altra parte, nulla in 2.500 anni di ricerche filosofiche e scientifiche fa presagire una soluzione riduzionistica del mind-body problem; anzi la scoperta dell’entanglement pone un limite epistemico al riduzionismo già nel mondo inanimato. “Se ho imparato qualcosa come fisico è quanto poco sappiamo con certezza. In termini della natura ultima della realtà, noi scienziati siamo ontologicamente ignoranti” (M. Tegmark, 2013). Ad ogni nostro avanzamento per afferrarla, la materia retrocede. Che dire della mente?
In 25 secoli di affanno, abbiamo scoperto la ricchezza della materia e l’immensità della nostra ignoranza, verosimilmente destinata ad aumentare con l’avanzamento della ricerca. Le due risposte opposte al mind-body problem – il dualismo ed il materialismo – sono entrambe insoddisfacenti ora come allora, perché trascurano le dimensioni rispettivamente di quella ricchezza e di questa ignoranza.
[i] Propriamente, la relatività speciale non è una teoria della fisica come le altre, intese a spiegare classi di fenomeni, ma si configura come una super-teoria che fissa i paletti entro i quali tutte le teorie della fisica devono stare.
[ii] L’esperimento di Eddington del 1919: la stella A appare visibile dalla Terra prima di uscire dal cono d’ombra del Sole, e questo perché l’incurvatura dello spazio-tempo operata dalla massa del Sole (e rappresentata in figura dall’incurvarsi delle linee geodetiche in prossimità del Sole) la colloca ad un osservatore terrestre nella posizione apparente B.
[iii] Il principio di località afferma che due corpi si possono disturbare nei loro moti (che altrimenti sarebbero rettilinei uniformi per il principio d’inerzia) solo venendo a contatto. In altre parole la località vieta l’azione a distanza.
[iv] Agostino d’Ippona aveva del tempo una concezione anticipatrice della RG. I suoi compagni pagani lo canzonavano per la sua fede biblica in un inizio del mondo: ma che cosa faceva Dio in tutto quel tempo, un tempo infinito, prima dell’inizio? perché ha aspettato così a lungo, infinitamente a lungo, a creare le cose? Oggi si direbbe: che cosa c’era prima del Big Bang? Ebbene, Agostino anticipò la risposta della RG. Egli rispose semplicemente che prima dell’inizio non c’era il tempo, perché il tempo è nato insieme alle altre cose.
[v] “Noi sappiamo, per dimostrazione, che la Luna non è più là quando non la osserviamo” (N.D. Mermin, fisico).
[vi] Negli ultimi 30 anni i fisici teorici si sono dedicati alla teoria delle stringhe, nello sforzo congiunto di risolvere il problema di consistenza della TQC e d’inglobarvi la RG. Certamente la teoria delle stringhe, o meglio teoria M, è un sistema matematico coerente, che ha anche fatto avanzare la matematica pura. Però non è risultata finora in grado di fare predizioni fisiche controllabili.
[vii] Tuttavia non esiste alcun modo di estrarre energia dal vuoto, perché ciò richiederebbe la transizione ad uno stato di energia minore che, per definizione di vuoto, non esiste.
[viii] Prescindiamo qui dalle variazioni di fase. Per es., se portiamo l’acqua da 99,5 a 100,5 °C dovremo fornire una maggiore quantità di calore, perché oltre a quello necessario ad aumentare l’energia cinetica delle molecole, ce ne servirà anche per rompere i legami tra le molecole dell’acqua liquida e realizzare il cambiamento strutturale all’acqua gassosa.
[ix] “Rinserratevi con qualche amico nella maggiore stanza che sia sotto coverta di alcun gran naviglio, e quivi fate d’aver mosche, farfalle e simili animaletti volanti: siavi anco un gran vaso d’acqua, e dentrovi de’ pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell’acqua in un altro vaso di angusta bocca che sia posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti volanti con pari velocità vanno verso tutte le parti della stanza. […] Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sta fermo non debbano succedere così: fate muovere la nave con quanta si voglia velocità; ché (pur di moto uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la nave cammina, o pure sta ferma” (G. Galilei, “Dialogo dei massimi sistemi”, 1633).
[x] Secondo il principio di causalità della fisica classica, dati due eventi A e B, accaduti nei tempi t(A) e t(B), B può essere effetto della causa A solo se t(A) < t(B). Nella RS, l’esistenza di una velocità massima c, quella della luce, impone una maggiore restrizione, perché A può causare B solo se l’intervallo temporale tra i due eventi è sufficiente a coprire con un segnale luminoso la loro distanza spaziale.
[xi] Il principio di complementarietà in MQ, per cui una particella è anche un’onda, implica l’esistenza di stati “sovrapposti” delle particelle, perché le onde si possono sovrapporre in ogni modo per produrre una nuova onda. Così ne derivò il paradosso del “gatto di Schrödinger” che, mentre nei suoi due stati basilari può essere soltanto o vivo o morto, in certe situazioni (inosservabili) si troverebbe in uno stato intermedio; e solo in seguito all’osservazione di un Soggetto lo stato intermedio del felino precipiterebbe (“collasso d’onda”) in uno dei due stati basilari. Prima dell’osservazione – pretendeva la MQ – il gatto non è né vivo né morto e solo l’intervento del Soggetto ne provocherebbe l’esito esistenziale finale. Poiché la fantasia non ha limiti, a questa concezione idealistica (interpretazione di Copenaghen), fu contrapposta una concezione ancora più surrealistica (interpretazione dei “molti mondi”), secondo la quale ogni esito alternativo è realizzato in un diverso universo e lo stato che il Soggetto osserva coincide con quello dell’universo in cui gli è capitato di trovarsi! L’entanglement offre una soluzione razionale e realistica del paradosso, senza che si debba rinunciare alla validità della TQC al livello macroscopico felino: l’onda associata al gatto, a causa dell’entanglement, non è una sovrapposizione di stati quantistici (“coerenti”), ma una loro miscela statistica, il cui significato matematico è di rappresentare in ogni momento o un gatto vivo o un gatto morto.
[xii] Il “campo di Higgs”, i cui predittori hanno ricevuto il premio Nobel 2013 per la fisica.
.
.
.
.
.
57 commenti
Caro Giorgio,
intanto un milione di complimenti per quello che hai scritto e anche per COME lo hai scritto: sei riuscito a chiarire molto bene punti che per me erano del tutto oscuri (come l’entanglement che ho potuto comprendere grazie alal relazione con Nernst confermandomi una volta di più che la termodinamica è la ‘via regina’ per comprendere il reale, d’altronde cosa ci si poteva aspettare di meno da un approccio che funzionava anche quando gli scienziati pensavano che esistesse il flogisto ?).
Passando alle tue tesi, direi che sono d’accordo con te con un’unica eccezione sulla tecnoscienza che io non vedo strettamente relata alle odierne temperie della fisica fondamentale se non in maniera del tutto surrettizia.
Provo a spiegarmi meglio: l’idea che la scienza preceda sempre e comunque la tecnica non è giustificata dalla storia, a volte la scienza è arrivata molto prima (il televisore si basa sul campo elettromagnetico di Maxwell che comunque non ci pensava minimamente mentre scriveva le sue equazioni), i fratelli Wright si alzavano sulla spiaggia di Kitty Hawk con il loro aeroplanino/bicicletta con tutta la comunità fisica fortemente convinta dell’impossibilità del volo a motore…
Ora, se le cose si sono così complicate e per fare un esperimento bisogna mettere in campo forze finanziarie e umane poderose senza comunque arrivare ad una soluzione (apparentemente) definitiva se non mettendo in mezzo una serie di ‘se’, ‘nel caso di..’, ‘considerando che..’ e quindi si arriva ad un punto in cui gli articoli scientifici si riferiscono solo ad altri articoli in un delirio autoreferenziale significa una cosa sola: che il particolare progetto di ricerca è arrivato alla fase ultima di senescenza, che è quasi morto insomma, pace all’anima sua allora, è stato bello fino a che è durato (dagli antichi greci ad oggi una bella e lunga vita) ma ora è finita, stop.
Allora tutta la baracca della scienza fondamentale (sub specie ‘cosa è la materia’) viene tenuta su a mio parere per scopi propagandistici, come ‘garante di potenza’ da associare poi surrettiziamente ad amenità come la ‘macchina leggi-pensieri con l’NMR’ o ‘il gene dell’intelligenza’, diamine è sempre scienza no ? Allora se io dico che riesco a prevedere ciò che è accaduto nei primi femto secondi dopo il Big bang sono quasi Dio e quindi giù a cascata a idolatrare tutto il ‘pacchetto’ , chi se ne frega se sono decenni che è crollata la produzione di nuovi farmaci…
Un abbraccio e ancora complimenti
Alessandro
…insomma direi e se la frontiera si fosse spostata allo studio delle reti che hanno delle leggi mesoscopiche invarianti e indipendenti dalla ‘materia’ con cui sono fatte ?
Vedi cose tipo:
https://www.researchgate.net/publication/222687003_Correlations_risk_and_crisis_From_physiology_to_finance
Avremo una scienza dei ‘comportamenti’ piuttosto che delle essenze, semplice e artigiana (basta una persona + un PC)…
Ma certamente, caro Alessandro. Non è finita la scienza, ma è finito il progetto che tutte le scienze naturali debbano stare appoggiate l’una sopra l’altra come in una colonna di tante tartarughine, con alla base la fisica e subito sopra la chimica, ecc. E’ finito il riduzionismo. E non tanto come filosofia, che ci perseguiterà per sempre nulla sapendo della potenza della materia, ma ormai anche come metodo di studio della struttura della materia. E questo per il semplice motivo che siamo arrivati alla soglia delle energie tecnologicamente disponibili nello spaccarla (se non vorremo far esplodere il laboratorio e tutto il pianeta insieme).
Solo quelli che leggono il pensiero, quelli che negano il libero arbitrio confondendo un riflesso pavloviano con la creatività attenta con cui un compositore inventa musica ed i vari genecentrici non lo sanno, perché sono fermi alla fisica di un secolo fa e alla materia fatta di palline dure di Democrito.
Il futuro scientifico è la sistemica e la (tua) statistica ne è il profeta!
Troppo buono Giorgio, magari la statistica fosse ‘mia’ ;))) . A parte gli scherzi credo anche io che la frontiera sia ora da situarsi nel mesoscopico e nella sistemica, sfide nuove e chiaramente anche lì enormi possibilità di fraintendimento e ideologizzazione…ma almeno una nuova frontiera….
Grazie, grazie, grazie, prof. Masiero. Una panoramica completa e stupendamente descritta della materia, dai greci a oggi. Avrei moltissime domande da fare, ma mi limito ad una, anzi a due. Lei scrive che l’energia del vuoto e’ infinita. E’ questo un caso di serie divergente presente nella TQC? E come maneggia la teoria questi infiniti?
Sì, Wil, l’energia del vuoto è una serie divergente (“la divergenza ultravioletta dell’energia di ground state”) della TQC. Questo, come ho accennato nella nota vii, non crea problemi nelle trasformazioni prodotte dai 3 campi elettromagnetico, nucleare forte e nucleare debole, poiché ciò che conta è la “differenza” di energia tra dopo e prima e quindi non si fa altro che sottrarre la stessa serie divergente, dopo e prima.
Però, resta un problema grave di incompatibilità della TQC con il campo gravitazionale, che è determinato dal tensore di stress-energia, il quale secondo la TQC è divergente! Anche nelle versioni “finite” della TQC, come sono le teorie esistenti di Gravità Quantistica, dove si opera un taglio oltre una soglia di frequenze ipotizzando che lo spazio-tempo sia una schiuma di vuoti e pieni della dimensione della distanza di Planck, anche in queste versioni resta un problema irrisolto ai livelli di larga scala della struttura dello spazio-tempo, perché ne esce una predizione della costante cosmologica di circa 120 ordini di grandezza più grande del suo massimo valore possibile.
Caro Giorgio,
un articolo davvero impegnativo e quindi premetto che mi pongo come uno studente davanti al prof.
Sull’esperimento ideale del gatto di Schrodinger e quindi sul collassare della funzione d’onda non sono sicuro di aver ben compreso, l’osservatore dunque non fa collassare l’onda, ma quello che osserva è solo “il particolare modo del campo registrato da un rivelatore localizzato, invischiato col vuoto.” Ma allora esistono altri particolari modi contemporaneamente , e perché se ne registra solo uno? Temo di essere ancora in alto mare!
Sui altri punti ecco quanto al momento mi viene da dire:
3- pienamente d’accordo
4- dirompente la conclusione, ma come sperimentare l’auto organizzazione derivante dal vuoto?
5- da approfondire, vuol dire che esistono realtà che il nostro logos non può capire?
7- faccio molta fatica a gettare a mare Popper, preferisco un sistema che si confronta con dati ed esperimenti… in questo credo di essere sulla posizione di Alessandro.
8- Kuhniana la considerazione e sono perfettamente d’accordo, non mi piace il concetto di tecno-scienza al posto di quello galileiano
9- se l’aumento della conoscenza fa aumentare le cose sconosciute la scienza è un processo infinito? E pensare che solo qualche anno fa qualcuno predicava la fine della scienza per completamento delle conoscenze!
Le implicazioni di questo punto comunque non riesco a immaginarle tutte.
Sul gatto di Schroedinger, Enzo, non esistono “altri particolari modi contemporaneamente”, perché lo stesso apparato osservatore può ripetere l’esperimento solo in tempi diversi (e quindi avrà risultati probabilisticamente diversi), e un altro apparato osservatore può sì eseguire lo stesso esperimento contemporaneamente, però solo in un posto diverso e quindi anch’esso otterrà risultati probabilisticamente diversi. Poiché l’ampiezza di probabilità in TQC dipende da (x, y, z, t), in ogni momento ed in ogni posto il risultato è sempre e solo uno, diverso secondo la probabilità data dalla miscela statistica di stati quantici coerenti: o il gatto vivo o il gatto morto.
Sugli altri punti da te indicati sinteticamente posso dire:
4- “Come sperimentare l’auto organizzazione derivante dal vuoto?” Questo è il punto fondamentale dove la TQC impatta la biologia. Cercherò di spiegare in un articolo, dedicato agli amici dell’ID, come l’entanglement può produrre aumento d’informazione e auto-organizzazione.
5- “Vuoi dire che esistono realtà che il nostro logos non può capire?” Voglio dire di più: che ogni aspetto della realtà (anche un solo elettrone, per non parlare del cervello o di un’opera d’arte o dell’amore, ecc.) è nella sua totalità incomprensibile dalla ragione umana, la quale è limitata. L’adaequatio della ragione alla realtà non è mai al 100% su nessun ente reale: il logos è “analitico”, coglie alcuni aspetti da alcune direzioni, ma deve trascurare altri da altre. Sai, Enzo, dove c’è adaequatio al 100% e lì capiamo “come Dio” (Galileo)? Solo in alcuni argomenti di matematica. Per es., che 2+2=4. Ma questi enti non hanno la realtà della materia e comunque ci sono argomenti della matematica (per es. l’ipotesi del continuo di Cantor) che sono preclusi alla nostra ragione.
7- “Faccio molta fatica a gettare a mare Popper, preferisco un sistema che si confronta con dati ed esperimenti…” Il mio riferimento a Popper riguardava la fisica contemporanea, non tutta la scienza empirica. In particolare riguarda la fisica dell’infima scala delle particelle subatomiche e della massima scala della cosmologia. Su questa critica alla fisica mi pare che anche Alessandro sia d’accordo. Un sistema che si confronta con dati “bruti”, oggettivi, quelli che gli provengono dai sensi era ancora la fisica classica, la “filosofia naturale” di Galileo, Newton, ecc. Ma oggi non ci sono più dati bruti, oggettivi! E questo perché i dati che ricaviamo dagli esperimenti non appaiono ai sensi (come i moti degli astri ad Aristotele, la caduta dei gravi a Galileo, la cometa a Halley, la scossa elettrica della rana a Volta, ecc.). Oggi i dati sono stringhe di 0 ed 1 al monitor del pc che vanno “interpretati” e quindi assumono significato solo nel quadro di tutto il sistema di teorie e conoscenze pre-esistenti. Che cosa credi, Enzo, che sia la particella di Higgs?! (Magari ne farò un articolo preciso).
Questa fisica, ormai “arrivata ad essere metafisica” (Villenkin), crea un nuovo problema alle altre scienze naturali: la fine del riduzionismo, perché gli atomi di Democrito si sono volatilizzati. Solo alcuni neuroscienziati e biologi molecolari non se ne sono accorti, perché… sono fermi alla fisica di un secolo fa, al massimo arrivano a Copenaghen.
8- “Kuhniana la considerazione e sono perfettamente d’accordo, non mi piace il concetto di tecno-scienza al posto di quello galileiano”. Kuhn dice per me un’ovvietà registrando i (vecchi) cambi di paradigma. Io voglio dire qualcosa di più, che dopo l’89 è avvenuto un “cambio di pelle”, una metamorfosi in gran parte della ricerca scientifica. Che cosa ha causato la deriva attuale per cui le “scienze naturali” di Newton, Lavoisier, Linneo e Pasteur sono diventate “tecno-scienze”? Il capitalismo trionfante a livello globale, la tirannide del fondo di private equity sulla ricerca scientifica, il cui asset manager (te ne do testimonianza diretta) pretende il ritorno dell’investimento entro 3 anni (perché dopo tale periodo il CdA non gli deliberebbe il premio sopra lo stipendio…). Oggi non si cerca l’adaequatio, ma l’utile. La scienza è diventata la tecno-scienza di Bacone. Tutto il resto è filosofia per la finanza.
9- “Se l’aumento della conoscenza fa aumentare le cose sconosciute la scienza è un processo infinito?” L’aumento di conoscenza non fa aumentare le cose sconosciute, ma la nostra “percezione” di ignoranza, perché la realtà si ritira sempre più indietro. Quando ho deciso di scrivere questo articolo sulla materia, non sapevo che sarei arrivato a questa conclusione. Pensavo anch’io di raccontare un progresso, da Aristotele a Higgs, di avvicinamento dell’eguaglianza (“adaequatio”) della parola (“logos”) alla cosa (“res”, realtà). E invece? Invece ho capito che davanti alla materia dobbiamo inginocchiarci, perché essa è lo Sconosciuto. Per questo, chi parla di anima “e” corpo, di mente “e” cervello, mi fa sorridere: ma che ne sa lui di che cosa è il corpo, il cervello?! Se non sappiamo che cos’è un elettrone… Per non parlare dei cosiddetti materialisti, quei riduzionisti che credono di spiegare il cervello con i neuroni. Ma che cosa sono i neuroni?! Io, con Tommaso d’Aquino, mi considero un vero “materialista”, perché sono un monista che sa di essere ignorante sulla potenza della materia, che ogni giorno suscita misteriosamente la vita nella carne dei neonati. E se non conosciamo Ciò che “suscita” la vita, come possiamo disquisire su Ciò che la può ri-suscitare?
Apprezzabile davvero, prof. Masiero, la sua modestia riguardo alle potenzialità della ns. conoscenza, che condivido nel ritenermi tra l’altro per primo inadeguato a capire, per esempio, molti dei contenuti dei suoi testi (mi piacerebbe avere una statistica su quanti italiani li capirebbero davvero, a parte il pubblico dei ringrazianti CS che sono probabilmente più avanti della media degli italiani).
Lei dice: “E se non conosciamo Ciò che “suscita” la vita, come possiamo disquisire su Ciò che la può ri-suscitare?”
Io dico: appunto!
Io non ho mai, 1/10, MAI sostenuto che la risurrezione sia dimostrabile scientificamente. (Per fortuna, aggiungo, perche’ a differenza di Lei io non attribuisco certezza alle teorie scientifiche).
Lei invece fino a ieri ha sostenuto
1) di credere solo alla scienza,
2) di non credere alla risurrezione,
e adesso dice anche di essere d’accordo che
3) non si puo’ discutere in senso positivo o negativo di risurrezione.
Ma Lei Si accorge che le asserzioni 1),2) e 3) sono incompatibili in blocco? Insomma, Lei continua a non credere nella risurrezione, oppure ammette che sia possibile?
Qual e’ il Suo vero credo, 1/10, perche’ io possa continuare a dialogare con Lei senza essere ammirato per la mia pazienza?
Non mi sono spiegato troppo bene…
Intendevo, semplicemente, che per l’appunto, bisognerebbe avere meno certezze su quell’Entita che ri-suscita la vita. Invece accade regolarmente il contrario, a livello di fede, per carità, e di alta teologia che, per essere pure una scienza, non potrà essere confutata manco dal grande Puffo Azzurro.
Naturalmente per me quell’Entità non esiste, per diverse ragioni, e sentirla dare così per scontata mi rende, forse, a mia volta fumoso com’è fumoso il credere in ciò che non potrà mai essere dimostrato se non con l’enfatizzazione della bellezza del creato e altre amenità simil orologio e orologiaio.
Lei continua, 1/10, a contraddirSi, perche’ mentre nella prima meta’ della prima frase invita tutti ad essere prudenti nelle loro certezze, negli altri 3/4 del Suo discorso fa un’eccezione per le Sue certezze ed irride pesantemente a chi non la pensa come Lei.
A questo punto chiudo per stasera, dichiarandomi disponibile da domani a riprendere il dialogo, se vorra’ interrogarmi sulla parte scientifica che Lei non abbia compreso del mio articolo, o su qualcuno dei 9 punti filosofici finali. Senza andare OT. Buona notte.
Articolo veramente magnifico Prof. Masiero! Avrei alcune domande da porle, ma data la complessità ed ampiezza dei temi trattati mi riservo di rileggerlo e meditarlo per qualche giorno, dopodiché le esporrò le mie curiosità!
Grazie. Aspetto le Sue domande, Nicola.
Ringrazio anch’io il prof. Masiero per questa lectio magistralis. Una domanda: che cosa intende con le parole che il principio d’indeterminazione non riguarda solo i quanti ecc.?
Gentile Anna, il principio d’indeterminazione di Heisenberg stabilisce che non si possano misurare contemporaneamente due grandezze coniugate sotto una soglia d’errore data dalla costante di Planck. Questo è un “fatto” sperimentale e quindi vale sia in MQ che nella TQC. Le due teorie si limitano ad assumerlo nei loro principi.
Il problema, la divisione tra Einstein e Bohr, culminata con la vittoria di quest’ultimo alla Conferenza di Solvay del ’27, nacque sull’interpretazione. Perché c’è questa soglia? Il problema è sempre lo stesso, quello della volpe e l’uva: è la natura che è fatta così (interpretazione di Bohr)? o i limiti appartengono alla nostra (magari momentanea) capacità di conoscerla (interpretazione di Einstein dell’incompletezza della MQ)?
Per decenni, e tuttora nella vulgata e nella cultura della gente colta, è stata accolta l’hybris dell’interpretazione di Copenaghen: la MQ sarebbe completa, perfetta, piuttosto è la natura ad essere fatta così. Il realismo con cui Einstein tornò successivamente alla carica col celebre paradosso EPR (1935) era però troppo ingenuo (fatto ancora di “pallottoline” democritee) per sopraffare Copenaghen, che pure era errata sotto mille aspetti. Bohr convinse Heisenberg a Solvay con l’argomento del “disturbo” proveniente dall’osservatore. Ma se così fosse, perché non si potrebbe a priori calcolare con precisione questo disturbo?!
Oggi sappiamo che l’indeterminazione non sta nella realtà, ma nella matematica lineare con cui noi pretendiamo di descriverla. E queste indeterminazioni si trovano in ogni sistema (demografico, finanziario, biologico, ecc.) descritto con equazioni lineari.
Semmai il vero problema della TQC è perché l’indeterminazione in fisica sia misurata dalla costante di Planck: ma questo è un problema di fine tuning che riguarda una ventina di costanti in fisica!
Caro Giorgio,
veramente impressionante il lavoro si analisi e di sintesi che hai fatto!
Bellissimo poi il coniugio tra la ricerca scientifica e la riflessione filosofica, che è in fondo in fondo quello che tutti cerchiamo di fare nella vita.
Mi piace molto l’entenglement di tutto con il tutto e con il vuoto: l’Universo è un tessuto.
E ancora mi piace sottolineare che la materia non è qualcosa di “duro e compatto” come i sensi ci suggeriscono, ma a sua volta è composta di particelle e di campi. Più “vuota” che piena.
Da mendicante di teologia, aggiungo: come si fa a pensare che tutta questa complessa delicatezza, funzionante e intelligente, non abbia un Autore, ma esista da sempre?
Ciao e complimenti ancora!
Per risponderle brutalmente, ma con estremo rispetto per la sua fede, ci mancherebbe…
A pensare che tutta la complessa delicatezza che lei percepisce non abbia un Autore ci si mette il battito di ciglia di chi a questo stesso Autore, se esistesse, chiederebbe conto di tutte quelle complesse indelicatezze che ci fanno dannare…
Vedo che sei proprio frustrato da questa vita eh ?
Dio esiste per il semplice fatto che la materia non ha coscienza e non ha deciso di venire ad essere dal non essere da sola senza qualcuno che decidesse per lei .
Solo per il fatto che sei un non ateo non sei autorizzato a spararle grosse e cioè che chi non la pensa come te debba essere per forza di cose frustrato dalla vita.
Quanta retorica!
La mia retorica di rimando è questa: non preoccuparti, sono solo i danni del catechismo imposto in tenera età, ma hai tutto il tempo per disintossicarti e riprenderti.
Bhé da come ti lamenti ogni volta su questo blog mi fai percepire questo , c’è poco da fare . Poi se ci aggiungiamo anche il luogo comune sparato sul catechismo ,che non c’entra veramente nulla ,mi diventi veramente banale . Comunque io non ho fatto retorica ma semplice descrizione della realtà . Le leggi fisiche e la materia non esistono da sempre e hanno avuto un inizio da Qualcuno di immateriale , non fatto della materia finita di questo mondo ma di qualcosa non immaginabile , per questo è anche sempiterno in quanto la materia è strettamente legata al tempo (non dirmi che il tempo è solo una nostra percezione perché lo so e saresti banale) ed è trascendente perché è qualcosa di altro rispetto a questo universo.
Sono contento, Umberto, se da fisico ti ho reso parlando della materia almeno una parte dello stupore che tu da biologo mi hai trasmesso descrivendo lo sviluppo dell’embrione.
A uno dei dieci rispondo: se nulla funzionasse, né le stelle, né il ciclo dell’acqua, né una cellula, ecc… allora sì che sarei sicuro che non esiste Autore.
Ma se le stelle continuano a sintetizzare nuovi elementi chimici, se l’acqua compie il suo ciclo sulla Terra, se la cellula funziona con migliaia di reazioni al secondo, se il cuore pulsa il sangue in tutte le cellule per centomila volte al giorno, se due metri di DNA contengono una sequenza di 3,2 miliardi di lettere ordinate… allora sì che sono sicuro che c’è un Autore.
Le cose che non funzionano sottolineano ulteriormente che non è scontato che il sistema funzioni: se il sistema complessivo funziona, significa che è un grande miracolo.
Dio avrebbe potuto evitarci i terremoti, gli tsunami, i batteri e i virus, i tumori e…la morte?
Sì, certamente. Ma non l’ha fatto. Perché? La nostra risposta è che il Mondo è stato alterato dal peccato originale; la risposta della ragione è quella che ho sopra esposto: una Ferrari che non funziona, su cento prototipi, non mi esime minimamente dal pensare all’ingegnere che l’ha progettata.
…mi faccia un piacere: si firmi e vedrà che il mondo comincerà a svelarsi…
Ho letto con attenzione le due parti dell’articolo dell’eccellente prof. Masiero: lettura avvincente che permette in modo organico di riassumere ed esporre l’evoluzione di un concetto, quello della materia lungo gli ultimi 2500 anni. Lo si legge come un romanzo desiderando, ad ogni paragrafo, poter conoscerne il seguito: già vorremmo risolti i problemi legati alla TQC e conoscere la tappa seguente!
Grazie Giorgio per questo momento di gioia intellettuale: questo testo può senz’altro diventare una referenza in certi insegnamenti: se un giorno ne farai una versione in inglese, sarò felice se la potrai compartire.
Ovviamente, il dibattito che apri qui non è sul corpo del tuo testo ma sui nove punti inquadrati di blu, ma ognuno dei punti necessiterebbe un articolo di per sé alfin di discuterlo con serietà, mi limiterò pertanto, in questo dialogo, ad alcune considerazioni ispirate dai tuoi commenti:
a)Non credo che ci sia una cesura “ontologica” particolare tra la pratica della scienza fisica contemporanea e quella più tradizionale, cioè quando dici che siamo passati ad una tecno-scienza, in realtà penso semplicemente che rendi conto del fatto che un assunto metodologico ritenuto valido per secoli non era valido se non in casi particolari: il rasoio di Occam. La scelta di una teoria o di un modello rispetto ad un altro non risiede nella sua intrinseca maggiore semplicità ma nella sua intrinseca maggiore efficacia: a volte semplicità corrisponde ad efficacia ma non sempre.
b)Di quale efficacia parliamo? Di quella del discorso scientifico. Efficacia rispetto a quali parametri? Rispetto a quelli sociali, come direbbe Dürkheim. In effetti, il discorso scientifico è funzionale, da sempre , ai bisogni di una società data ed alla di questa capacità di trarne benefici. Il discorso scientifico è un discorso mitico, nel senso originale del greco mito, cioè parola che racconta: il discorso scientifico racconta e per essere recepito nella società che ne accoglie il mito deve servire alla coesione di detta società.
c)A comprova, vediamo l’uso di artifizi letterari , per spiegare efficacemente il reale in un modo che sia coesivo per una società data, cioè al contempo utile ed unificante. Se anticamente, il mito di Proserpina era sufficiente nella società di tipo agricolo greco-romana per spiegare il cambiamento delle stagioni, anche se nessuno aveva mai visto né Gaia, né Plutone e tanto meno Proserpina stessa, oggi abbiamo gluoni e quark colorati e saporiti che, soprattutto, non dovranno mai essere sperimentati direttamente. Il linguaggio del primo mito era espresso nella metrica omerica quella del secondo in quello dei gruppi di Lie. I due miti sono efficaci nei loro propri contesti culturali e capibili solo all’interno di codesti.
d)L’attività sperimentale è sempre la stessa dai tempi di Aristotele: il fatto che utilizziamo stringhe di uno e di zero è sostanzialmente riducibile alla domanda, questo evento previsto in questo luogo e tempo ha avuto luogo ( valore ad esempio 0) oppure no ( valore secondo stesso esempio 1) : tertium non datur. La domanda, che è espressione di un discorso, fatta ad un sistema fisico di qualunque genere, comporterà sempre una risposta positiva o una negativa senza nessuna possibilità di scelta. In questo senso, il confronto con il reale sarà sempre la sola pietra di Rosetta con il vero e la conoscenza obiettiva, anche se la sua interpretazione mitologica ( cioè scientifica) potrà variare asseconda dell’efficacia ricercata nel discorso.
e)Sempre considerano il fatto sperimentale, appena si utilizza uno strumento entriamo in una relazione mediata con il reale che necessita interpretazione: l’uso del primo telescopio che permette di notare macchie solari invisibili all’occhio nudo implica lo stabilimento di una teoria, l’ottica nel caso particolare, che permetta di interpretare il risultato. L’ottica è una spiegazione sofisticata, non la più semplice, ma la più efficace per interpretare cosa significhino quelle macchie. Una spiegazione più semplice, di tipo rasoio di Occam sarebbe di dire che quelle macchie sono prodotte da spiriti bricconi.
f)Guardando la tua storia del concetto di materia vediamo che c’è una costante metodologica lungo i 2500 anni: la logica usata da Omero, Parmenide, da Aristotele, da Alberto Magno, da Galileo, da Newton, Schrödinger, Higgs è sempre la stessa, quella detta aristotelica. Anche i miti antichi come quello di Gilgamesh cercano la logica all’interno del proprio discorso. La ricerca di efficacia mitica del discorso scientifico sempre si basa sulla struttura logica e su una struttura logica di tipo aristotelico e questo perché l’essere dell’universo è logica in atto e conoscere l’universo vuol dire penetrarne la logica.
g)Se la logica del discorso è la stessa in MQ , MC, TQC la struttura logica tra il fatto sperimentale ed il discorso pu`essere differente: in questo senso, quel che era chiamato il paradosso del gatto di Schrödinger, era in realtà una domanda mal posta. Infatti esso chiedeva di rispondere alla domanda seguente: cosa succede se voglio descrivere con una struttura logica di tipo A ( quello della MC) un modello descrittivo con struttura logica di tipo B ( quello della MQ) . Ovviamente, la domanda stessa è un controsenso totale: sarebbe l’equivalente di dire: cosa succede se voglio descrivere sotto forma di dimostrazione di geometria euclidea ( struttura logica di tipo A) un sonetto di Leopardi ( struttura logica di tipo B). Non credo che si insegni più ( almeno lo spero) nelle università degne di questo nome il paradosso di Schrödinger, altrimenti che come curiosità alla stessa stregua della nozione dell’etero del XIX secolo.
h)Personalmente vedrei più che una tensione tra olismo e riduzionismo, una tensione tra discorso mitico ( scientifico) e discorso logico ( metafisico), il primo concentrandosi sull’efficacia sociale del proprio discorso il secondo sulla contemplazione del reale in quanto tale.
Ancora una volta grazie per quest’opportunità di scambiare opinioni a questo livello, cosa così rara nel web pubblico.
Grazie, Simon.
Lo scientista dice: “Io credo solo nella scienza (naturale)”. Da ignorante, non sa che nessun sistema formale, in particolare nessuna teoria matematica o scientifica, può esprimere giudizi su di sé. Una tale teoria che spieghi se stessa, i propri metodi e condizioni di validità, ridurrebbe il livello metateorico a quello teorico, così violando un teorema fondamentale della logica (Tarski, 1936). Ogni giudizio sulla scienza appartiene ad una meta-scienza, l’epistemologia, che è un ramo della filosofia.
Il filosofo dice: “Io credo solo nella filosofia”. Ma quale filosofia? Egli trascura di poggiare la sua filosofia in una meta-filosofia, che è una metafisica. Il fondamento. Anche lo scientista poggia infine il suo credo su una metafisica, ma non lo sa, perché questa base è nascosta sotto la filosofia aporetica su cui senza sapere fonda il suo credo positivistico.
Tu, Simon, hai messo in luce alcuni principi metafisici della tua e anche della mia epistemologia.
Una citazione calzante:
“Even the attempt to escape metaphysics is no sooner put in the form of a proposition than it is seen to involve highly significant metaphysical postulates. For this reason there is an exceedingly subtle and insidious danger in positivism. If you cannot avoid metaphysics, what kind of metaphysics are you likely to cherish when you sturdily suppose yourself to be free from the abomination? Of course it goes without saying that in this case your metaphysics will be held uncritically because it is unconscious; moreover, it will be passed on to others far more readily than your other notions inasmuch as it will be propagated by insinuation rather than by direct argument. Now the history of mind reveals pretty clearly that the thinker who decries metaphysics if he be a man engaged in any important inquiry, he must have a method, and he will be under a strong and constant temptation to make a metaphysics out of his method, that is, to suppose the universe ultimately of such a sort that his method must be appropriate and successful. But inasmuch as the positivist mind has failed to school itself in careful metaphysical thinking, its ventures at such points will be apt to appear pitiful, inadequate, or even fantastic.” (da ‘The Metaphysical Foundations of Modern Physical Science’, E.A. Burtt)
Gia’, JdM: e’ imbarazzante quando la cosa sia elementare. Cosi’ come e’ una nemesi che ad arrivarci, col t. di Tarski, sia arrivato quel neopositivismo logico che aveva nel suo programma lo smantellamento della metafisica iniziato da Kant!
Nessuna meraviglia percio’ del ritardo della massa, che si istruisce solo sui media, i cui divulgatori sono ancora fermi agli anni ’20 del secolo scorso, nel Circolo di Vienna in filosofia come in quello di Copenaghen in fisica quantistica (quando non addirittura nella fisica ottocentesca!).
Senta prof . So che non c’entra nulla con il tema in questione ed è fuori luogo , ma non sapevo proprio dove chiederle un parere su questo articolo ” http://www.bbc.co.uk/news/health-25654112 ” . In pratica parla del fatto che i batteri seguiranno l’evoluzione darwiniana e diventeranno ”più forti” . Lei che ne pensa ?
Dalla lotta sopravvivono i più forti e soccombono i più deboli, e ciò per definizione degli aggettivi forte e debole. Però gli uni e gli altri devono già esistere PRIMA della lotta. Non s’è mai visto che dalla lotta sorga una nuova specie.
Quindi nuove condizioni ambientali e nuovi antibiotici potranno distruggere selettivamente alcune specie di batteri (più deboli), così lasciando il posto al proliferare maggiore di altre specie già esistenti più resistenti. Ma nessuna nuova specie apparirà “per evoluzione darwiniana”, cioè per miracolo. Leonetto Le potrà indicare i link ai molti articoli in cui CS ha trattato la questione.
Anch’io voglio ringraziare il Prof. Masiero per questo bellissimo articolo, anche perche’ mi ha dato modo di chiarire alcuni concetti che erano per me poco chiari (tra tutti quello della interpretazione di Copenaghen della M.Q.). Le domande da fare sarebbero parecchie ma, tra tutte quelle che mi vengono in mente, una mi preme in particolare: nel suo libro “L’illusione dell’ Ateismo” il teologo R.G. Timossi, parlando della concezione della materia nella filosofia tomistica, cosi’ afferma: “L’Aquinate pero’, fondava la sua metafisica sulla fisica o filosofia della natura aristotelica, che e’ stata ampiamente confutata dalla scienza moderna gia’ a partire dal secolo di Galileo Galilei, e che ora rappresenta solo un documento storico del passato. Per citare soltanto un caso esemplare, a fronte di scoperte quali l’equivalenza tra massa ed energia (con la celebre formula di Einstein E=mc quadro) e l’intrinseca natura dinamica delle particelle subatomiche, oggi non si puo’ piu’ definire la materia in termini di mera potenzialita’ o passivita’ come faceva Tommaso seguendo Aristotele”. Timossi cita inoltre Il testo di A. Ganoczy “Teologia della natura” (Queriniana, 1997): “La nateria stessa ha un comportamento fecondo, inventivo, che non si presenta come puramente passivo ad un agente d’ evoluzione”.
Francamente queste affermazioni mi lasciano abbastanza perplesso poiche’, a mio modesto parere, manifestano una grave incomprensione di cio’ che S. Tommaso d’Aquino intendeva realmente con il concetto di materia. A questo riguardo cito qui un testo di Leo J. Elders: “La materia prima non puo’ esistere di per se stessa, poiche’ essa non e’ che indeterminatezza e possibilita’ di cambiamento. Essa esiste sempre con qualcos’ altro per mezzo del quale e’ conosciuta. La materia prima stessa non e’ qualcosa che esiste, ma e’ cio’ per mezzo della quale le cose materiali esistono in quanto materiali. Questa materia si situa, in qualche modo, tra il qualcosa e il niente ed e’, per usare un ben noto termine aristotelico, un terzo qualcosa, un entita’ unica che si situa tra il qualcosa e il niente”.
Alla luce di questa definizione mi pare quindi legittimo concludere che, se Tommaso fosse vivo ai giorni nostri, non definirebbe di certo una particella subatomica come materia ma, piuttosto, come ente dotato di essenza ed esistenza. D’altra parte anche quanto qui scrive A. Strumia (uno studioso che stimo molto) riguardo la natura della materia http://www.disf.org/Voci/80.asp mi sembra decisamente piu’ concordante con quanto lei stesso descrive nel suo articolo. Vorrei quindi chiederle cosa ne pensa delle affermazioni di R.G. Timossi da ma citate.
La ringrazio per la sua cortese attenzione!
Sono d’accordo con Lei, Lucio (oltre che con Elders e Strumia). Mi sembra che Timossi non abbia compreso né l’ilemorfismo di Aristotele (yle-morphé: una fusione di materia e forma, di potenza ed atto), né cosa sono le particelle elementari secondo la TQC. C’è però un errore ancora più grave in Timossi, dal mio punto di vista, è di metodo, e riguarda il suo tentativo di trarre una metafisica dalla fisica, quando può avvenire solo l’opposto, perché è la fisica che si poggia sulla metafisica. Lo spiegherò nel prossimo articolo su Uccr.
Quando ho scritto le Conclusioni, anche per spiegare l’attualità della metafisica platonica e di quella aristotelico-scolastica nella fisica, mi sono chiesto: che cosa direbbero Platone, Aristotele e Tommaso di fronte alle scoperte della RG e della TQC? In che cosa sarebbero confermati e in che cosa stupiti?
Tralascio di parlare qui dell’apporto della metafisica medievale alla RG e alla quantizzazione, per cui La rinvio al mio articolo http://www.uccronline.it/2012/05/05/come-la-metafisica-medievale-anticipa-la-fisica-moderna/ e veniamo direttamente al modello standard della TQC.
Nel penultimo paragrafo e nelle conclusioni 1. e 2. spiego perché la metafisica di Platone è la stessa del modello standard del Big Bang, di quei primi istanti in cui l’Universo era stressato ad altissime energie dell’ordine di Planck; e come, nelle condizioni di regime seguite alle rotture di simmetria che hanno prodotto i 4 campi e la materia, è la metafisica aristotelica di yle-morphé, o materia-energia, o particelle-campi, a coincidere col modello standard. Fin qui gli antichi filosofi sarebbero confermati.
Di che cosa invece sarebbero, secondo me, stupiti?
1) Dell’esistenza di un “vuoto” diverso dal “nulla”, cioè di uno stato di minima energia di tutti e 4 i campi esistenti in natura, il quale non precede la creazione, ma ne è un pezzo fondamentale sempre “in atto”;
2) e che, per giunta, questo vuoto invischia in una rete infinitamente fitta tutti i fenomeni dell’Universo reciprocamente, per quanto distanti siano nello spazio e nel tempo, in una concausalità istantanea.
Il meno stupito, comunque, ne sarebbe Tommaso, perché il punto 1) nega il concetto di vuoto democriteo e rappresenta il “Fiat lux”, quando i campi precedono la materia e il punto 2) è la “causa seconda” in cui Dio garantisce con continuità l’essere: “causa dell’azione di ogni cosa in quanto le dà la capacità di agire, la conserva, la applica nell’azione”, Tommaso d’Aquino, “De potentia”).
Grazie per la sua risposta Prof. Masiero. A mio modesto parere la concezione della Materia data da Tommaso e’ ancora straordinariamente moderna, rimango quindi stupito nel leggere che un teologo cattolico possa considerarla oramai priva di valore…..
Attendo con vivo interesse il suo prossimo articolo circa i rapporti tra fisica e metafisica!
Voglio inoltre inviare un ringraziamento particolare al Prof. Pennetta e a tutti i collaboratori di questo sito per avere creato un luogo d’incontro “virtuale” in cui poter discutere e confrontarsi su argomenti cosi’ interessanti!
Mi associo, Lucio, al Suo ringraziamento al prof. Pennetta per consentirci di avere questo spazio di confronto; come desidero ringraziare Lei, e tutti gli altri partecipanti al blog, senza i cui interventi essi esso non avrebbe senso.
Caro Giorgio,
il tuo articolo è veramente denso e suggestivo! Merita di essere letto più e più volte, insieme a tutti gli interessanti commenti che ha suscitato. Devo però dire che ad una prima rapida lettura mi ha fatto subito venire in mente quanto scritto nell’articolo sull'”effetto Ramanujan” (http://www.enzopennetta.it/2013/02/effetto-ramanujan-lesigenza-di-un-nuovo-approccio-al-problema-dellevoluzione-umana/) riguardo alla negazione della congettura scientista (coincidente con la proposizione S = “ La mente giungerà col tempo ad elaborare una struttura logico-matematica atta a descrivere la realtà naturale in modo completo “). In quell’articolo, avevamo dimostrato che il paradigma di caso e necessità (indicato come “darwinismo”) non è logicamente sufficiente a spiegare la comparsa dell’Uomo. Avevamo inoltre definito le due declinazioni di S (ST – “ La mente riuscirà col tempo a comprendere tutta la realtà naturale, includendo un ricorso fondativo alla metafisica, non valendo per la realtà naturale un principio di chiusura causale ” ed SN – “La tecno-scienza riuscirà col tempo a comprendere tutta la realtà naturale, senza ricorso alla metafisica “), e della loro unica negazione razionalmente sostenibile (la XT – “La realtà ha una logica intrinseca che è solo parzialmente comprensibile dalla mente. Al massimo, la tecno-scienza potrà accrescere la sua comprensione della realtà naturale, ma non vi riuscirà mai in modo completo “).
Se ho capito bene, dunque, con il presente articolo tu sostieni in maniera estremamente convincente la verità della XT ; giusto? Ebbene, sarebbe allora interessante indagare come esattamente tale posizione epistemologica possa impattare sul problema dell’evoluzione umana! Ma mi pare che sia proprio quello che hai promesso di fare in un prossimo articolo, no?
PS: Ancora a proposito dell'”effetto Ramanujan”: ricordi il calcolo della sua probabilità riportato in Appendice a quell’articolo? Le nostre considerazioni ruotavano attorno all’ipotesi di lavoro che la differenza tra Uomo e antenato “scimmiesco” consistesse in una singola proteina… ebbene, una ricerca scientifica di un paio di anni fa – di cui francamente ignoravo l’esistenza – avrebbe dimostrato che la differenza consiste invece in alcune decine di proteine! Il livello di improbabilità salirebbe allora in maniera vertiginosa, come è facile capire…
Ecco l’Abstract: “ The de novo origin of a new protein-coding gene from non-coding DNA is considered to be a very rare occurrence in genomes. Here we identify 60 new protein-coding genes that originated de novo on the human lineage since divergence from the chimpanzee. The functionality of these genes is supported by both transcriptional and proteomic evidence. RNA–seq data indicate that these genes have their highest expression levels in the cerebral cortex and testes, which might suggest that these genes contribute to phenotypic traits that are unique to humans, such as improved cognitive ability. Our results are inconsistent with the traditional view that the de novo origin of new genes is very rare, thus there should be greater appreciation of the importance of the de novo origination of genes. ”
Il lavoro, apparso su PLOS Genetics, è liberamente scaricabile a questo link: http://www.plosgenetics.org/article/info%3Adoi%2F10.1371%2Fjournal.pgen.1002379?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+plosgenetics/NewArticles+%28Ambra+-+Genetics+New+Articles%29
Sì, Michele, la mia tesi è proprio che la realtà naturale è governata dal logos – senza nessun elemento di irrazionalità o di casualità –, ma che è solo parzialmente comprensibile dalla mente. La tecno-scienza, e la filosofia e la metafisica possono accrescere la nostra comprensione della realtà naturale, ma non la cattureranno mai in modo completo, né estensivamente né intensivamente. Questa è anche la posizione di Nagel sulla tecno-scienza. Io estendo i limiti anche alla filosofia e alla metafisica. Nella matematica invece, i limiti della ragione umana sono solo estensivi, non intensivi, perché la parte che comprendiamo la capiamo in maniera perfetta, “come Dio” (Galileo). Però anche in matematica abbiamo limiti estensivi, perché ci sono verità matematiche che non possiamo dimostrare (Goedel).
In un prossimo articolo mi sono ripromesso di far vedere come la TQC, e l’entanglement in particolare, possano mostrare la fallacia della tesi ID che la fisica non possa spiegare l’informazione e l’auto-organizzazione. Una fallacia che gli deriva dalla presunzione di sapere che cos’è la materia, di conoscere le sue proprietà e i suoi limiti. Mentre della materia, dopo 25 secoli di studio, è infinitamente maggiore la parte che ignoriamo di quel poco che sappiamo. E se non sappiamo che cos’è X, come possiamo escludere cosa X possa fare?!
L’articolo di PLOS che mi hai segnalato è notevolissimo, ti ringrazio. Noi, anzi “tu” avevi avuto l’acuta intuizione d’ipotizzare l’avvento di 1 proteina per marcare il passaggio antropico, ma 1 era evidentemente per noi il minimo possibile suscettibile di giustificare in un paradigma genecentrico la comparsa del simbolo. Ora i tecnici genecentrici sono arrivati alla soglia di 60 proteine, con un modello che fa ridere. Ma entriamo pure nella loro logica. La probabilità P dell’evoluzione casuale ad Homo sapiens passa dal nostro 10^(-140) al loro 10^(-8400). La loro conclusione: “Our results are inconsistent with the traditional view that the de novo origin of new genes is very rare, thus there should be greater appreciation of the importance of the de novo origination of genes”. Quanto understatement, signori! Come dire che viviamo in un mondo dove i miracoli (la “de novo origination” di programmi informatici complessissimi) sono la regola! Biologia molecolare impazzita.
Egr. prof. Masiero,
innanzi tutto voglio inviarle il mio apprezzamento per l’articolo “Che cos’è la materia? Parte II”, parecchio esaustivo ed anche (data la mole di informazioni contenute) molto impegnativo nella lettura.
Volevo riallacciarmi al commento riguardante il Principio di indeterminazione di Heisenberg per sottoporle due mie considerazioni che mi hanno sempre reso scettico rispetto all’interpretazione di Bohr:
1) Dal punto di vista strettamente scientifico sperimentale, la discussione tra Bohr ed Einstein circa l’interpretazione del Principio di indeterminazione potrebbe non essere risolta: la mente, utilizzando i 5 sensi, acquisisce conoscenza della realtà fisica dai dati che provengono dagli esperimenti.
Si può scrivere questa sorta di catena: realtà fisica → esperimenti → dati → 5 sensi → mente.
Bohr ritiene la realtà fisica soggetta ad oscillazione casuale, mentre Einstein ritiene gli esperimenti essere soggetti ad oscillazione casuale; data l’univocità della catena sopra descritta, la realtà fisica è misurata unicamente tramite gli esperimenti, ed i dati provenienti da essi (che arrivano ai nostri 5 sensi) sono soggetti ad oscillazione.
Dato che gli esperimenti sono la “strettoia obbligata” attraverso la quale passa il processo di raccolta dati, la mente non può sapere se la causa dell’oscillazione è imputabile alla realtà fisica oppure agli esperimenti stessi (questi ultimi soggetti o ad errori sistematici oppure ad errori dovuti all’interazione con le particelle fisiche, delle quali posizione e velocità vengono modificate dal processo di misurazione).
Un’analogia potrebbe essere rappresentata da una scatola chiusa, contenente una stampa di una fotografia ed una lente che fa convergere l’immagine verso una finestrella di uscita, posta su un lato di questa scatola; la lente è interposta tra la fotografia e la finestrella, in modo che l’immagine proveniente dalla fotografia debba passare obbligatoriamente attraverso la lente; inoltre un osservatore esterno non è in grado di aprire la scatola per esaminarne in dettaglio il contenuto.
Ora, se l’osservatore esterno dovesse vedere un’immagine sfuocata proveniente dalla fotografia, non potrebbe sapere se la causa di questa visione non perfetta sia da attribuire alla lente (che potrebbe essere difettosa) o alla fotografia (che potrebbe essere stata stampata già sfuocata).
2) Dal punto di vista filosofico, utilizzando il Principio di indeterminazione nella forma: cost. = ΔE•Δt, se dovesse avere ragione Bohr, l’equazione potrebbe implicare che per misurazioni fatte in tempi sempre più infinitesimi, dovrebbero esistere all’interno di questi istanti delle casuali oscillazioni di energia aventi proporzioni astronomiche, che nel quotidiano non si sperimentano.
Inoltre, oscillazioni casuali di energia non potrebbero essere “imbrigliate” in una legge che le regola: il “caso”, per definizione, non obbedisce a leggi.
La ringrazio, sig. Parolini.
Sul punto 1) Bohr Le risponderebbe, ritengo, in termini idealistici, dicendo che non c’è distinzione tra realtà fisica ed esperimento di essa. E sul punto 2) Le direbbe che la rappresentazione del tempo con un numero reale (continuo e infinitamente divisibile) è approssimativa, che anche il tempo è probabilmente quantizzabile e il suo quanto non è inferiore al tempo di Planck. Col risultato quindi che si evitano oscillazioni infinite dell’energia.
No, come ho spiegato nell’articolo, il ragionamento di Bohr è falsificato dalla falsificazione della prima quantizzazione, che è stata ormai da mezzo secolo superata dalla TQC. Per es. Bohr pretendeva che la MQ coincidesse con la fisica classica a livello macroscopico: ma come spiega la fisica classica i fenomeni della superconduttività, della superfluidità, del ferromagnetismo, ecc. che appartengono al mondo macroscopico?! Né li può spiegare la MQ…
Se mi si permette vorrei fare una riflessione supplementare: c’è una differenza di natura tra fare un’esperimento ed osservarlo, cioè, un atto che lo acquiesce.
L’acquiescenza di una sperimentazione è sempre personale, individuale e non trasferibile in quanto tale: è un avvenimento unico e non comunicabile, che sia attraverso i nostri 5 sensi, o attraverso un apparato complesso, ma che alla fine sempre integra i 5 sensi per entrare in relazione coll’osservatore.
E’ un sorgere del reale nella coscienza dell’osservatore: in quanto vissuto unico ed irripetibile non può essere oggetto di discorso scientifico e non è per sua natura falsificabile.
Grazie per la pazienza.
Mi era sfuggita, Simon, questa tua acuta distinzione tra esperimento e acquiescenza (soggettuale) dello stesso. E’ una distinzione che riguarda la stessa comunita’ degli scienziati osservatori, che condividono intersoggettivamente l’esperimento ma non evidentemente le sue attualizzazioni nelle coscienze dei diversi scienziati.
E pensare che c’e’ qualche “neuroscienziato”, laureato in psicologia e negatore della psiche, che pretende di misurare la coscienza…
Cosa direbbe il grande Levinas di fronte a questo scempio del volto dell’Altro e del mancato riconoscimento della sua trascendenza!
Grande Giorgio!
Anche io sono sono affascinato da Levinas! E non ne abbiamo mai parlato!
A presto!
Carissimi,
credo che con questi due ultimi interventi abbiamo raggiunto vertici per il ragionamento umano.
Grazie davvero.
Giorgio, sono proprio curioso di vedere come la fisica possa spiegare l’autoorganizzazione anche solo di qualche piccola componente di una singola cellula…
Caro Umberto, se fossi in grado di spiegare con la fisica l’auto-organizzazione di una cellula, o anche di una sua parte, avrei fatto la scoperta del XXI secolo, avrei risolto l’abiogenesi.
No, quello che io molto più modestamente ho promesso di fare in un futuro articolo, è di dimostrare che la TQC può spiegare l’emergere dell’auto-organizzazione in un sistema fisico. Riducendo, diciamo così, il problema dell’auto-organizzazione del vivente ad una questione di grado, e non di genere. Naturalmente questa spiegazione non ha nulla a che vedere col “caso”, ma tutto deve al logos della TQC e all’informazione in essa postulata.
I suoi nove punti conclusivi, professore, lasciano senza parole. Non ho mai letto nulla di simile, meriterebbero di essere sviluppati in altrettanti saggi.
Le faccio una sola domanda. La sua critica realistica all’interpretazione di Copenaghen della meccanica quantistica è chiara. Ma potrebbe spiegare meglio la sua critica scientifica alla meccanica quantistica?
La ringrazio, Nadia. Anche per la Sua proposta di sviluppare le conclusioni epistemologiche.
L’inconsistenza della MQ è visibile a priori dalla sua contraddizione con la RS, che è una metateoria della fisica. Ne discende che l’applicabilità della MQ verificata alle basse energie deriva dall’essere parte di una teoria consistente più vasta, che è la TQC.
La fallacia scientifica della MQ, anche nei fenomeni nonrelativistici, riguarda però già la sua assunzione fondamentale che il mondo si divida in un livello microscopico e in un livello macroscopico e che il primo sia da essa descrivibile, mentre il secondo sarebbe descrivibile dalla fisica classica (la quale sarebbe un’approssimazione della MQ. Invece la fisica classica è incompleta a livello macroscopico e addirittura inconsistente. Col risultato che lo è anche tutta la MQ nello studio dei sistemi microscopici, perché la MQ prevede l’intervento dell’osservatore nei suoi fenomeni microscopici, il quale in quanto facente parte però del mondo macroscopico trascina così l’inconsistenza della fisica classica anche nella MQ. Vediamo un esempio d’inconsistenza della fisica classica: la cosiddetta crisi dell’entropia.
Nei lavori stupendi di Maxwell e Boltzmann di teoria statistica dei gas fu dimostrata la connessione tra la statistica delle configurazioni nello spazio delle fasi di un grande sistema di particelle non interagenti e il comportamento termodinamico del sistema. In particolare risultò che l’entropia è proporzionale al logaritmo del numero delle configurazioni di uno stato in equilibrio (definito attraverso le usuali grandezze macroscopiche termodinamiche: temperatura, pressione, ecc.).
Questo fu un grande risultato, salvo che per una polpetta avvelenata in esso contenuta e irresolubile dalla fisica classica. Alla temperatura di zero gradi assoluti, quando tutte le particelle sono ferme (secondo la fisica classica), c’è evidentemente un’unica configurazione, quindi il logaritmo è zero e zero risulta correttamente anche l’entropia. Però… se noi aumentiamo leggermente la temperatura a partire da zero, il numero delle configurazioni diventa immediatamente enorme col risultato che si dovrebbe prevedere una singolarità dell’entropia a zero gradi assoluti. Ciò che invece è escluso dalle analisi effettuate da Nernst che condussero al terzo principio della termodinamica.
Il problema fu risolto da Einstein e Bose nel 1924, con l’uso della MQ. Ma esso dimostra che la fisica classica è inconsistente a livello macroscopico e che, quindi lo è anche la MQ che coinvolge sempre l’osservatore (macroscopico) fin dai suoi assiomi.
Mi unisco ai ringraziamenti per questi 2 articoli: molto belli, sintetici e densi di informazioni. Anche per lo stile espressivo.
Una volta ha elencato alcune scoperte e ricadute pratiche effettuate usando la MQ, volevo chiedere quali evidenze si sono raggiunte usando la TQC.
Grazie, Frank.
Nella risposta a Nadia ho spiegato perché la MQ è una teoria inconsistente. La sua (parziale) predittività alle basse energie deriva dall’essere in quel range, ma non in tutti i casi, un’approssimazione della TQC. Lei mi chiede di esemplificare l’incompletezza della MQ. Ebbene, essendo essa incoerente con la RS, essa è muta o errata nei fenomeni relativistici, in particolare in quelli dove avvengono annichilazione o creazione di particelle. Per es., in trasformazioni del tipo:
fotone -> elettrone + positrone
protone -> neutrone + positrone + neutrino
ecc.
Però, ci sono anche fenomeni macroscopici, come il ferromagnetismo, la superconduttività e la superfluidità, che oltre a non essere spiegabili con la fisica classica, non lo sono nemmeno dalla MQ e richiedono la TQC.
Così come ci sono fenomeni di livello intermedio, i fenomeni mesoscopici, in particolare quelli biologici, la cui chimica non è spiegabile né con la fisica classica né con la MQ. Mi riservo di approfondire questo argomento in un articolo dedicato, dove mostrerò la potenza della TQC a livello mesoscopico, oltre il range delle forze di Van der Waals.
Ovviamente, l’inconsistenza della MQ, insieme alla sua incompletezza e all’assurdità del principio di complementarietà, dopo l’intervento della TQC significano anche l’eclisse dell’interpretazione di Copenaghen che tanta cattiva filosofia ha prodotto per quasi un secolo.
Buonasera Prof. Masiero,
rileggendo un paio di volte attentamente il suo articolo, mi sono venute in mente molte domande da porle, ma ho visto che alla maggior parte di esse ha già dato esauriente risposta.
Vorrei solo porle una domanda: ho notato che lei si riferisce spesso alla Meccanica Quantistica utilizzando il passato (ad es. nella nota XI). Nell’ultimo anno, ho partecipato ad alcune conferenze sull’argomento e molti dei relatori (quasi tutti a dire la verità) parlavano della MQ come di una branca della fisica assolutamente attuale ed assoldata (soprattutto in riferimento al Principio di Indeterminazione di Heisenberg e al paradosso del gatto di Shroendinger). Ho utilizzato il termine “assoldata”, perché mi è capitato di sentire, in riferimento al paradosso del gatto di Shroendinger: “E’ contro intuitivo, ma è proprio così”. Pertanto le chiedo: la Teoria Quantistica dei Campi ha già soppiantato la MQ, oppure dovrebbe farlo in futuro? Da quello che ho capito, lei è un critico della MQ; perché così tanti divulgatori la “vendono” come “oro colato” (mi perdoni i termini un po’ spartani)?
La ringrazio.
Le Sue domande, Nicola, sono molto interessanti. Prima però di rispondervi, voglio sottolineare nuovamente che il principio di indeterminazione resta valido anche nella TQC. Anzi, come ho spiegato nell’articolo e ripreso nella conclusione 5., esso è valido nella teorizzazione tramite equazioni lineari di ogni sistema complesso: che sia il sistema sanitario italiano o il sistema economico europeo, piuttosto che il sistema gastrico o la finanza araba o il sistema solare, vale sempre il principio d’indeterminazione (con una costante diversa).
L’indeterminazione insomma è collegata alla “nostra” pretesa di descrivere in maniera semplice (con la pochezza delle equazioni lineari, che sono le uniche che sappiamo risolvere) un sistema complesso, non all’ontologia del sistema, che sarebbe secondo l’hybris dell’idealismo soggetto al “caso quantistico” bla bla…
Diversa è la situazione per l’interpretazione di Copenaghen, della quale non si dovrebbe più parlare (se non in termini storici), proprio perché si riferisce ad una teoria, la MQ, assurda (vedi principio di complementarietà), incompleta, inconsistente e soppiantata (da più di mezzo secolo ormai!) dalla TQC.
E allora, Lei mi chiede, perché si continua a parlare della MQ?
C’è un mix di varie cause a mio parere (ma mi piacerebbe avere il parere anche di altri fisici che ci leggono!):
1) Alla MQ si ferma la cultura di tutte le persone colte (con l’eccezione ovviamente dei laureati in fisica). La TQC richiede una matematica molto più difficile di quella richiesta dalla MQ. Non conosco corsi di laurea diversi da quelli di fisica (con l’eccezione di qualche particolarissimo corso di matematica avanzata) che comprendano la TQC.
2) Quindi la TQC non è pane quotidiano per i divulgatori, e nemmeno per i filosofi, gli epistemologi, i teologi, i biologi, i chimici, i medici, gli ingegneri, i giornalisti, gli avvocati, ecc., ecc., che non siano disposti al sacrificio d’imparare una matematica ardua.
3) Molte volte, anche gli stessi fisici conoscitori della TQC usano il termine “meccanica quantistica” in modo ambiguo, per intendere genericamente la “fisica quantistica”, sia nella prima quantizzazione degli anni ’20 e ’30, sia nella seconda quantizzazione degli anni ’40 e ’50. Trattandosi però di due teorie diverse, sarebbe raccomandabile usare termini distinti. Ed è ciò che io faccio: MQ e TQC.
4) La maggioranza dei fisici, quella che non si occupa di fisica delle particelle o di cosmologia quantistica, continua ad usare – e fa bene! – la MQ nei calcoli, perché più semplice e perché nel proprio ambito è un’approssimazione valida della TQC. Poi magari accade che col tempo qualcuno di questi fisici di professione si dimentichi della TQC studiata all’ultimo anno dell’università e agli incontri con gli amici parli solo di MQ, di Copenaghen e di complementarietà di Bohr, ecc., cioè di quei temi che l’avevano colpito per primi nello studio della fisica.
5) L’interpretazione di Copenaghen fa comodo al mainstream scientistico, convenzionalistico e della religione del caso. Prendere atto che la MQ è inconsistente, falsificata e surclassata significherebbe trascinare nello stesso giudizio anche l’interpretazione di Copenaghen. E assegnare un punto al realismo…
6) In fondo, l’interpretazione di Copenaghen è la gemella del circolo di Vienna: non è ormai più di mezzo secolo che il neopositivismo logico è affogato nelle sue aporie e non è più difeso da nessun filosofo? Eppure la cultura e la divulgazione scientiste ragionano ancora nei termini di Vienna. Così accade per la fisica con Copenaghen.
La ringrazio per la consueta chiarezza Prof. Le chiedo un’ultima cosa che mi è venuta in mente nel frattempo: quando dice, nella prima delle nove conclusioni, che “la ricostruzione che il modello standard fa dei momenti iniziali dell’Universo è il trionfo della concezione platonica delle Idee intellegibili”, cosa intende esattamente? In che modo l’idealismo platonico si sposa con il modello standard?
(Nel caso lo abbia già spiegato in uno degli interventi di risposta, la prego di scusarmi, mi è sfuggito)
Intanto, Nicola, teniamo sempre presente la distinzione tra “origine” e “momenti iniziali” dell’Universo. L’origine non riguarda la fisica, ma la metafisica. La domanda sull’origine è la questione metafisica per eccellenza, secondo Leibniz e Heidegger: essa non riguarda la fisica (“Non potremo mai arrivare all’istante zero, né sapere chi ha avviato l’orologio”, S. Weinberg, premio Nobel per la fisica 1979; e ciò per il teorema BGV 2003 vale anche per il multiverso). La domanda sull’origine non riguarda nemmeno Platone (né la filosofia greca in generale), perché il concetto di creazione appartiene alla Genesi.
I momenti inziali del Cosmo, secondo Platone e secondo il modello standard, sono accennati rispettivamente nel secondo paragrafo della Parte I e nel penultimo paragrafo della Parte II del mio articolo sulla materia. E sono di una somiglianza spettacolare.
Nel Timeo Platone parte dalla “kora” (spazio vuoto, ricettacolo, utero), che il Demiurgo lavora e forgia per creare il Cosmo ispirandosi alle “Idee” matematiche. Il modello standard parte [10^(-43) secondi dopo il Big Bang] dal “vuoto fisico”, e predice che la rottura di simmetria di una funzione matematica (la “Lagrangiana”) abbia prodotto in brevissimi istanti successivi la separazione dei 4 campi fondamentali e la materializzazione delle particelle elementari che tuttora compongono il cosmo. Ogni diverso modello di multiverso, compreso quello più generale a più livelli di Tegmark, non fa che ripercorrere il Timeo di Platone, con un “vuoto fisico” da una parte come ricettacolo delle Forme matematiche eterne dall’altra parte. Le differenze tra il Timeo e il modello standard sono 3:
1) Nel Timeo c’è un demiurgo, il modello standard invece è un puro Disegno (giustamente senza Disegnatore, che è un problema che riguarda la teologia);
2) La matematica nel modello standard è dettagliata;
3) Il vuoto fisico ha già una struttura matematica. ll vuoto fisico viene “dopo” la Creazione (o i vari big bang, nel caso del multiverso), perché esso per definizione presuppone già 1) la TQC, 2) la RG (o nel caso del multiverso, la teoria M) e 3) la Lagrangiana di un campo unificato (o delle stringhe). (Questo occorre ricordarlo a quei cosmologi che di tanto in tanto vorrebbero spiccare il volo metafisico sull’origine). Il vuoto è lo stato di “minima” energia del campo. E Platone sarebbe sorpreso a conoscere come questa “kora” sia già matematicamente sofisticata: si tratta infatti di una struttura consistente in uno spazio di Hilbert a infinite dimensioni risultante dal prodotto tensoriale di infiniti sottospazi di Hilbert (uno per ciascun modo di oscillazione), che i fisici chiamano spazio di Fock.
Se definiamo ID una teoria con un Disegno senza Disegnatore, la più grande teoria ID innumerevolemente corroborata e popperianamente scientifica (perché falsificabile) è proprio il modello standard, mentre la massima teoria ID concepibile non falsificabile non è quella di Behe o di Dembski, ma il multiverso di Tegmark che la comprende.
La ringrazio per le risposte e per gli spunti di approfondimento offerti nel suo articolo.
Egr. prof. Masiero,
posso confermare quanto da lei scritto al punto 1) e 2) in quanto, nel caso della chimica, il bagaglio teorico di un laureato in chimica arriva fino alla meccanica quantistica, utilizzata per spiegare la struttura atomica e molecolare (almeno questo era così fino a 14 anni fa).
Riferendomi ai punti 5) e 6) del suo intervento, il fatto che in una parte della comunità scientifica ci sia questa attitudine ad inserire il caso in alcune spiegazioni (interpretazione di Copenaghen, origine dell’universo, origine della vita), potrebbe essere visto come sorta di rifiuto “a priori” di una possibile trascendenza?
Potrebbe essere che questo “caso” sia un espediente per spiegare quello che non si può conoscere con certezza?
Se così fosse, allora i casualisti moderni cadrebbero nella stessa critica che essi hanno sempre rivolto agli antichi, cioè che questi ultimi imputavano frettolosamente i fenomeni fisici (ai tempi misteriosi) alle divinità: quando non si può spiegare un fatto, si porta una spiegazione che “chiude la discussione”.
Sono perfettamente d’accordo con Lei, Parolini. Solo aggiungo:
1) questi “casualisti moderni” non ragionano in maniera scientifica, perché il loro ricorso al caso non rientra in nessuna statistica quantificabile e controllabile e
2) come filosofi non sono originali, perché già Democrito 25 secoli fa raccontava dalle rive dell’Egeo questo mito, più tardi immortalato da Lucrezio in versi stupendi.
PS. Tuttora alla facoltà di Chimica si è fermi alla MQ di 80 anni fa, anche perché questa basta alle esigenze pratiche di un tecnico chimico.
La ringrazio per questo bellissimo – e “ricco” – articolo.
Una domanda che mi pongo e le pongo è la seguente: il fatto che la MQ e la TQC trattino di eventi “casuali” (con precise probabilità, certo) non è già di per sé sconcertante? La casualità non fa un po’ “a cazzotti” contro la causalità?
Inoltre, il concetto stesso di probabilità è sfuggente. Il matematico De Finetti affermò infatti, provocatoriamente, che “la probabilità non esiste”. I matematici possono risolvere la questione definendo assiomi e lavorando su di essi, ma un fisico come può definire la probabilità in modo non autoreferenziale?
Non è poi un po’ “strano” che gli eventi siano singolarmente quasi imprevedibili ma se ne mettiamo tanti insieme, “probabilmente” la frequenza si avvicinerà alla probabilità, come se la totalità degli eventi sia in qualche modo “interconnessa” e “prevedibile” mentre il singolo evento sia più o meno “libero” ? Ad esempio, un neutrone isolato può decadere dopo un minuto, ma su mille neutroni mi aspetto – ritengo “probabile” – un tempo medio di decadimento di 900 secondi e quindi mille neutroni non hanno complessivamente la “libertà” di decadere nel tempo che “vogliono”, perché il tempo medio non può “realisticamente” differire troppo (un tot numero di sigma) da quello previsto?
Tutto questo poi fa pensare anche al mistero della libertà umana, e al fatto che anche le azioni umane siano “prevedibili” su larga scala, a livello di “masse” ma non lo siano più quando si osserva un singolo individuo.
La ringrazio se vorrà illuminarmi in merito.
Grazie, Giovanni.
Non e’ affatto vero che la MQ o la TQC trattino di eventi “casuali”. Non propaghiamo questa leggenda metropolitana come se fosse una legge scientifica. Come ho spiegato al punto 5. delle Conclusioni, e ripreso nella mia risposta ad Anna dell’8 gennaio ore 15.12, l’indeterminazione e’ conseguenza della nostra limitata ragione (analitica) che pretende di descrivere i sistemi complessi con equazioni LINEARI, perche’ sono le uniche che sappiamo risolvere, NON dell’ontologia degli stessi sistemi. Nel Suo es. del neutrone, noi usiamo equazioni lineari per descriverlo, ma la statistica che poi siamo costretti ad usare per conoscerne i tempi di decadimento non e’ una proprieta’ del neutrone, ma un effetto delle equazioni lineari! E questo e’ un teorema della sistemica. Chi tira in ballo il caso si comporta come la volpe che non riuscendo ad afferrare l’uva, ci rinuncia dichiarandola acerba!
Se Lei, Giovanni, si studia la MQ o la TQC, non trovera’ mai la parola “caso” negli assiomi di queste due teorie matematiche. La parola ed il concetto appartngono alla filosofia di Copenaghen e al convenzionalismo che e’ la forma contemporanea dell’idealismo, non alla scienza. Ed anzi, sia le equazioni della MQ sia della TQC sono rette da operatori unitari, che fanno evolvere i campi in maniera rigidamente causale (e non casuale).
Il problema del libero arbitrio umano e’ metafisico, non scientifico. Sulla mente umana, come ho spiegato in altri articoli, la scienza empirica non puo’ dire nulla.
La MQ ha inglobato la meccanica classica. Questo mi e’ chiaro e il piccolo valore della costante di Heisenberg segna il limite, mi hanno insegnato, dove il commutatore di due osservabili canoniche commuta e quindi la MQ diventa la meccanica classica. Pero’ Lei scrive che anche la TQC ha inglobato la MQ. Posso chiedere in quale limite la TQC diventa la MQ? Grazie.
Alle basse energie, Wil.
Tecnicamente questo accade quando i campi sono molto “diluiti”, cioè quando evolvono in un sottospazio dello spazio di Hilbert degli autovettori dell’operatore hermitiano N (l’operatore-numero dei granuli del campo) che nella regione di osservazione abbia piccoli autovalori. Si trova allora che l’evoluzione di N sotto la spinta dell’Hamiltoniana secondo l’equazione dinamica della TQC coincide con quella predetta dall’equazione di Schroedinger.