wat weten we echt over ons universum?
het heelal is 13,8 miljard jaar geleden ontstaan uit een kosmische explosie en is snel opgeblazen en vervolgens afgekoeld … toch?,
dit bekende verhaal wordt meestal beschouwd als een vanzelfsprekend wetenschappelijk feit, ondanks het relatieve gebrek aan empirisch bewijs-en ondanks een gestage oogst van discrepanties die ontstaan met observaties van het Verre universum.
in de afgelopen maanden wezen nieuwe metingen van de Hubbleconstante, de snelheid van universele expansie, op belangrijke verschillen tussen twee onafhankelijke berekeningsmethoden., Discrepanties op de expansiesnelheid hebben enorme implicaties, niet alleen voor de berekening, maar voor de geldigheid van het huidige standaardmodel van de kosmologie op de extreme schalen van de kosmos.
een andere recente sonde vond sterrenstelsels inconsistent met de theorie van donkere materie, die stelt dat deze hypothetische stof overal is. Maar volgens de laatste metingen, is het niet, wat suggereert dat de theorie opnieuw moet worden onderzocht.
Het is misschien de moeite waard om te vragen waarom astrofysici veronderstellen dat donkere materie overal in het universum aanwezig is., Het antwoord ligt in een eigenaardig kenmerk van de kosmologische fysica dat niet vaak wordt opgemerkt. Een cruciale functie van theorieën als donkere materie, donkere energie en inflatie—elk op zijn eigen manier gebonden aan het big bang paradigma—is niet om bekende empirische fenomenen te beschrijven, maar eerder om de wiskundige samenhang van het raamwerk zelf te behouden terwijl rekening wordt gehouden met afwijkende waarnemingen. In wezen zijn Het namen voor iets dat moet bestaan voor zover het kader algemeen geldig wordt geacht.,
elke nieuwe discrepantie tussen observatie en theorie kan natuurlijk op zichzelf worden beschouwd als een opwindende belofte van meer onderzoek, een progressieve verfijning naar de waarheid. Maar als ze optellen, kunnen ze ook een meer verstorend probleem suggereren dat niet wordt opgelost door parameters aan te passen of nieuwe variabelen toe te voegen.
bekijk de context van het probleem en zijn geschiedenis. Als wiskundig gedreven wetenschap wordt kosmologische fysica meestal gezien als extreem nauwkeurig., Maar de kosmos is anders dan elk wetenschappelijk onderwerp op aarde. Een theorie van het hele universum, gebaseerd op onze eigen kleine buurt als het enige bekende voorbeeld ervan, vereist veel vereenvoudigende veronderstellingen. Wanneer deze veronderstellingen worden vermenigvuldigd en over grote afstanden worden uitgerekt, neemt de kans op fouten toe, en dit wordt nog verergerd door onze zeer beperkte middelen om te testen.
historisch gezien vormden de natuurwetten van Newton een theoretisch kader dat met opmerkelijke precisie voor ons eigen zonnestelsel werkte., Zowel Uranus als Neptunus bijvoorbeeld werden ontdekt door voorspellingen gebaseerd op Newton ‘ s model. Maar naarmate de schalen groter werden, bleek de geldigheid ervan beperkt. Einsteins algemene relativiteitskader bood een groter en nauwkeuriger bereik dan de verste uithoeken van ons eigen sterrenstelsel. Maar hoe ver kan het gaan?,
het big bang-paradigma dat ontstond in het midden van de 20e eeuw rekt de geldigheid van het model effectief uit tot een soort oneindigheid, gedefinieerd als de grens van de straal van het heelal (berekend op 46 miljard lichtjaar), of in termen van het begin van de tijd. Dit gigantische stuk is gebaseerd op een paar concrete ontdekkingen, zoals Edwin Hubble ‘ s observatie dat het heelal lijkt uit te breiden (in 1929) en de detectie van de microgolfachtergrondstraling (in 1964)., Maar gezien de schaal die erbij betrokken is, hebben deze beperkte observaties een grote invloed gehad op de kosmologische theorie.
Het is natuurlijk volkomen aannemelijk dat de geldigheid van de algemene relativiteitstheorie veel dichter bij ons huis afbreekt dan aan de rand van het hypothetische einde van het universum., En als dat het geval zou zijn, zou het hedendaagse meerlaagse theoretische bouwwerk van het big bang paradigma een verwarrende mix blijken te zijn van fictieve beesten die zijn uitgevonden om het model te handhaven, samen met empirisch geldige variabelen die wederzijds afhankelijk zijn van elkaar tot het punt dat het onmogelijk maakt om wetenschap van fictie te scheiden.
ter aanvulling van dit probleem komen de meeste waarnemingen van het universum experimenteel en indirect voor., De huidige ruimtetelescopen bieden geen direct zicht op iets—ze produceren metingen door een samenspel van theoretische voorspellingen en plooibare parameters, waarbij het model elke stap van de weg betrokken is. Het raamwerk kadert letterlijk het probleem; het bepaalt waar en hoe te observeren. En dus, ondanks de geavanceerde technologieën en methoden die hierbij betrokken zijn, verhogen de diepgaande beperkingen van de onderneming ook het risico om op een dwaalspoor te worden gebracht door het soort veronderstellingen dat niet kan worden berekend.,
na vele jaren onderzoek naar de grondslagen van de kosmologische fysica vanuit een wetenschapsfilosofieperspectief, ben ik niet verrast om sommige wetenschappers openlijk te horen praten over een crisis in de kosmologie. In het grote” inflatiedebat ” in Scientific American een paar jaar geleden, werd een belangrijk stuk van het big bang-paradigma bekritiseerd door een van de oorspronkelijke voorstanders van de theorie omdat het onverdedigbaar was geworden als een wetenschappelijke theorie.
waarom?, Omdat de inflatietheorie gebaseerd is op ad hoc constructies voor bijna alle gegevens, en omdat het voorgestelde fysieke veld niet gebaseerd is op iets met empirische rechtvaardiging. Dit is waarschijnlijk omdat een cruciale functie van inflatie is om de overgang te overbruggen van een onkenbare oerknal naar een fysica die we vandaag de dag kunnen herkennen. Is het wetenschap of een handige uitvinding?een paar astrofysici, zoals Michael J. Disney, hebben het big bang paradigma bekritiseerd vanwege het gebrek aan bewezen zekerheden., In zijn analyse, het theoretische kader heeft veel minder bepaalde observaties dan vrije parameters om ze te tweaken—een zogenaamde “negatieve betekenis” die een alarmerend teken voor elke wetenschap zou zijn. Zoals Disney schrijft in American Scientist: “een scepticus heeft het recht om te voelen dat een negatieve betekenis, Na zoveel tijd, moeite en trimmen, is niets meer dan je zou verwachten van een volksverhaal voortdurend opnieuw bewerkt om inconvenient nieuwe observaties passen.”
zoals Ik bespreek in mijn nieuwe boek, Metaphysical Experiments, is er een diepere geschiedenis achter de huidige problemen., De oerknalhypothese zelf kwam oorspronkelijk naar voren als een indirect gevolg van de algemene relativiteitstheorie die remodellering ondergaat. Einstein had een fundamentele aanname gemaakt over het universum, dat het statisch was in zowel ruimte als tijd, en om zijn vergelijkingen op te tellen, voegde hij een “kosmologische constante” toe, waarvoor hij vrijelijk toegaf dat er geen fysieke rechtvaardiging was.,
maar toen Hubble merkte dat het heelal uitdijde en Einsteins oplossing niet langer zinvol leek, probeerden sommige wiskundige natuurkundigen een fundamentele aanname van het model te veranderen: dat het heelal hetzelfde was in alle ruimtelijke richtingen, maar variabel in de tijd. Niet onbelangrijk, deze theorie kwam met een zeer veelbelovend voordeel: een mogelijke fusie tussen kosmologie en kernfysica. Kan het dappere nieuwe model van het atoom ook ons universum verklaren?,
vanaf het begin sprak de theorie alleen over de onmiddellijke nasleep van een expliciet hypothetische gebeurtenis, waarvan de hoofdfunctie als limietvoorwaarde was, het punt waarop de theorie afbreekt. De oerknaltheorie zegt niets over de oerknal; het is eerder een mogelijke hypothetische premisse voor het oplossen van de algemene relativiteit.
bovenop deze ondemonstreerbare maar zeer productieve hypothese is vloer op vloer intact toegevoegd, met enorm uitgebreide schalen en nieuwe discrepanties., Om observaties van sterrenstelsels die niet in overeenstemming zijn met de algemene relativiteit te verklaren, werd het bestaan van donkere materie voorgesteld als een onbekende en onzichtbare vorm van materie die berekend is om meer dan een kwart van alle massa-energie—inhoud in het universum te vormen-ervan uitgaande dat het raamwerk universeel geldig is. In 1998, toen een reeks supernova-metingen van versnellende sterrenstelsels in strijd leek met het raamwerk, ontstond een nieuwe theorie over een mysterieuze kracht genaamd donkere energie, berekend om ongeveer 70 procent van de massa-energie van het universum te vullen.,
de kern van het huidige kosmologische paradigma is dat om een wiskundig geünificeerde theorie te handhaven die geldig is voor het hele universum, we moeten accepteren dat 95 procent van onze kosmos wordt geleverd door volledig onbekende elementen en krachten waarvoor we geen enkel empirisch bewijs hebben. Voor een wetenschapper om zeker te zijn van dit beeld vereist een uitzonderlijk vertrouwen in de kracht van wiskundige unificatie.
Uiteindelijk is het raadsel voor kosmologie het vertrouwen op het raamwerk als een noodzakelijke vooronderstelling voor het uitvoeren van onderzoek., Bij gebrek aan een duidelijk alternatief, zoals astrofysicus Disney ook opmerkt, zit het in zekere zin vast aan het paradigma. Het lijkt pragmatischer om nieuwe theoretische verdiepingen toe te voegen dan om de fundamenten te heroverwegen.
In tegenstelling tot het wetenschappelijke ideaal om geleidelijk dichter bij de waarheid te komen, lijkt het erop dat de kosmologie, om een term uit technologiestudies te gebruiken, padafhankelijk is geworden: overdreven bepaald door de implicaties van haar vroegere uitvindingen.,
dit artikel is gebaseerd op bewerkte fragmenten uit het boek Metaphysical Experiments: Physics and the Invention of the Universe, gepubliceerd door University Of Minnesota Press.