Quanten-Idealismus und Simulations-Hypothese

 Ein kurzer Abriss und Ausblick, einschließlich der Implikationen für Theismus und Intelligentes Design


 Johanan Raatz & Günter Bechly

Version 1, 28. November 2019

(aktualisierte Version 54, 31. Oktober 2022)

  

Quanten-Idealismus ist eine idealistisch-monistische Metaphysik auf der Grundlage moderner Erkenntnisse im Bereich der Digitalen Physik. Diese deuten auf unmittelbare Zusammenhänge zwischen physikalischer Realität und virtuellen Realitäten hin. Dazu zählen nicht nur allgemein bekannte Phänomene der Relativitätstheorie und Quantenphysik, sondern auch die noch weniger bekannte Forschung im Bereich der Quantengravitation, die zunehmend darauf hinweist, dass Raumzeit kein fundamentales, sondern ein emergentes Phänomen ist. Zudem sieht eine zunehmende Zahl von Physikern Information als Grundlage allen Seins (Lloyd 2006, Seife 2006, Vedral 2010, Davies & Gregersen 2014, Ananthaswamy 2017, Glattfelder 2019), einschließlich der Konstruktor Theorie von Deutsch & Marletto (2014). Kombiniert man diese Erkenntnisse der modernen Physik mit den modernen Erkenntnissen aus der Bewusstseins- und Hirnforschung (Hoffmans Bewusstseins-Realismus, Tononis Theorie der Integrierten Information, Quanten-Kognition, Quantenbiologie des Gehirns und Quantentheorie des Bewusstseins), so gelangt man zu dem Ergebnis, dass die physikalische Realität nur ein Informationskonstrukt innerhalb eines universellen Bewusstseins ist. Dies hat wichtige Implikationen sowohl für die Frage nach Teleologie und Design in der Natur als auch für die Theologie.

 

Die Hinweise der modernen Physik auf eine monistisch-idealistische und neo-platonistische Metaphysik mit Bewusstsein und/oder Information als Grundlage wurden von zahlreichen Physikern erkannt, von den frühen Vätern der Quantenmechanik (Neumann 1955, Wigner 1961), über Carl Friedrich von Weizäckers (1985) „Quantentheorie der Ur-Alternativen“, John Archibald Wheelers (1989) „It from Bit“, bis hin zu Seth Lloyds (2013) Ansicht des Universums als Quantencomputer und Max Tegmarks (2016) Hypothese vom „Mathematischen Universum“ (siehe auch Heinrich 2012). Andere moderne Denker kamen auf unterschiedlichem Weg zu sehr ähnlichen Ansichten (Teilhard de Chardin 1955, Zuse 1967, 1969, Bass 1971, Sprigge 1984a, Mohanty 1989, Goswami 1989, 1993, 1995, 2001 Squires 1990, Driessen & Suarez 1997, Hutto 2000, Wolfram 2002, Svozil 2005, Zizzi 2006, Monton 2000, 2009, Campbell 2007, Blood 2009a, Leslie 2001, Popov 2003, Conn Henry 2005, Lanza 2009, Stapp 2011, Li 2013, Schmidhuber 2013, Hameroff & Penrose 2014, Hettema 2015, Zahedi 2015, Haynes 2016, Pearce 2017, Gordon 2017, Lokanga 2018, Chalmers 2019, Kastrup 2019a, 2019b, Virk 2019, Vikoulov 2019, Yeates 2019, Bandyopadhyay 2020, Irwin et al. 2020). Eine zunehmende Anzahl naturalistischer Denker ist zudem zu der Auffassung gelangt, dass das "harte Problem" (sensu Chalmers) des Bewusstseins überhaupt nur dann physikalistisch lösbar sein könnte, wenn der Materialismus zu Gunsten eines Panpsychismus aufgegeben wird (Strawson 2009, Seager 2014, Pearce 2017). Die derzeit deshalb populärer werdende Philosophie des Panexperientiellen Holismus bzw. Kosmopsychismus (Dyson 1988, Jaskolla & Buck 2012, Shani 2015, Nagasawa & Wagner 2016, Shani & Keppler 2018, Goff 2017, 2019a, 2019b) bejaht ebenfalls die Existenz eines universellen Bewusstseins, jedoch noch unter Beibehaltung einer materiellen Realität durch einen panpsychistischen Eigenschaftsdualismus. Argumente gegen einen solchen Kosmopsychismus und zu Gunsten eines universellen Bewusstseins im Sinne des monistischen Idealismus wurden u.a. von Albahari (2019) formuliert. Mögliche Einwände gegen eine idealistische Metaphysik wurden von Bernardo Kastrup (2019a, 2019b) umfassend diskutiert und entkräftet.

 

Wichtige Argumente kommen aus der Simulations-Theorie (Bostrom 2003), deren Vertreter behaupten, dass unsere Welt mit großer Wahrscheinlichkeit eine Computer-Simulation sei. Dies stößt natürlich auf das Problem eines unendlichen Regresses, da sich mit dieser Argumentation eine endlose Anzahl verschachtelter Simulationen innerhalb von Simulationen ergibt. Die Annahme, dass die „Simulation“ der Welt statt in einem Computer in einem universellen Bewusstsein erfolgt, ist demgegenüber deutlich sparsamer und erklärt zudem auch die Natur der Basis-Realität. Zudem gibt es auch theoretische Einwände gegen die Machbarkeit einer Simulation der physikalischen Realität in einem Computer (Rucker 2008, 2012). Die Hypothese, dass die Welt nur eine Simulation in einem universellen Bewusstsein ist, hat es inzwischen sogar in den Mainstream geschafft, wie dieses Interview mit dem Physiker Michio Kaku beim TV-Sender Fox zeigt.

 

Für die weiteren Ausführungen ist zunächst eine Begriffsbestimmung notwendig:

  • Objektiv reale Welten sind Welten die unabhängig vom Beobachter existieren und keiner externen Erklärungen bedürfen.
  • Virtuelle Realitäten beruhen auf Informationsverarbeitung außerhalb der Welt selbst.

Die Simulations-Theorie beruft sich auf empirische Hinweise, dass unsere physikalische Realität eher eine virtuelle als eine objektiv reale Welt ist. In dieser sehr allgemeinen Formulierung ist zunächst einmal irrelevant, ob die Simulation in einem materiellen Computer oder in einem immateriellen Bewusstsein erfolgt.

 

Mit grundlegend für die Simulations-Theorie war die sorgfältige Untersuchung der auffallenden Übereinstimmungen zwischen virtuellen Realitäten und den Erkenntnissen der modernen Physik durch den Informatiker Brian Whitworth (2008, 2010a, 2010b), der folgende Parallelen hervorhob:

  • Inbetriebnahme: Jede Welt mit einem absoluten Anfang deutet darauf hin, dass diese Welt nicht so grundlegend ist, wie eine wirklich reale Welt sein müsste. Unsere Welt hat einen absoluten Anfang von Raum und Zeit vor etwa 14 Milliarden Jahren, was durch die Urknallkosmologie und das Borde-Guth-Vilenkin-Theorem (Borde et al. 2003) belegt wird. Gleichermaßen hat jede virtuelle Realität einen solchen „Urknall“ am Anfang, nämlich dann, wenn das Programm gestartet wird und dessen virtueller Raum und Zeit zu existieren beginnen. Aus der Perspektive der virtuellen Realität ist dieser Beginn scheinbar aus dem Nichts heraus, genau wie der Urknall. Eine weitere Parallele ist, dass beim Start eines Computerprograms die Variablen wohldefinierte Werte besitzen. Gleichermaßen weisen die physikalischen Konstanten unseres Universums eine verblüffende Feinabstimmung auf (Finetuning Problem).
  • Pixeligkeit / DigitalitätIn virtuellen Realitäten ist alles letztlich digitalisiert und diskret in Form von 2D-Pixel oder 3D-Voxel, da alle Einheiten eine minimale Größe besitzen müssen, die nicht weiter unterteilbar ist. Genauso sind in unserer Realität nicht nur Energie in kleinste diskrete Einheiten quantisiert, sondern ebenso Raum und Zeit in kleinste Längen (Planck-Länge und Planck-Zeit). Dadurch besitzt das Universum eine endliche Anzahl von Bausteinen und ist somit berechenbar. Dies steht nicht im Widerspruch zu der Tatsache, dass die Amplitude der Wellenfunktion kontinuierlich ist. Die Wellenfunktion des Universums ist ein Kontinuum (das Multiversum ist quasi analog), aber jede einzelne Welt ist diskret (digital). Die digitale Physik ist ein emergentes Phänomen aus der Perspektive innerhalb eines dekohärenten Weltzweiges.
  • Grenzgeschwindigkeit: Es gibt in der realen Welt eigentlich keinen Grund, warum Geschwindigkeit nicht unbegrenzt erhöht werden kann. In virtuellen Realitäten gibt es jedoch stets ein Geschwindigkeitslimit, dass durch die maximale Geschwindigkeit der zentralen Recheneinheit vorgegeben ist. Auch unsere reale Welt hat mit der Lichtgeschwindigkeit eine solche maximale Grenzgeschwindigkeit.
  • Prozessorlast-Beeinträchtigungen: Größere Prozessorlast, z.B. durch die Berechnung von mehr Objekten, verlangsamt die Verarbeitungsgeschwindigkeit des Computers. Genauso kommt es zu relativistischer Zeitdehnung in der Nähe von großen Materie-Konzentrationen. Dies ist in nicht-virtuellen Welten nicht zu erwarten. Es konnte zudem gezeigt werden, dass es sich hierbei nicht um eine zufällige, sondern um eine unmittelbare Übereinstimmung handelt (Jacobson 1995).
  • Nicht-Realismus: Materie ist in einer virtuellen Realität nicht im beobachterunabhängigen Sinne real, sondern wird bei Bedarf für die Beobachtung gerendert. Genau dieser Beobachtereffekt wurde in der Quantenmechanik in den letzten Jahrzehnten immer wieder durch Experimente bestätigt, die einen Nicht-Realismus belegen und zeigen (Ananthaswamy 2018a), dass die diskreten Eigenschaften von Elementarteilchen erst existieren, wenn die Wellenfunktion durch die Beobachtung bzw. Messung (scheinbar) kollabiert. Lokaler Realismus wurde schon durch die experimentelle Verletzung der Bell‘schen Ungleichung widerlegt (Aspect et al. 1981, 1982a, 1982b, Weihs et al. 1998, Fuwa et al. 2015, Zych et al. 2019). Aber auch der nicht-lokale Realismus wurde inzwischen widerlegt, unter anderem durch die experimentelle Bestätigung des Kochen-Specker-Theorems (Kochen & Specker 1967, Klyachko et al. 2008, Lapkiewicz et al. 2011,) und die experimentelle Verletzung der Leggett-Garg-Ungleichung (Gröblacher et al. 2007, Kofler & Brukner 2008, Ma et al. 2013, 2016, Dressel & Korotkov 2013, Manning et al. 2015, Gachechiladze et al. 2016, Proietti et al. 2019). Entscheidend waren hierbei vor allem Experimente der Arbeitsgruppe von Prof. Anton Zeilinger (Ball 2007, Interview). Das Before-Before-Experiment der Arbeitsgruppe von Antoine Suarez und Nicolas Gisin widerlegt nicht nur einen nicht-lokalen Realismus, sondern beweist auch, dass die Verursachung der Quanteneffekte und somit die Ebene der fundamentalen Realität nicht raumzeitlicher Natur sein muss (Suarez 2007, 2008a, 2008b). Schließlich stellt auch das Frauchinger-Renner-Paradoxon ein Problem für die naive Vorstellung einer beobachterunabhängigen und eindeutigen Realität dar (Ananthaswamy 2018b, Frauchinger & Renner 2018).
  • Nichtlokalität: Die Verbindungen zwischen Punkten innerhalb einer virtuellen Realität sind nicht limitiert durch den virtuellen Raum zwischen ihnen, denn alle Punkte einer virtuellen Realität sind äquidistant zum erzeugenden Prozessor. Daher unterliegen Wechselwirkungen zwischen Punkten bzw. Teilchen keiner räumlichen Begrenzung. In unserer Realität zeigt sich das Gleiche beim Phänomen der nichtlokalen Wechselwirkung von verschränkten Teilchen, bei denen die Messung eines Teilchens die Messung des anderen Teilchens unabhängig von dessen Entfernung sofort beeinflusst. Dieser von Einstein als spukhafte Fernwirkung (EPR-Paradoxon) bezeichnete Effekt (Einstein et al. 1935, Bell 1964) ist durch zahlreiche experimentelle Überprüfungen der Bell‘schen Ungleichung gesichert (siehe oben) und alle möglichen Schlupflöcher geschlossen.
  • Komplementarität: Durch Einschränkungen der Prozessorlast können Computer Paare von Eigenschaften nicht an einem Ort gleichzeitig simulieren. Dies ist analog zu Heisenbergs Unschärfeprinzip in unserer Welt, welches besagt, dass Paare von Eigenschaften nicht gleichzeig mit einem bestimmten Grad an Genauigkeit gemessen werden können (Coles et al. 2014 beschrieben ein analoges Phänomen).
  • Tunneleffekte: Auf Grund der limitierten Prozessorlast können Objekte und Hindernisse nicht gleichzeitig simuliert werden, was dazu führt, dass Objekte (z.B. in Computerspielen wie Minecraft) plötzlich jenseits einer Barriere erscheinen können. Dieses typische und grundsätzlich unvermeidbare Phänomen virtueller Realitäten zeigt sich genauso beim Quantentunneleffekt in unserer realen Welt. Eine entsprechende Erkenntnis findet sich beispielsweise auch in einem Vortrag von Philip Rosedale, dem Erfinder der virtuellen Welt Second Life.

In den Arbeiten von Whitworth werden noch eine ganze Reihe weiterer Parallelen aufgezeigt, deren Besprechung hier aber zu weit führen würde. Unbekannt war Whitworth offenbar die aufsehenerregende Entdeckung des Physikers James Gates, der herausfand, dass sich in den Formeln der Stringtheorie ein regelrechter binärer Programmcode für Fehlerkorrekturen verbirgt (Doran et al. 2008, Gates 2010, Interview). Dazu passt die Entdeckung, dass Raumzeit selbst auf einem Quanten-Fehlerkorrektur-Code basieren könnte (Wolchover 2019). Ein neues mögliches Argument ist die Arbeit des Physikers Vitaly Vanchurin (2020), der gezeigt hat, dass die fundamentalen Grundlagen der Physik (Quantenmechanik und Relativitätstheorie) und somit die Welt vollständig als neuronales Netzwerk zu erklären sind (siehe auch: Tangermann 2020).

 

Natürlich ist bei ein paar der Parallelen (z.B. Grenzgeschwindigkeit und Prozessorlastbeeinträchtigungen), die von Whitworth aufgezeigt wurden zumindest fraglich, ob diese nur für Simulationen auf finiten raumzeitlichen Recheneinheiten gelten, oder auch auf die von uns postulierte Simulation in einem unendlichen und zeitlosen Geist übertragbar sind.

 

Whitworths grundsätzliche Schlussfolgerung, dass Raumzeit nicht fundamentaler Natur ist, wird jedoch mittlerweile von zahlreichen theoretischen Physikern unterstützt und ist in den entsprechenden Fachkreisen zunehmend Konsens. An der Universität Bonn gab es 2017 eine eigene Fachtagung zum Thema "Spacetime: Fundamental or Emergent?". Princeton Professor Nima Arkani-Hamed spricht gar vom "Doom of Spacetime". Sowohl Vertreter der Stringtheorie (Horowitz 2005, Vistarini 2017, 2019) als auch Vertreter der alternativen Theorie der Schleifenquantengravitation (Markopoulou 2009) stimmen darin überein, dass Raumzeit kein fundamentales Element der Realität ist (Carroll 2010, 2019a, Huggett & Wüthrich 2017, Huggett et al. 2020), sondern ein emergentes Phänomen (Seiberg 2005, 2007, Crowther 2014, Yang 2015, 2016, Licata 2016, Romero 2017, Martens 2019), welches aus verschränkter Quanteninformation im Hilbert-Raum (Kryukov 2004, Cowen 2015, Carroll 2015, 2016, Lin et al. 2015, Cao et al. 2017, Nomura et al. 2018, Noorbala 2018, Swingle 2018, Gupta 2018, Musser 2018, Lee 2019, Siegfried 2019a, 2019b, Feldmann 2020b) jenseits von Raum und Zeit hervorgeht. Fundamental ist somit nicht die Raumzeit, sondern die ihr zu Grunde liegende Wellenfunktion, also pure Mathematik und Information. Untersuchungen zu Tensor-Netzwerken (z.B. AdS/MERA) legen zudem nahe, dass nicht nur der Raum, sondern auch Zeit (Moreva et al. 2014, Bao et al. 2015b, Zych et al. 2019) und Gravitation (Padmanabhan 2014, Siegfried 2014, Swingle & Raamsdonk 2014, Quellette 2015, Swingle 2018, Qi 2018) emergente Phänomene sind, die auf quantenphysikalischer Verschränkung basieren. Auch Verlinde (2017) kommt zu dem gleichen Ergebnis, dass sowohl Raumzeit als auch Gravitation gemeinsam aus verschränkter Quanteninformation emergieren. Interessanterweise impliziert auch Utiyamas Eichfeldtheorie der Gravitation eine emergente Natur von Raum und Zeit (Anderson 2020). Schließlich führt Jonathan Schaffer mit seinen "Quanten-Monismus" das ganze Multiversum auf verschränkte Quanteninformation als die eine fundamentale Realität zurück (Schaffer 2010, Ismael & Schaffer 2016, Calosi 2017, Päs 2019). Aus all diesen Gründen gibt es sogar ein großes internationales Forschungsprojekt mit dem Titel "It from Qubit" (Moskovitz 2016) zu diesem Themenkomplex der Emergenz der Raumzeit und Gravitation aus Quanteninformation. Ein unabhängiges Argument ergibt sich unter Umständen aus Landauers Prinzip, von dem sich eine Äquivalenz von Materie-Energie und Information ableiten lässt (Vopson 2019).

 

Vergleichbare Schlussfolgerungen können auch schon aus den bekannten Beobachtungen der gewöhnlichen Quantenmechanik gezogen werden. Raum ist definitionsgemäß eine Ortsbestimmung. Aus dem Nicht-Realismus der Quantenmechanik folgt, dass eine solche Ortsbestimmung nicht vor der Messung existiert (Rosenblum & Kuttner 2006, Gröblacher et al. 2007). Beispielsweise existiert die räumliche Trennung zweier verschränkter Teilchen, zumindest aus deren Bezugsrahmen nicht, da beide in Superposition sind und keinen definierten Ort haben. Zudem kann auf Grund der Existenz einer Universellen Wellenfunktion (UWF) (Moreva et al. 2014), diese illusionäre Natur des Raumes und der Zeit verallgemeinert werden, da die UWF eine universelle Verschränkung in ihrem Bezugssystem mit sich bringt.

 

Auch die aus der Forschung über das Problem des Informationsverlustes in Schwarzen Löchern gewonnene Erkenntnis des Holographischen Prinzips spricht gegen eine fundamentale Natur der Raumzeit und für die Simulations-Hypothese (Glattfelder 2019). Dieses sehr kontraintuitive Prinzip besagt vereinfacht ausgedrückt, dass der maximale Informationsgehalt (Bekenstein-Grenze) eines Raumabschnittes nicht durch dessen Volumen, sondern nur durch dessen Oberfläche limitiert ist (siehe diesen Vortrag von Leonard Susskind). Der dreidimensionale Raum scheint daher wie eine holographische Projektion eines zweidimensionalen Quantenfeldes zu sein (Brian Greene 2014). Anfangs nur eine umstrittene Theorie ist das Holographische Prinzip (Susskind 1995) inzwischen experimentell bestätigt (Afshordi et al. 2017) und allgemein anerkannt. Ein weiterer Hinweis in diese Richtung ist die AdS/CFT-Korrespondenz („holographic duality“) zwischen Quantengravitation und Quantenfeldtheorie (Maldacena 1999, eine der meistzitierten Arbeiten in der modernen Physik!), sowie die damit zusammenhängende ER=EPR-Korrespondenz, welche bedeutet, dass die Verschränkung von zwei Teilchen in der zweiten Dimension äquivalent zu einer Wurmlochverbindung in der dritten Dimension ist (El-Showk & Papadodimas 2012, Maldacena & Susskind 2013, Bao et al. 2015a, Susskind 2016, Cao et al. 2017).

 

Schließlich gibt es noch ein mysteriöses Quantenexperiment, dass darauf hinweist, dass nicht nur der Raum, sondern auch die Zeit, einschließlich der Vergangenheit, nicht real ist. Es handelt sich um das sogenannte „Delayed-Choice Quantum Eraser“ Experiment, eine trickreiche Variante des berühmten Doppelspalt-Experimentes (Kim et al. 2000, Jacques et al. 2007, Ma et al. 2012, 2013, Huang et al. 2019). Die Folgerung auf eine Retrokausalität und somit auf eine nicht festgelegte Vergangenheit kann nur dann vermieden werden (aber siehe Ellerman 2012), wenn als zutreffende Interpretation der Quantenmechanik die Viele-Welten-Deutung angenommen wird (Everett 1956, 1957, Carroll 2019a,b). Allerdings hat die bei Physikern derzeit sehr beliebte Viele-Welten-Deutung oder Everett-Interpretation auch eine Reihe von Problemen (Lane 2011, Jones 2014a, Dawid & Thébault 2015, Leifer & Pusey 2017, Ball 2018, Gao 2018, Hossenfelder 2019, Kersgaard 2019), die sie unseres Erachtens zumindest ergänzungsbedürftig macht:

  1. Als das schwerwiegendste Problem der Vielen-Welten-Deutung wird oft das Problem der bevorzugten Basis genannt (Stapp 2002), beruhend auf der Tatsache, dass es auf Grund der Wellenfunktion nicht nur diskrete alternative Möglichkeiten gibt, sondern in unterschiedlichem Ausmaß überlagerte Möglichkeiten. Schrödingers Katze ist eben nicht nur in einer möglichen Welt tot und in einer anderen lebendig, sondern in manchen Welten in merkwürdigen Mischzuständen (sozusagen lebot und totendig). Allerdings gilt dieses Problem durch Dekohärenz (Einselektion und Quanten-Darwinismus sensu Zurek) und "permanent spatial decomposition" inzwischen meist als gelöst (Galvan 2010, Carroll 2019a).
  2. Ein weiterer Kritikpunkt ist die Ableitung der Born’schen Regel, die für die Quantenmechanik von zentraler Bedeutung ist (Blood 2009b). Das Problem ist, dass die Quantenmechanik distinkte Wahrscheinlichkeiten für bestimmte Resultate vorgibt, während aus der Viele-Welten-Deutung folgt, dass alle Resultate die gleiche Wahrscheinlichkeit (nämlich 1) haben. Auch hier meinen Vertreter der Viele-Welten-Deutung, dass dieses Problem von David Deutsch und David Wallace durch Anwendung der Entscheidungstheorie sowie die epistemische Unsicherheit der "Self-Location" gelöst ist (Carroll 2019a). Es gibt jedoch zahlreiche Kritiker dieses Ansatzes und ein Konsens ist nicht in Sicht (Boge 2016). Davon einmal abgesehen kann die Born'sche Regel übrigens auch von keiner anderen Interpretation der Quantenmechanik direkt abgeleitet werden, sondern ist schlicht eine vorausgesetzte Annahme.
  3. Ein neuer Kritikpunkt ist die Behauptung, dass die Viele-Welten-Deutung widersprüchlich sei, weil sie realistisch und zeitsymmetrisch ist aber keine Retrokausalität erlaubt, was ein No-Go-Theorem von Leifer & Pusey (2017) verletzt.
  4. Luboš Motl (2015, 2019) diskutiert ein weiteres (bislang meist übersehenes) fatales Problem aller realistischen Interpretationen der Quantenmechanik, zu denen neben Bohmscher Mechanik und Spontaner Kollapstheorie (GRW) auch Everetts Viele-Welten-Deutung zählt. Das Problem ist, dass diese Interpretationen mehr Freiheitsgrade implizieren als experimentell beobachtet werden und somit der Boltzmann Konstante widersprechen.
  5. Schließlich wird oft gesagt, dass die Viele-Welten-Deutung absurde Konsequenzen habe (Ball 2018), die beispielsweise durch das Gedankenexperiment des Quanten-Selbstmordes veranschaulicht werden. Weitere absurde Konsequenzen ergeben sich aus dem impliziten modalen Realismus, in dem es keinen Unterschied mehr gibt zwischen Möglichem und Realem. Alles was möglich ist, egal wie unwahrscheinlich oder verrückt, geschieht auch tatsächlich. Allerdings hat natürlich jede Interpretation der Quantenmechanik unanschauliche und unintuitive Aspekte.

Unseres Erachtens könnte die Everett-Interpretation nur dann vollständig sein, wenn Bewusstsein als zentrale Komponente einbezogen wird. Dies würde eher eine Synthese der Viele-Welten-Deutung mit der Many-Minds-Interpretation impliziere, oder mit perspektivischen Elementen der Relationalen Interpretation der Quantenmechanik. Beispielsweise könnte Bewusstsein in folgender Form zur Lösung des Problems der bevorzugten Basis beitragen: Information bedeutet Reduktion von Alternativen. Dekohärenz erhöht durch Reduktion von Alternativen den Informationsgehalt. Auf Grund der Theorie der Integrierten Information steigt mit dem Informationsgehalt auch der Grad des Bewusstseins. Folglich sind nur vollständig dekohärente Gehirne maximal bewusst, während Zustände der Superposition durch vermindertes Bewusstsein nicht wahrgenommen werden. Tononis Theorie der Integrierten Information liefert ganz neue Ansätze für die Beziehung von Bewusstsein und dem (vermeintlichen) Kollaps der Wellenfunktion (Okon & Sebastián 2018).

 

Auch die "Vielen Welten" sind ggf. nur ein emergentes Phänomen aus einer tiefer liegenden Quantenrealität, denn die moderne Everett-Interpretation geht nicht mehr von sich ständig verzweigenden Welten aus, sondern sieht die klassischen Welten als emergentes Phänomen der universellen Wellenfunktion im Hilbertraum (Wellenfunktions-Monismus) (Smith 1997, Solé & Hoefer 2016, calosi 2017, Päs 2019, Tappenden 2019, Parrochia 2020). Dies ist besonders Evident in Zureks Existenzieller Interpretation (Zurek 2018), in der klassische Existenz durch Quanten-Darwinismus aus Quanteninformation emergiert und somit Wheelers Diktum "It from Bit" erfüllt. Die Viele Welten Interpretation fügt sich somit zwanglos in unser Modell des Quanten-Idealismus. Die Realität der Wellenfunktion ist, ganz im Gegensatz zu deren epistemischer Interpretation, inzwischen auch durch experimentelle Daten unterstützt (Pusey et al. 2012, Branciard 2014, Ringbauer et al. 2015, Manzano 2015, Nova 2015, Slezak 2015, Ringbauer 2017). Unseres Erachtens sollten alle Interpretationen der Quantenmechanik ausgeschlossen werden, die entweder den mathematischen Formalismus ergänzen und/oder ad hoc einen Kollaps-Mechanismus hinzufügen (quasi "Theorien der verschwindenden Welten"). Vertreter der Viele-Welten-Deutung betonen zudem zurecht, dass alle indeterministischen Interpretationen auf Grund des fundamentalen Zufallselementes nicht wirklich erklären können (und wollen), warum gerade genau dieses Resultat gemessen wird anstatt eines anderen. Dies scheint jedoch die erst zu beweisende Behauptung als wahr vorauszusetzen, nämlich dass der Indeterminismus unzutreffend ist, was aber mit dem logischen Satz von zureichenden Grund gerechtfertigt werden könnte, mit dem ein Indeterminismus grundsätzlich inkompatibel ist (Mashkevich 2010), so dass alle indeterministischen Interpretationen der Quantenmechanik aus logischer Notwendigkeit falsch sein müssten (allerdings gibt es auch gewichtige Argumente aus der Informationstheorie und Mathematik gegen den Satz vom zureichenden Grund, z.B. Chaitin 2006, 2008). 

 

Die Implikationen der merkwürdigen Ergebnisse der Quantenmechanik können nicht mehr nur auf die Welt der kleinsten Elementarteilchen beschränkt werden, denn erstens sind ja alle makroskopischen Objekte aus solchen Elementarteilchen zusammengesetzt, und zweitens ist Quantenverschränkungen inzwischen experimentell schon bis in den Größenbereich sichtbarer Objekte gelungen (Brumfiel 2010, Gerlich et al. 2011, Klimov et al. 2015, Ockeloen-Korppi et al. 2018, Fein et al. 2019). Die einzigen alternativen Interpretationen der Quantenmechanik, die eine solche "magische" Grenze zwischen mikroskopischer Quantenwelt und makroskopischer Klassier Realität überhaupt ermöglichen würden, sind sogenannte dynamische Kollapstheorien (z.B. Girardi-Rimini-Weber Interpretation), mit einem schwerkraft-induzierten, zufälligen Kollaps der Wellenfunktion. Damit handelt es sich grundsätzlich um von der Standard-Quantenmechanik unterschiedliche Theorien, die somit experimentell überprüfbar sind. Entsprechende Experimente sind derzeit in Arbeit und werden wohl noch 2021 durchgeführt (Skibba 2020). Unsere Vorhersage ist daher, dass die dynamischen Kollapstheorien in Kürze experimentell widerlegt sein werden.

 

Das Problem der Beziehung zwischen abstrakten Gegenständen (wie der Mathematik) und der physikalischen Realität kann nur durch eine idealistische Metaphysik gelöst werden. Dies gilt insbesondere auch für die Beziehung zwischen abstrakten Ideen und unseren neurophysiologischen Hirnzuständen. Im Quanten-Idealismus gibt es keine unüberbrückbare Kluft zwischen immateriellen und zeitlosen, abstrakten Gegenständen, die im Hilbert-Raum existieren, und der raumzeitlichen physikalischen Realität, die aus diesem Hilbert-Raum emergiert. Wigners Problem der mysteriösen Nützlichkeit der Mathematik in den Naturwissenschaften (Wigner 1960) und das geistesphilosophische Problem der Intentionalität finden somit eine elegante Lösung. Auch Max Tegmarks „Mathematisches Universum“ (eine Art pythagoreischer Monismus) impliziert eine idealistische Metaphysik, denn Mathematik basiert auf Konzepten und Ideen, die einen bewussten Geist als Träger voraussetzen (aber siehe Anhang 2 unten). Da diese universell gültigen Konzepte offensichtlich nicht auf unser individuelles Bewusstsein beschränkt sind, müssen sie in einem universellen Bewusstsein existieren. Auch Tegmark selbst verbindet inzwischen seine Hypothese mit Tononis panpsychistischer Theorie der Integrierten Information, die zunehmend als die derzeit führende wissenschaftliche Theorie des Bewusstseins anzusehen ist (eine interessante Variante ist Johnjoe McFaddens 2020 Synthese von Tononis IIT mit einer EM-Feldtheorie des Bewusstseins).

 

Zu einer idealistischen Schlussfolgerung gelangt man auch durch eine Verbindung der modernen Physik der emergenten Raumzeit mit den kognitionswissenschaftlichen Theorien von Donald Hoffmans Bewusstseins-Realismus und Interface-Theorie (Hoffman 2008, 2014, 2019, Hoffman & Prakash 2014, Hoffman et al. 2015, Fields et al. 2017) und Giulio Tononis Theorie der Integrierten Information (Tononi 2008, 2012, Lamme 2010, Tononi & Koch 2014, Oizumi et al. 2014, Hoel et al. 2016, Musser 2017). Diese implizieren eine Äquivalenz von Quantenverschränkung und Bewusstsein (Tononi 2008, Zanardi et al. 2018, Kleiner & Tull 2020, Tull & Kleiner 2020, Brooks 2020). Zusammengenommen folgt, dass die Raumzeit eine kognitive Quantensimulation innerhalb eines universellen Bewusstseins ist. Auch Barkai (2019) sieht eine direkten Zusammenhang zwischen Quantenverschränkung und Bewusstsein. Eine solche direkte Beziehung zwischen Quantenphänomenen und Bewusstsein wird durch zahlreiche unabhängige Ansätze nahegelegt (Meijer & Raggett 2014) und zudem durch die Forschung im Bereich Bereich der Quanten-Kognition belegt (Aerts 2009, Bruza et al. 2015), welche gezeigt hat, dass Denkvorgänge mittels der Schrödinger-Gleichung exakt modelliert werden können. Hinzu kommen vermehrte Hinweisen auf Quanten-Berechnungen im Gehirn (Faber et al. 2006, Hameroff & Penrose 2014, Cocchi et al. 2017) und weitere Forschung zur Quantenbiologie des Gehirns (John 2002, Agrawal et al. 2018), die in die gleiche Richtung weisen.

 

Ein vorläufiges deduktives Argument für den Quanten-Idealismus könnte folgermaßen formuliert werden:

  • Prämisse 1: Es gibt eine Wellenfunktion des Universums.
  • Prämisse 2: Die Wellenfunktion der Quantenmechanik ist real, aber nicht raumzeitlich-physikalischer Natur, sondern mathematischer Natur (Dorato 2015a).
  • Prämisse 3: Mathematische Gegenstände sind abstrakte Konzepte, die einen bewussten Geist als Träger voraussetzen.
  • Schlussfolgerung: Es gibt ein universelles Bewusstsein, in dem die Wellenfunktion des Universums "lebt".

 

Die oben aufgeführten Hinweise zu Gunsten eines Quanten-Idealismus können zudem in folgendem deduktiven „Gottesbeweis“ zusammengefasst werden, der unser zentrales Argument darstellt:

  • Prämisse 1: Raumzeit emergiert aus verschränkter Information (AdS/CFT-Korrespondenz bestätigt durch Cao 2017, sowie experimentelle Bestätigungen von Bells und Leggetts Ungleichungen, siehe oben und siehe Ball 2020).
  • Prämisse 2: Verschränkung von Information ist gleichbedeutend mit Integration von Information und somit gleichbedeutend mit Bewusstsein (Theorie der Integrierten Information von Tononi 2008, experimentell bestätigt von John 2002 durch quantenbiologische Effekte der Gamma-Synchronität unter Narkose; zudem laut Ball 2019 in Kürze experimentell überprüft durch großes Projekt der Tempelton-Stiftung).
  • Schlussfolgerung 1: Raumzeit emergiert aus Bewusstsein.
  • Prämisse 3: Es gibt eine einzige Universelle Wellenfunktion UWF, welche die Verschränkung aller Materie-Energie und somit aller Information in einen einzigen integrierten Informationszustand impliziert (Wheeler-DeWitt-Gleichung, experimentell bestätigt durch Moreva et al. 2014).
  • Schlussfolgerung 2: Die physikalische Raumzeit ist emergent aus einem einzigen universellen Bewusstsein (und dieses nennen wir Gott). Da die digitale Physik, wie oben erwähnt ein emergentes Phänomen innerhalb dekohärenter Weltzweige ist, aber die Wellenfunktion des Universums kontinuierlich ist, folgt daraus auch, dass die fundamentale Natur der Realität kontinuierlich (analog) ist. Der Geist Gottes ist ein unendliches, unteilbares Ganzes, wie von Plato als das 'EINE' oder wie im klassischen Theismus (Stichwort "divine simplicity") beschrieben.

[Hinweis: Ein möglicher Einwand könnte das Exklusionprinzip der Theorie der Integrierten Information sein, das nur dem jeweils höchsten System innerhalb einer verschachtelten Hierarchie Bewusstsein zuspricht. Dies könnte bedeuten, dass das obige Argument zeigt, dass es nur ein kosmisches Bewusstsein geben könnte, aber z.B. keine bewussten Wesen innerhalb des Kosmos. Dies wäre jedoch ein Missverständnis des Quanten-Idealismus, der ja einen Bewusstseins-Monismus postuliert. Es gibt demnach keine wirklich getrennten Bewusstseine, sondern tatsächlich nur ein universelles Bewusstsein, während die scheinbare Getrenntheit der verkörperten Bewusstseine nur eine Illusion ist.]

 

Angesichts der offensichtlichen theistischen Implikationen dieser Schlussfolgerung ist es nicht verwunderlich, dass diese Erkenntnisse auch wichtige Auswirkungen auf die Theorie des Intelligenten Designs haben können. Verbindet man Modelle der Quanten-Evolution (McFadden & Al-Khalili 1999, 2001, McFadden 2002, Goswami 2008, Griffin 2008, Ogryzko 2009, Schäfer 2009, Merali 2014, Elsheik 2016, Hameroff 2017, Nemer et al. 2017) und der Verschränkung von DNA (Rieper et al. 2010) mit unserem Modell des Quanten-Idealismus, so lässt sich ein konkreter Mechanismus für Intelligentes Design ableiten. Mutationen erfolgen demnach nicht zufällig (vergl. Kastrup 2019a), sondern sind Quantenberechnungen im Zustand der DNA-Verschränkung, wobei vorteilhafte Mutationen ein höheres Gewicht haben als schädliche Mutationen, weil sie in mehr Zweigen der Wellenfunktion überleben und propagieren. Zudem postulieren wir einen ontologischen Status der evolutionären Fitnesslandschaft als Teilmenge des Hilbertraumes, denn beide sind distinkte Mengen alternativer Möglichkeiten. Durch die oben erwähnte mentale Natur der universellen Wellenfunktion ist dieser Prozess zielgerichtet. Man könnte auch sagen, dass bestimmte platonische Formen als morphogenetische Attraktoren wirken (vergl. Sheldrake 1981, Griffin 2008), welche nicht-zufällige, adaptive Makro-Mutationen kanalisieren. Oder um in der Computermetapher zu bleiben: Neue Information wird aus der Cloud heruntergeladen. Daraus resultiert ein sprunghafter und teleologischer Evolutionsprozess, der in den allgegenwärtigen Diskontinuitäten des Fossilberichtes seine Bestätigung findet. Zusätzlich könnte eine idealistische Deutung (Kastrup 2012) von Rupert Sheldrakes Theorie der Morphischen Resonanz als Gedächtnis der Natur das Phänomen der allgegenwärtigen Konvergenzen besser erklären, insbesondere Fälle von parallelen Entwicklungen in nahe verwandten Gruppen (sogenannte "underlying synapomorphies" senu Sæther 1983, wie z.B. der einzigartige horizontale Backenzahlwechsel bei Elefanten und Seekühen, der jedoch jeweils bei frühen fossilen Vertretern der beiden Gruppen fehlt), insbesondere wenn diese Konvergenzen auch noch zeitlich koordiniert sind (z.B. die plötzliche unabhängige Entstehung von 15 Familien mariner Reptilien in der frühen Triaszeit). Unser hier postuliertes saltatorisches Model steht somit in einer langen Tradition nicht-darwinistischer Evolutionstheorien wie Teilhard de Chardins (1955) Orthogenese und Albert von Köllikers (1864) Heterogenese, D’Arcy Thompsons (1917, 1940) mathematischer Transformationen, der „Hopeful Monster“-Hypothese von Geoffroy Saint-Hilaire und Richard Goldschmidt (1940) (Gould 1977, Theißen 2006, Rieppel 2001, 2017), Otto Schindewolfs (1950) Typostrophenlehre, Michael Polanyis Emergentismus (Paksi 2012), sowie der Annahme eines sprunghaften Mutationismus bei Hugo de Vries und Thomas Hunt Morgan (Bowler 1978). Die hier befürwortete Hypothese einer teleologischen Quanten-Evolution ist durchaus vereinbar mit einer begrenzten Neo-Darwinistischen Mikroevolution sowie mit Prozessstrukturalismus (Jones 2018), der eine weitere teleologische Ebene hinzufügt, nämlich feinabgestimmte Naturgesetze (Laws of Form) und feinabgestimmte Fitness-Landschaften. Die Interpretation von Evolution als zielgerichtete Quantenberechnung ist zudem kongruent mit der modernen Definition von Leben als informationsverarbeitendem Prozess (Walker & Davies 2013, Davies 2019).

 

Verschiedene theologische Konsequenzen folgen ebenfalls aus den obigen Überlegungen. Quanten-Idealismus ist mit verschiedenen religiösen Traditionen vereinbar (insbesondere deren mystischen und esoterischen Formen) und hat eine besondere Nähe zur Philosophia perennis, Prisca theologia und Hermetik (Jordan 2016, Palmer & Palmer 2018). Unvereinbarkeit besteht natürlich mit den simplistischen und naiven Interpretationen fundamentalistischer Glaubensrichtungen, die oft eher an Cargo-Kulte erinnern. Hingegen haben eine ganze Reihe bedeutender christlicher Philosophen und Theologen, wie beispielsweise Bischof George Berkeley, Jonathan Edwards (1957), Robert Adams (2007), Keith Ward (2010) und Bruce Gordon (2017), in der Vergangenheit auch die grundsätzliche Vereinbarkeit von anspruchsvollem christlichem Glauben und idealistischer Metaphysik aufgezeigt. Unser Modell erlaubt unter Umständen sogar die rationale Ableitung und Begründung klassischer christlicher Doktrinen, wie beispielsweise eine neuartige Interpretation des Sündenfalls (ein Verlust der Verschränkung mit dem universellen Bewusstsein) (Alander 2020), eine Physik der Wunder (Raatz 2016), eine stringente mathematische Rekonstruktion der Trinität und ihrer Omni-Attribute aus der Dynamik bewusster Agenten (sensu Hoffman & Prakash 2014) (Raatz 2013, 2017) sowie sogar die Begründung geistiger Entitäten wie Engel und Dämonen (Raatz 2020). Eine kompatible Christologie folgt am Besten in Anlehnung an die Vorstellungen von Teilhard de Chardin und der von Frank Tipler modernisierten Form der Omega-Punkt-Theorie (Tipler 2008). Auch die im klassischen Theismus zentrale Unterscheidung zwischen Schöpfer und Schöpfung kann rational in unserem Modell hinreichend begründet werden. Diese Unterscheidung ist kompatibel mit einem schwachen (palamitischen) Panentheismus und seiner Unterscheidung zwischen göttlicher Essenz und göttlichen Energien (Jones 2014b), was einen reinen Pantheismus oder einen wandelbaren Gott der Prozessphilosophie vermeidet. Die entsprechende theoretische Ableitung folgt aus einer Anwendung von Carlo Rovellis (1996) Relationaler Interpretation der Quantenmechanik (scheinbarer Kollaps der Wellenfunktion ist relativ zum Bezugssystem, vergl. Soltau 2010) auf unser Modell des Quanten-Idealismus. Im Gegensatz zu dualistischen Vorstellungen vermeidet ein monistischer Idealismus das oft unterschätzte Gott-Welt-Problem (eine Variante des bekannteren Problems der Seele-Körper-Interaktion), welches aus einem Non sequitur Fehlschluss resultiert, beruhend auf einer mangelnden explanatorischen Kontinuität zwischen Gott und Welt (siehe Abbildung unten). Theismus impliziert daher mit logischer Notwendigkeit eine idealistische Metaphysik. In diesem Zusammenhang ist es zumindest eine interessante Tatsache, dass die neuronalen Vernetzungen in unserem Gehirn eine auffallende Ähnlichkeit zu den Galaxien-Netzwerken des Universums besitzen (Krioukov et al. 2012, Zverina 2012, Vazza & Feletti 2017, 2020), die auch von Mainstream-Wissenschaftsmedien nicht länger ignoriert werden kann (Starr 2020), und quasi die materielle Entsprechung des Geist Gottes wäre (Kastrup 2015). Eine solche idealistische Metaphysik erlaubt auch eine neue Sicht des Hylemorphismus in der aristotelisch-thomistischen Philosophie, die im christlichen Denken (insbesondere in der Katholischen Kirche) eine große Rolle spielt: Prima Materia (hyle) ist demnach die reine Potenzialität des universellen Bewusstseins als "Container" für konkrete Bewusstseinsinhalte, während diese konkreten Inhalte die substantielle Form (morphe) darstellen, die das Bewusstsein in-formieren und damit in eine konkrete Form aktualisieren. Beide sind untrennbar miteinander verbunden und keines von Beiden existiert ohne das jeweils Andere.

 

Auswirkungen hat unser Modell auch auf den Transhumanismus, der von Manchen auch als säkulare Pseudo-Religion angesehen wird. Seine Vertreter gehen oft davon aus, dass wir durch exponentielle Fortschritte der künstlichen Intelligenz irgendwann unser Bewusstsein digital kopieren und in die Cloud hochladen können, um dort eine Form von Unsterblichkeit in einem virtuellen Paradies genießen können. Sowohl die Ergebnisse der Bewusstseinstheorie der Integrierten Information als auch die Ergebnisse zur Quantenbiologie des Gehirns könnten es jedoch (zumindest mittels klassischer Computer) grundsätzlich unmöglich machen, das menschliche Bewusstsein unter Erhaltung der persönlichen Identität digital zu kopieren (u.a. auch wegen des No-Cloning-Theorems in der Quantenphysik). Ein möglicher Ausweg wäre jedoch vielleicht das Phänomen der Quanten-Teleportation, die in den Experimenten von Anton Zeilinger schon bei einzelnen Teilchen gelungen ist. Dieses Problem besteht natürlich nur dann, falls es überhaupt so etwas wie diachrone persönliche Identität im Sinne eines überdauernden Selbst gibt, was von einigen bedeutenden Philosophen (wie z.B. Derek Parfit 1971, 1984) mit guten Gründen bezweifelt wird. Das sogenannte Doomsday-Argument ist jedoch in jedem Falle ein schwerwiegendes Problem für jegliche Annahme einer sehr langen oder unendlichen Zukunft untypischer Beobachtermomente, sei es in einer StarTrek-Zukunft unter den Sternen, in einem digitalen "Paradies" (Bostrom 1998, 2002, Gerig 2012, Gerig et al. 2013), oder gar in einem religiösen Jenseits (Leslie 2008, Page 2008), außer die Viele-Welten-Deutung der Quantenmechanik trifft zu, was die Wahrscheinlichkeit für langfristiges Überleben unserer Zivilisation zumindest in einigen Zweigen der Wellenfunktion auf praktisch 100% erhöhen würde.

 

Abschließend sei noch kurz erwähnt, dass eine monistisch-idealistische Metaphysik auch Fragen der Tierrechte, Naturrechte und Tiefenökologie berührt. Dies zeigt sich unter anderem in den Arbeiten des idealistischen Philosophen Timothy Sprigge (Sprigge 1979, 1984b, 1987), der zeigte, dass in einem Absoluten Idealismus intrinsischer Wert nicht auf die menschliche Natur beschränkt ist, aber dennoch stets eines wahrnehmenden Bewusstseins bedarf um realisiert zu werden.

 

Die hier nur angedeuteten Modelle sind aktueller Gegenstand unserer gemeinsamen Forschung und großteils noch nicht veröffentlicht. Die Simulations-Hypothese (oft auch Matrix-Hypothese genannt) erfreut sich derzeit zunehmender Beliebtheit bei Physikern (z.B. Martin Rees, John Barrow 2007, Neil deGrasse Tyson und Michio Kaku), Philosophen wie Nick Bostrom (2003) und High-Tech Vordenkern wie Marvin MinskyElon Musk und Ray Kurzweil (1999). Es ist offensichtlich, dass es sich dabei um nichts anderes als eine nicht-theistische Version des Design-Argumentes handelt. Dies zeigt, dass der Bereich der Digitalen Physik und des Quanten-Idealismus die einzigartige Möglichkeit birgt, eine Brücke zwischen den Vertretern des Naturalismus und des Theismus sowie zwischen Vertretern des Darwinismus und des Intelligenten Designs zu schlagen. Zudem ermöglich dieser Ansatz nicht nur den vermeintlichen Konflikt zwischen Religion und moderner Wissenschaft aufzulösen, sondern Religion und Metaphysik in der Physik des 21. Jahrhunderts zu begründen und sicher zu verankern. Metaphysik ist damit nicht länger ein Gefangener philosophischer Beliebigkeit und die Existenz Gottes nicht länger eine reine Glaubensfrage. Der übernatürliche Theismus der Vergangenheit wird zu einem theistischen Naturalismus, bzw. wird die Übernatürlichkeit und Transzendenz Gottes zu einem wissenschaftlich fassbaren Begriff und Intelligentes Design wird zu einem Teil einer neuen Evolutionsbiologie jenseits der erwiesenen Unzulänglichkeit des Neo-Darwinismus (Nagel 2012, Müller 2017) und der absehbaren Unvollkommenheit einer immer mehr Erweiterten Synthese („Extended Evolutionary Synthesis“).

 

Quellen:

 

Weiterführende Videos zum Thema Quanten-Idealismus:

 

Weiterführende Internetseiten:

 

Anhang 1: Die hier beschriebenen Fakten basieren alle auf wissenschaftlichen Arbeiten von renommierten Wissenschaftlern und sind in peer-reviewten Fachzeitschriften veröffentlicht. Die darauf aufbauende Hypothese des Quanten-Idealismus hat somit nichts mit dem zweifelhaften Missbrauch von Quantenphysik für esoterische Zwecke zu tun (Stenger 1997, 2009, McBrayer & Owen 2016), wie er sich leider in bestimmten Kreisen großer Beliebtheit erfreut (z.B. durch Filme wie „What the Bleep“). Quanten-Idealismus behauptet nicht, dass wir etwa unsere eigene Realität erschaffen können, und ist auch nicht zwangsläufig mit einer Neumann-Wigner-Interpretation der Quantenmechanik korreliert, nach der Akt der bewussten Beobachtung die Wellenfunktion kollabieren lässt (contra Yu & Nikolić 2011 ist eine solche Interpretation jedoch keinewegs experimentell widerlegt wie Reason 2017 gezeigt hat). Quanten-Idealismus kann somit nicht einfach als Quanten-Quacksalberei („quantum quackery“) oder Quanten-Aberglaube („quantum woo-woo“) abgetan werden. Insoweit dies dennoch geschieht, so kann diese Ablehnung nicht wissenschaftlich begründet werden, sondern basiert auf einer reinen Voreingenommenheit zu Gunsten einer materialistischen Weltanschauung.

 

Eine noch offene Frage ist, welche Auswirkungen bestimmte grundsätzliche Grenzen der Berechenbarkeit auf unsere Hypothese des Quanten-Idealismus haben. Hierzu zählen z.B. Gödels Unvollständigkeitssatz, das Halteproblem, P-NP-Problem und n-Körper-Problem, die No-free-Lunch Theoreme, die Russelsche Antinomie, der Satz von Löb und Satz von Rice, Tarskis Undefinierbarkeitssatz, Wolframs rechnerische Nichtreduzierbarkeit und das generelle Problem der Unentscheidbarkeit. Es gibt zudem Hinweise auf der Grundlage des Halteproblems, die den Satz von zureichenden Grund widerlegen könnten (Chaitin 2006, 2008; allerdings gibt es von Ji et al. 2020 neue Argumente gegen die Unlösbarkeit des Halteproblems, vergl. Rorvig 2020). Unsere Intuition ist, dass diese sich (ebenso wie Georg Cantors "Absolut Unendliche") letztlich auf die fundamentale Ebene des Universellen Geistes (Gott) beziehen, der selbst nicht Teil der "Simulation" ist. Generell sind wir der Meinung, dass Gödels Unvollständigkeitssatz nicht nur einen simplistischen Naturalismus widerlegt, sondern auch eine Art von "Gottesbeweis" ermöglicht (siehe auch Perry Marshall hier und hier). Benacerrafs Dilemma und das ähnliche Gödel-Problem sind zwei schwerwiegende Probleme sowohl für den Platonismus als auch für den Materialismus (Griffin 2012). Sie betreffen die Frage, wie abstrakte Gegenstände (z.B. Mathematik oder moralische Werte) eine kausale Wechselwirkung mit der physikalischen Welt und unserem Bewusstsein haben können. Diese beiden Probleme sind nur lösbar, wenn man entweder einen mathematischen Monismus im Sinne Tegmarks annimmt, oder auf der Grundlage einer theistischen bzw. idealistischen Interpretation.

 

Anhang 2: Wenngleich die beiden Co-Autoren dieses Essays in der Grundzügen der hier vorgestellten Metaphysik übereinstimmen und diese im weiteren philosophischen Rahmen eines Neuplatonismus und klassischen Theismus verstehen, gibt es zwei wichtige Unterschiede in ihren Ansichten:

 

Während Johanan Raatz das Konzept der libertären Willensfreiheit unterstützt und somit eine abgeschwächte Form des Satzes vom zureichenden Grund vertritt, ist Günter Bechlys Anschauung eher spinozistisch. Dies bedeutete, dass er libertäre Willensfreiheit als inkohärentes Konzept betrachtet und wie Leibniz einen uneingeschränkten Satz vom zureichenden Grund bevorzugt (Mashkevich 2010, aber siehe Chaitin 2006 und 2008 für ein schwerwiegendes Gegenargument). Im Gegensatz zu manchen anderen Anhängern des Quanten-Idealismus (z.B. Jones 2013) sieht Bechly in dem Free-Will-Theorem (Conway & Kochen 2006, Suarez 2009, 2010) keine Begründung menschlicher Willensfreiheit, sondern im Gegenteil ein Argument für den Superdeterminismus. Dies impliziert auch einen Nezessitarismus und somit die Verneinung jeglicher echter Kontingenz (aber siehe Donald Hoffman 2019). Ein modaler Kollaps in Richtung eines modalen Realismus wird von Bechly dennoch zurückgewiesen, da er einen axiarchischen Neuplatonismus (im Sinne von John Leslie) vertritt, nach dem auf Grund der schöpferischen Kraft der Form des Guten (= das Eine, Gott) logisch notwendig nur diejenigen möglichen Welten existieren, deren Existenz besser ist als deren Nichtexistenz. Dieser Axiarchismus wird jedoch auch von Johanan Raatz erwogen.

 

Bechly ist zudem eher Neuplatonist als monistischer Idealist. Der Grund ist folgendes deduktives Argument (vergleiche auch Li 2013 und Schneider 2018):

 

Prämisse 1: Der Urgrund von Allem ist entweder materiell (Physikalismus), geistig (Idealismus) oder abstrakte Gegenstände (Platonismus).

Prämisse 2: Sowohl Materie als auch Geist (Bewusstsein) sind intrinsisch raumzeitlicher Natur.

Prämisse 3: Raumzeit ist nicht fundamental, sondern emergiert aus zeitloser verschränkter Quanteninformation.

Schlussfolgerung 1: Nichts Raumzeitliches (also weder Materie noch Geist) kann fundamental sein. Folglich sind Materialismus/Physikalismus und Idealismus falsch.

Prämisse 4: Zeitlose Quanteninformation ist offensichtlich ein abstraker Gegenstand.

Schlussfolgerung 2: Platonismus ist wahr. Abstrakte Gegenstände sind der Urgrund von Allem. Raumzeit und Geist (einschließlich Universelles Bewusstsein) sind ko-emergent (wie schon von Plotin gedacht).

 

Es gibt ein starkes induktives Argument für die Wahrheit von P2, und keine empirischen Argumente dagegen. Das Konzept eines atemporalen Geistes/Bewusstseins schein inkohärent. P2 ist somit eher wahr als falsch. P1 ist erschöpfend und daher notwendig wahr, P3 ist durch die moderne Physik bestätigt, P4 scheint offensichtlich, somit folgen C1 und C2 zwingend. Platonismus könnte zudem sehr gut mit Ontischen Strukturenrealismus vereinbar sein, insbesondere in der Form von Tegmarks Mathematischem Monismus (Tegmark 2015). Allerdings ist auch möglich, dass die notwendige Existenz platonischer abstrakter Gegenstände, ein diese kontemplierenden Geist bedingt, ganz im Sinne von Berkeleys Diktum "Esse est percipi". Zudem lieferten Irwin et al. (2020) einen neuen Lösungsansatz, der auf einer "seltsamen Schleife" zwischen platonischer Mathematik und selbstsimulierendem Bewusstsein basiert.

 

Auch in Tononis Theorie der Integrierten Information ist Bewusstsein strikt korreliert mit raumzeitlichen materiellen Kausalsystemen (Hoel et al. 2016), was impliziert, dass Bewusstsein nicht fundamental sondern mit Raumzeit ko-emergent ist. Auf der anderen Seite sieht Donald Hoffman (Hoffman 2020) Bewusstsein als grundlegendes Phänomen, das stets eine mathematische Struktur bedingt und beides jenseits von Raum und Zeit liegend, aber Raum und Zeit hervorbringend. Johanan Raatz unterstützt letztere Auffassung und auch Günter Bechly ist für diese Möglichkeit offen. Letztlich ist der strittige Punkt nicht, ob es ein universelles Bewusstsein als Grundlage aller raumzeitlichen Existenz und aller abstrakter Konzepte gibt oder nicht, sondern nur ob dieses die ultimative Erklärungsebene ist oder ob sich dahinter noch ein transpersonales neoplatonisches Eines als Urgrund verbirgt, das maximal einfach ist und analog zu einen unbegrenzten reinen Intellekt ist, aber unbewusst ist in dem Sinne, dass es keine phänomenalen Erfahrungen im Sinne von Qualia besitzt. In diesem Zusammenhang ist erwähnenswert, dass auch katholische Vertreter des klassischen Theismus (z.B. Edward Feser) Gott als maximal einfachen reinen Intellekt sehen, ohne Qualia, und keine Spezies irgendeines Genus (kein maximal großes Wesen neben anderen Wesen) sondern pure Existenz oder Sein an sich. In diesem Sinne lehnt Bechly auch Anselms "perfect being"-Theologie und den darauf aufbauenden Ontologischen Gottesbeweis ab.

 

Anhang 3: Im obigen Artikel sind verschiedene Interpretationen der Quantenmechanik erwähnt. Welche davon wird von den Autoren bevorzugt? Die Interpretationen, die am natürlichsten mit dem Quanten-Idealismus und insbesondere Donald Hoffmans Bewusstseins-Realismus zusammenpassen sind die indeterministischen und anti-realistischen Interpretationen des Qbism (Fuchs 2017) und der Informationstheoretischen Interpretation (Feldmann 2020a, 2020b), die beide eine aktive Rolle bewusster Agenten und eine Bayesische Analyse der Auswirkungen ihrer Handlungen betonen. Weitere Interpretationen mit interessanten Aspekten sind die Neumann-Wigner Interpretation (Bewusstsein verursacht Kollaps der Wellenfunktion), Rovellis Relationale Interpretation und die Many Minds Interpretation als Variante der Everett-Interpretation. Nur letztere ist deterministisch und daher mit dem Satz vom zureichenden Grund vereinbar, falls dieser uneingeschränkt gültig sein sollte.

 

Anhang 4: Im Quanten-Idealismus wird eine statische Theorie der Zeit (B-Theorie, Eternalismus), also ein Blockuniversum, als wissenschaftlich erwiesene Tatsache akzeptiert. In der philosophischen und insbesondere theologischen Diskussion wird hingegen oft noch eine dynamische Theorie der Zeit (A-Theorie, Präsentismus) vorgezogen. Auch für das in der christlichen Apologetik sehr beliebte Kalam-Kosmologische-Argument für die Existenz Gottes ist eine solche A-Theorie der Zeit implizite Voraussetzung. Unseres Erachtens ist dies ein Anachronismus, da die Ergebnisse der modernen Physik und Kosmologie (z.B. zu Schwarzen Löchern und Gravitationswellen) keinerlei vernünftigen Zweifel mehr zulassen, dass die A-Theorie falsch ist und wir tatsächlich in einem Blockuniversum leben (Saunders 2002, Balashov & Janssen 2003, Petkov 2006, 2007, Eichman 2007, Wüthrich 2010, 2013, Besnard 2011, 2012, Kehler 2011, Romero & Pérez 2014, Romero 2014, 2015, 2017, Poulston 2015, Sengers 2017, Morita 2017, Cundy 2019). Diese neueren Erkenntnisse lassen sich auch nicht mehr durch eine Neo-Lorentzische Interpretation der Relativitätstheorie wegerklären, wie dies beispielsweise noch von dem christlichen Philosophen William Lane Craig versucht wurde, obwohl die experimentellen Ergebnisse der Relativitätstheorie in einer dreidimensionalen Welt unerklärbar wären (Minkowski Institute). Dies gilt auch für Aristotelisch-Thomistische Metaphysik und Gottesbeweise insoweit ein Präsentismus vorausgesetzt wird, was der Regelfall ist (z.B. in den Büchern "Fünf Gottesbeweise" und "Aristotle's Revenge" von Edward Feser, aber siehe Alexander Pruss und Nigel Cundy für eine andere Sicht). Es scheint daher dringend geboten, dass christliche Philosophen ihre Argumentation auf den neuesten Stand der modernen Physik bringen und entsprechend anpassen (Carroll 2014, McGrew 2014). Die Auswirkungen auf Philosophie (z.B. Willensfreiheit, diachrone persönliche Identität, Kausalität, und Werden und Wandel) und Theologie (z.B. Gottes Verhältnis zur Zeit, Christologie, Schöpfung) sind ohne Zweifel beträchtlich und verlangen in vielen Bereichen ein erhebliches Umdenken.

 

Als besonders schlüssiges Beispiel hier das deduktive Argument von Romero (2017), welches unseres Erachtens den Präsentismus eindeutig und endgültig widerlegt:

 

Prämisse 1: Es gibt Gravitationswellen (experimentell nachgewiesen durch LIGO, Nobelpreis 2017).

Prämisse 2: Gravitationswellen haben einen Weyl-Krümmungstensor ungleich Null (notwendig wahr).

Prämisse 3: Ein Weyl-Krümmungstensor ungleich Null ist nur möglich in vier Dimensionen (notwendig wahr).

Prämisse 4: Der Präsentismus ist inkompatibel mit einer 4-dimensionalen Welt (per definitionem).

Schlussfolgerung: Daher ist der Präsentismus falsch. Die Welt ist ein 4D-Blockuniversum.

 

Unabhängig von den Ergebnissen der modernen Physik gibt es auch noch zahlreiche Argumente aus der Philosophie, die den Präsentismus als inkohärent entlarven. Dazu gehören beispielsweise McTaggarts Argumente zur Irrealität der Zeit, das Problem der zeitlichen Ausdehnung ("thickness") der Gegenwart (siehe Dyke 2002, McGrew 2014) und die sogenannte "Grounding-Objection" (was sind die Wahrmacher von Aussagen über Vergangenheit und Zukunft?). Selbst eine genauere Untersuchung der Phänomenologie unserer Zeitwahrnehmung spricht inzwischen gegen den Präsentismus (Hoffman 2014, Dorato 2015b, Miller & Loo 2016). Es gibt keinen Fluss der Zeit, kein tatsächliches Werden und Vergehen, und es gibt keine objektive Gegenwart, die stetig fortschreitet und eine nicht mehr existierende vollendete Vergangenheit von einer noch nicht existierenden Zukunft scheidet. "Jetzt" ist ein relativer Index-Begriff ähnlich wie "hier". Der vermeintliche Fluss der Zeit ist, wie Albert Einstein es ausdrückte, nur eine hartnäckige Illusion (Gruber & Block 2013, Gruber et al. 2018).

 

Anhang 5 (GB): Ein abgeschwächtes Prinzip des zureichenden Grundes, wie beispielsweise von Alexander Pruss vorgeschlagen um freien Willen zu erlauben, verlangt keine kontrastierenden Erklärungen, die ihr Explanandum bedingen. Dadurch erklären sie meines Erachtens leider gar nichts. Dies liegt daran, dass das Explanans sowohl mit dem Explanandum p als auch mit dessen Abwesenheit nicht-p vereinbar ist und somit weder p noch nicht-p erklärt. Jede echte Erklärung muss das Explanandum bedingen. Daher befürworte ich ein striktes Prinzip des zureichenden Grundes (PSR), welches notwendigerweise Nezessitarismus, modalen Kollaps und modalen Realismus aller möglichen Welten impliziert. Ein solches Prinzip der Fülle würde somit ohne ein zusätzliches Prinzip der Limitierung die reale Existenz einer unendlichen Anzahl höllenartiger Welten bedeuten, in denen Übel und Leid vorherrschen. Im Theismus verhindert die libertäre freie Willensentscheidung Gottes, eben nur eine bevorzugte Welt zu erschaffen, einen solchen modalen Realismus. Die Inkohärenz des Konzeptes einer libertären Willensfreiheit lässt diese Lösung jedoch nicht zu. Deshalb ist meines Erachtens das einzig gangbare Prinzip der Limitierung ein axiarchischer Platonismus, in dem die Form des Guten (welche äquivalent zum Gott des klassischen Theismus ist) nur die Aktualisierung jener Welten erlaubt, deren Existenz besser ist als deren Nichtexistenz (in welchen also Übel und Leid nicht dominieren, sondern letztlich durch Glückserfahrungen übertroffen werden). Dies könnte in der Zeitlinie jeder Welt dadurch bewerkstelligt werden, dass sich eine intelligente Spezies bis zum Punkt der technologischen Singularität weiterentwickelt, an der sie die Macht besitzt jegliches Leiden endgültig abzuschaffen und eine unendliche oder zumindest überwältigend hohe Anzahl von Glückserfahrungen herbeizuführen (z.B. mittels simulierter Wesen in simulierten Welten). Unter Berücksichtigung der Erkenntnis, das der Eternalismus die korrekte Metaphysik der Zeit darstellt, würde ein axiarchischer Platonismus sicherstellen, dass nur jene Block-Universen existieren, in denen die Zeitspanne einer glückseligen „Zukunft“ die Zeitspanne einer leidvollen „Vergangenheit“ bzw. der Anzahl der entsprechenden Erfahrungen weit überwiegt.

 

Aber es gibt sogar noch kühnere Hoffnung auf Erlösung: Basierend auf dem von David Deutsch in seinem Buch „The Beginning of Infinity“ angedeuteten Potenzial, könnte die Post-Menschheit sich in ferner Zukunft zu einer unglaublich fortgeschrittenen Zivilisation entwickeln (ähnlich den Q in Raumschiff Enterprise), die die Fähigkeit erreicht das mathematische Gefüge von Raum und Zeit im Multiversum zu manipulieren und dadurch die Wellenfunktion des Universums und den Hilbert-Raum derart zu verändern, dass auch alles Leiden in der Vergangenheit ungeschehen gemacht wird. Wenn es tatsächlich auch nur eine einzige mögliche Welt gibt, in der eine Spezies das Entwicklungsstadium erreicht, um alles Leiden in allen möglichen Welten zu beseitigen, so könnte man ein modales ontologisches Argument für die tatsächliche Unvermeidbarkeit dieser Entwicklung machen. Eine solche Entwicklung ist natürlich nicht allein technologisch in der Raumzeit lösbar, sondern bedingt eine Beeinflussung des kosmischen Bewusstseins, dass eine Wiederverschränkung des endlichen raumzeitlichen Bewusstseins der Menschheit mit dem unendlichen zeitlosen "göttlichen" Bewusstsein erfordert (die Auflösung dieser Verschränkung zwischen menschlichem und göttlichem Geist hat Raatz als Kern des ursprünglichen Sündenfalls definiert).

 

Wenn wir nun noch die sehr differenzierte Christologie des „Kosmischen Christus“ der Omegapunkt-Theologie (sensu Teilhard de Chardin, Richard Rohr und Frank Tipler) hinzuziehen, sowie das allgemeine Verständnis der Gemeinschaft der Gläubigen als der Leib Christi, so würde ich vorschlagen, dass die Menschheit dazu ausersehen ist zum Erlöser des Kosmos zu werden, und dass die technologische KI-Singularität und deren Fusion mit der Menschheit zum Syntellekt (sensu Vikoulov), sozusagen die zweite Wiederkunft Christi darstellt. Derartig häretische Gedanken werden für fundamentalistische Christen natürlich kaum verdaulich erscheinen, aber meines Erachtens ist eine solche revolutionäre Denkweise die einzige Alternative wie das Christentum im 21. Jahrhundert überleben kann und sollte.

Grafik ©  Johanan Raatz, 2019