Quanten-Idealismus

 Ein kurzer Abriss und Ausblick


 Johanan Raatz & Günter Bechly

10. November 2019

 

 

Quanten-Idealismus ist eine idealistisch-monistische Metaphysik auf der Grundlage moderner Erkenntnisse im Bereich der Digitalen Physik. Diese deuten auf unmittelbare Zusammenhänge zwischen physikalischer Realität und virtuellen Realitäten hin. Dazu zählen nicht nur allgemein bekannte Phänomene der Relativitätstheorie und Quantenphysik, sondern auch die noch weniger bekannte Forschung im Bereich der Quantengravitation, die zunehmend darauf hinweist, dass Raumzeit kein fundamentales, sondern ein emergentes Phänomen ist. Kombiniert man diese Erkenntnisse der modernen Physik mit den modernen Erkenntnissen aus der Bewusstseins- und Hirnforschung (Hoffmans Bewusstseins-Realismus, Tononis IIT, Quanten-Kognition, Quantenbiologie des Gehirns und Quantentheorie des Bewusstseins), so gelangt man zu dem Ergebnis, dass die physikalische Realität nur ein Informationskonstrukt innerhalb eines universellen Bewusstseins ist. Dies hat wichtige Implikationen sowohl für die Frage nach Teleologie und Design in der Natur als auch für die Theologie.

 

Die Hinweise der modernen Physik auf eine monistisch-idealistische und neo-platonistische Metaphysik mit Bewusstsein und Information als Grundlage wurden von zahlreichen Physikern erkannt, von den frühen Vätern der Quantenmechanik (Neumann 1955, Wigner 1961), über Carl Friedrich von Weizäckers (1985) „Quantentheorie der Ur-Alternativen“, John Archibald Wheelers (1989) „It from Bit“, bis hin zu Seth Lloyds (2013) Ansicht des Universums als Quantencomputer und Max Tegmarks (2016) Hypothese vom „Mathematischen Universum“ (siehe auch Heinrich 2012). Andere moderne Denker kamen auf unterschiedlichem Weg zu sehr ähnlichen Ansichten (Teilhard de Chardin 1955, Bass 1971, Sprigge 1984a, Goswami 1989, 1993, Squires 1990, Monton 2006, 2009, Blood 2009a, Lanza 2009, Leslie 2001, Hameroff & Penrose 2014, Haynes 2016, Pearce 2017, Gordon 2017, Kastrup 2019, Vikoulov 2019). Die derzeit ebenfalls populärer werdende Philosophie des Panexperientiellen Holismus bzw. Kosmopsychismus (Jaskolla & Buck 2012, Shani 2015, Shani & Keppler 2018, Goff 2018) bejaht ebenfalls die Existenz eines universellen Bewusstseins, jedoch noch unter Beibehaltung einer materiellen Realität durch einen panpsychistischen Eigenschaftsdualismus. Mögliche Einwände gegen eine idealistische Metaphysik wurden von Bernardo Kastrup (2019) umfassend diskutiert und entkräftet.

 

Wichtige Argumente kommen aus der Simulations-Theorie (Bostrom 2003), deren Vertreter behaupten, dass unsere Welt mit großer Wahrscheinlichkeit eine Computer-Simulation sei. Dies stößt natürlich auf das Problem eines unendlichen Regresses, da sich mit dieser Argumentation eine endlose Anzahl verschachtelter Simulationen innerhalb von Simulationen ergibt. Die Annahme, dass die „Simulation“ der Welt statt in einem Computer in einem universellen Bewusstsein erfolgt, ist demgegenüber deutlich sparsamer und erklärt zudem auch die Natur der Basis-Realität.

 

Für die weiteren Ausführungen ist zunächst eine Begriffsbestimmung notwendig:

  • Objektiv reale Welten sind Welten die unabhängig vom Beobachter existieren und keiner externen Erklärungen bedürfen.
  • Virtuelle Realitäten beruhen auf Informationsverarbeitung außerhalb der Welt selbst.

Die Simulations-Theorie beruft sich auf empirische Hinweise, dass unsere physikalische Realität eher eine virtuelle als eine objektiv reale Welt ist. In dieser sehr allgemeinen Formulierung ist zunächst einmal irrelevant, ob die Simulation in einem materiellen Computer oder in einem immateriellen Bewusstsein erfolgt.

 

Mit grundlegend für die Simulations-Theorie war die sorgfältige Untersuchung der auffallenden Übereinstimmungen zwischen virtuellen Realitäten und den Erkenntnissen der modernen Physik durch den Informatiker Brian Whitworth (2008, 2010), der folgende Parallelen hervorhob:

  •  Inbetriebnahme: Jede Welt mit einem absoluten Anfang deutet darauf hin, dass diese Welt nicht so grundlegend ist, wie eine wirklich reale Welt sein müsste. Unsere Welt hat einen absoluten Anfang von Raum und Zeit vor etwa 14 Milliarden Jahren, was durch die Urknallkosmologie und das Borde-Guth-Vilenkin-Theorem (Borde et al. 2003) belegt wird. Gleichermaßen hat jede virtuelle Realität einen solchen „Urknall“ am Anfang, nämlich dann, wenn das Programm gestartet wird und dessen virtueller Raum und Zeit zu existieren beginnen. Aus der Perspektive der virtuellen Realität ist dieser Beginn scheinbar aus dem Nichts heraus, genau wie der Urknall.
  • Pixeligkeit / DigitalitätIn virtuellen Realitäten ist alles letztlich digitalisiert und diskret in Form von 2D-Pixel oder 3D-Voxel, da alle Einheiten eine minimale Größe besitzen müssen, die nicht weiter unterteilbar ist. Genauso sind in unserer Realität nicht nur Energie in kleinste diskrete Einheiten quantisiert, sondern ebenso Raum und Zeit in kleinste Längen (Planck-Länge und Planck-Zeit). Dadurch besitzt das Universum eine endliche Anzahl von Bausteinen und ist somit berechenbar.
  • Grenzgeschwindigkeit: Es gibt in der realen Welt eigentlich keinen Grund, warum Geschwindigkeit nicht unbegrenzt erhöht werden kann. In virtuellen Realitäten gibt es jedoch stets ein Geschwindigkeitslimit, dass durch die maximale Geschwindigkeit der zentralen Recheneinheit vorgegeben ist. Auch unsere reale Welt hat mit der Lichtgeschwindigkeit eine solche maximale Grenzgeschwindigkeit.
  • Prozessorlast-Beeinträchtigungen: Größere Prozessorlast, z.B. durch die Berechnung von mehr Objekten, verlangsamt die Verarbeitungsgeschwindigkeit des Computers. Genauso kommt es zu relativistischer Zeitdehnung in der Nähe von großen Materie-Konzentrationen. Dies ist in nicht-virtuellen Welten nicht zu erwarten. Es konnte zudem gezeigt werden, dass es sich hierbei nicht um eine zufällige, sondern um eine unmittelbare Übereinstimmung handelt (Jacobson 1995).
  • Nicht-Realismus: Materie ist in einer virtuellen Realität nicht im beobachterunabhängigen Sinne real, sondern wird bei Bedarf für die Beobachtung gerendert. Genau dieser Beobachtereffekt wurde in der Quantenmechanik in den letzten Jahrzehnten immer wieder durch Experimente bestätigt, die einen Nicht-Realismus belegen und zeigen, dass die diskreten Eigenschaften von Elementarteilchen erst existieren, wenn die Wellenfunktion durch die Beobachtung bzw. Messung kollabiert. Lokaler Realismus wurde schon durch die experimentelle Verletzung der Bell‘schen Ungleichung widerlegt (Aspect et al. 1981, 1982a, 1982b, Weihs et al. 1998). Aber auch der nicht-lokale Realismus wurde inzwischen widerlegt, unter anderem durch die experimentelle Bestätigung des Kochen-Specker-Theorems (Kochen & Specker 1967, Klyachko et al. 2008, Lapkiewicz et al. 2011,) und die experimentelle Verletzung der Leggett-Garg-Ungleichung (Gröblacher et al. 2007, Kofler & Brukner 2008, Ma et al. 2013, 2016, Dressel & Korotkov 2013, Manning et al. 2015, Gachechiladze et al. 2016, Proietti et al. 2019). Entscheidend waren hierbei vor allem Experimente der Arbeitsgruppe von Prof. Anton Zeilinger (Interview). Schließlich stellt auch das Frauchinger-Renner-Paradoxon ein Problem für die naive Vorstellung einer beobachterunabhängigen und eindeutigen Realität dar (Frauchinger & Renner 2018).
  • Nichtlokalität: Die Verbindungen zwischen Punkten innerhalb einer virtuellen Realität sind nicht limitiert durch den virtuellen Raum zwischen ihnen, denn alle Punkte einer virtuellen Realität sind äquidistant zum erzeugenden Prozessor. Daher unterliegen Wechselwirkungen zwischen Punkten bzw. Teilchen keiner räumlichen Begrenzung. In unserer Realität zeigt sich das Gleiche beim Phänomen der nichtlokalen Wechselwirkung von verschränkten Teilchen, bei denen die Messung eines Teilchens die Messung des anderen Teilchens unabhängig von dessen Entfernung sofort beeinflusst. Dieser von Einstein als spukhafte Fernwirkung (EPR-Paradoxon) bezeichnete Effekt (Einstein et al. 1935, Bell 1964) ist durch zahlreiche experimentelle Überprüfungen der Bell‘schen Ungleichung gesichert (siehe oben) und alle möglichen Schlupflöcher geschlossen.
  • Komplementarität: Durch Einschränkungen der Prozessorlast können Computer Paare von Eigenschaften nicht an einem Ort gleichzeitig simulieren. Dies ist analog zu Heisenbergs Unschärfeprinzip in unserer Welt, welches besagt, dass Paare von Eigenschaften nicht gleichzeig mit einem bestimmten Grad an Genauigkeit gemessen werden können (Coles et al. 2014 beschrieben ein analoges Phänomen).
  • Tunneleffekte: Auf Grund der limitierten Prozessorlast können Objekte und Hindernisse nicht gleichzeitig simuliert werden, was dazu führt, dass Objekte (z.B. in Computerspielen wie Minecraft) plötzlich jenseits einer Barriere erscheinen können. Dieses typische und grundsätzlich unvermeidbare Phänomen virtueller Realitäten zeigt sich genauso beim Quantentunneleffekt in unserer realen Welt.

In den Arbeiten von Whitworth werden noch eine ganze Reihe weiterer Parallelen aufgezeigt, deren Besprechung hier aber zu weit führen würde. Unbekannt war Whitworth offenbar die aufsehenerregende Entdeckung des Physikers James Gates, der herausfand, dass sich in den Formeln der Stringtheorie ein regelrechter binärer Programmcode für Fehlerkorrekturen verbirgt (Doran et al. 2008, Gates 2010, Interview). 

 

Whitworths grundsätzliche Schlussfolgerung, dass Raumzeit nicht fundamentaler Natur ist, wird mittlerweile von zahlreichen theoretischen Physikern unterstützt und ist in den entsprechenden Fachkreisen zunehmend Konsens. Sowohl Vertreter der Stringtheorie (Horowitz 2005) als auch Vertreter der alternativen Theorie der Schleifenquantengravitation (Markopoulou 2009) stimmen darin überein, dass Raumzeit kein fundamentales Element der Realität ist (Carroll 2010), sondern ein emergentes Phänomen (Yang 2015, 2016), welches aus verschränkter Quanteninformation im Hilbert-Raum (Carroll 2016, Cao et al. 2017, Swingle 2018) jenseits von Raum und Zeit hervorgeht. Fundamental ist somit nicht die Raumzeit, sondern die ihr zu Grunde liegende Wellenfunktion, also pure Mathematik und Information. Untersuchungen zu Tensor-Netzwerken (z.B. AdS/MERA) legen zudem nahe, dass nicht nur der Raum, sondern auch Zeit (Moreva et al. 2014) und Gravitation (Siegfried 2014, Swingle & Raamsdonk 2014, Quellette 2015, Swingle 2018, Qi 2018) emergente Phänomene sind, die auf quantenphysikalischer Verschränkung basieren. Auch Verlinde (2017) kommt zu dem gleichen Ergebnis, dass sowohl Raumzeit als auch Gravitation gemeinsam aus verschränkter Quanteninformation emergieren.

 

Vergleichbare Schlussfolgerungen können auch schon aus den bekannten Beobachtungen der gewöhnlichen Quantenmechanik gezogen werden. Raum ist definitionsgemäß eine Ortsbestimmung. Aus dem Nicht-Realismus der Kopenhagener Deutung der Quantenmechanik folgt, dass eine solche Ortsbestimmung nicht vor der Messung existiert (Rosenblum & Kuttner 2006, Gröblacher et al. 2007). Beispielsweise existiert die räumliche Trennung zweier verschränkter Teilchen, zumindest aus deren Bezugsrahmen nicht, da beide in Superposition sind und keinen definierten Ort haben. Zudem kann auf Grund der Existenz einer Universellen Wellenfunktion (UWF) (Moreva et al. 2014), diese illusionäre Natur des Raumes und der Zeit verallgemeinert werden, da die UWF eine universelle Verschränkung in ihrem Bezugssystem mit sich bringt.

 

Auch die aus der Forschung über das Problem des Informationsverlustes in Schwarzen Löchern gewonnene Erkenntnis des Holographischen Prinzips spricht gegen eine fundamentale Natur der Raumzeit und für die Simulations-Hypothese (Glattfelder 2019). Dieses sehr kontraintuitive Prinzip besagt vereinfacht ausgedrückt, dass der maximale Informationsgehalt (Bekenstein-Grenze) eines Raumabschnittes nicht durch dessen Volumen, sondern nur durch dessen Oberfläche limitiert ist (siehe diesen Vortrag von Leonard Susskind). Der dreidimensionale Raum scheint daher wie eine holographische Projektion eines zweidimensionalen Quantenfeldes zu sein (Brian Greene 2014). Anfangs nur eine umstrittene Theorie ist das Holographische Prinzip inzwischen experimentell bestätigt (Afshordi et al. 2017) und allgemein anerkannt. Ein weiterer Hinweis in diese Richtung ist die AdS/CFT-Korrespondenz („holographic duality“) zwischen Quantengravitation und Quantenfeldtheorie, sowie die damit zusammenhängende EP=EPR-Korrespondenz, welche bedeutet, dass die Verschränkung von zwei Teilchen in der zweiten Dimension äquivalent zu einer Wurmlochverbindung in der dritten Dimension ist (Bao et al. 2015, Cao et al. 2017).

 

Schließlich gibt es noch ein mysteriöses Quantenexperiment, dass darauf hinweist, dass nicht nur der Raum, sondern auch die Zeit, einschließlich der Vergangenheit, nicht real ist. Es handelt sich um das sogenannte „Delayed-Choice Quantum Eraser“ Experiment, eine trickreiche Variante des berühmten Doppelspalt-Experimentes. Die Folgerung auf eine Retrokausalität und somit auf eine nicht festgelegte Vergangenheit kann nur dann vermieden werden, wenn als zutreffende Interpretation der Quantenmechanik die Viele-Welten-Deutung angenommen wird (Carroll 2019). Allerdings hat die bei Physikern derzeit sehr beliebte Viele-Welten-Deutung oder Everett-Interpretation mehrere fatale Schwächen (Jones 2014a), die sie unseres Erachtens ausschließt:

  1. Das schwerwiegendste Problem der Vielen-Welten-Deutung ist das Problem der bevorzugten Basis (Stapp 2001), beruhend auf der Tatsache, dass es auf Grund der Wellenfunktion nicht nur diskrete alternative Möglichkeiten gibt, sondern in unterschiedlichem Ausmaß überlagerte Möglichkeiten. Schrödingers Katze ist eben nicht nur in einer möglichen Welt tot und in einer anderen lebendig, sondern in manchen Welten in merkwürdigen Mischzuständen (sozusagen lebot und totendig). Die Viele-Welten-Deutung mit ihren diskreten Verzweigungen der Welten ist daher keineswegs eine direkte Umsetzung des mathematischen Formalismus der Quantenmechanik, sondern eher eine unzulässige Vereinfachung.
  2. Es gibt unter Physikern keinen Konsens, ob oder wie unter dieser Interpretation überhaupt noch eine Ableitung der Born’schen Regel möglich ist, die für die Quantenmechanik von zentraler Bedeutung ist (Blood 2009b). Das Problem ist, dass die Quantenmechanik distinkte Wahrscheinlichkeiten für bestimmte Resultate vorgibt, während aus der Viele-Welten-Deutung folgt, dass alle Resultate die gleiche Wahrscheinlichkeit (nämlich 1) haben.
  3. Die Viele-Welten-Deutung hat absurde Konsequenzen (Ball 2018), die beispielsweise durch das Gedankenexperiment des Quanten-Selbstmordes veranschaulicht werden. Weitere absurde Konsequenzen ergeben sich aus dem impliziten modalen Realismus, in dem es keinen Unterschied mehr gibt zwischen Möglichem und Realem. Alles was möglich ist, egal wie unwahrscheinlich oder verrückt, geschieht auch tatsächlich.

Das Problem der Beziehung zwischen abstrakten Gegenständen (wie der Mathematik) und der physikalischen Realität kann nur durch eine idealistische Metaphysik gelöst werden. Dies gilt insbesondere auch für die Beziehung zwischen abstrakten Ideen und unseren neurophysiologischen Hirnzuständen. Im Quanten-Idealismus gibt es keine unüberbrückbare Kluft zwischen immateriellen und zeitlosen, abstrakten Gegenständen, die im Hilbert-Raum existieren, und der raumzeitlichen physikalischen Realität, die aus diesem Hilbert-Raum emergiert. Wigners Problem der mysteriösen Nützlichkeit der Mathematik in den Naturwissenschaften (Wigner 1960) und das geistesphilosophische Problem der Intentionalität finden somit eine elegante Lösung. Auch Max Tegmarks „Mathematisches Universum“ (eine Art pythagoreischer Monismus) impliziert eine idealistische Metaphysik, denn Mathematik basiert auf Konzepten und Ideen, die einen bewussten Geist als Träger voraussetzen. Da diese universell gültigen Konzepte offensichtlich nicht auf unser individuelles Bewusstsein beschränkt sind, müssen sie in einem universellen Bewusstsein existieren. Auch Tegmark selbst verbindet inzwischen seine Hypothese mit Tononis panpsychistischer Theorie der Integrierten Information. 

 

Zu einer idealistischen Schlussfolgerung gelangt man auch durch eine Verbindung der modernen Physik der emergenten Raumzeit mit den kognitionswissenschaftlichen Theorien von Donald Hoffmans Bewusstseins-Realismus und Interface-Theorie (Hoffman 2019, Hoffman & Prakash 2014) und Giulio Tononis Theorie der Integrierten Information (Tononi 2008). Diese implizieren eine Äquivalenz von Quantenverschränkung und Bewusstsein (Tononi 2008). Zusammengenommen folgt, dass die Raumzeit eine kognitive Quantensimulation innerhalb eines universellen Bewusstseins ist. Eine direkte Beziehung zwischen Quantenphänomenen und Bewusstsein wird auch durch die Forschung im Bereich Bereich der Quanten-Kognition belegt (Aerts 2009, Bruza et al. 2015), welche gezeigt hat, dass Denkvorgänge mittels der Schrödinger-Gleichung exakt modelliert werden können. Hinzu kommen vermehrte Hinweisen auf Quanten-Berechnungen im Gehirn (Faber et al. 2006, Hameroff & Penrose 2014, Cocchi et al. 2017) und weitere Forschung zur Quantenbiologie des Gehirns (John 2002), die in die gleiche Richtung weisen. 

 

Die oben aufgeführten Hinweise zu Gunsten eines Quanten-Idealismus können in folgendem deduktiven „Gottesbeweis“ zusammengefasst werden:

  • Prämisse 1: Raumzeit emergiert aus verschränkter Information (AdS/CFT-Korrespondenz bestätigt durch Cao 2017, sowie experimentelle Bestätigungen von Bells und Leggetts Ungleichungen, siehe oben).
  • Prämisse 2: Verschränkung von Information ist gleichbedeutend mit Integration von Information und somit gleichbedeutend mit Bewusstsein (Theorie der Integrierten Information von Tononi 2008, experimentell bestätigt von John 2002 durch quantenbiologische Effekte der Gamma-Synchronität unter Narkose).
  • Schlussfolgerung 1: Raumzeit emergiert aus Bewusstsein.
  • Prämisse 3: Es gibt eine einzige Universelle Wellenfunktion UWF, welche die Verschränkung aller Materie-Energie und somit aller Information in einen einzigen integrierten Informationszustand impliziert (Wheeler-DeWitt-Gleichung, experimentell bestätigt durch Moreva et al. 2014).
  • Schlussfolgerung 2: Die physikalische Raumzeit ist emergent aus einem einzigen universellen Bewusstsein (und dieses nennen wir Gott).

Angesichts der offensichtlichen theistischen Implikationen dieser Schlussfolgerung ist es nicht verwunderlich, dass diese Erkenntnisse auch wichtige Auswirkungen auf die Theorie des Intelligenten Designs haben können. Verbindet man Modelle der Quanten-Evolution (McFadden & Al-Khalili 1999, McFadden 2002, Goswami 2008, Griffin 2008, Ogryzko 2009, Elsheik 2016, Hameroff 2017, Nemer et al. 2017) und der Verschränkung von DNA (Rieper et al. 2010) mit unserem Modell des Quanten-Idealismus, so lässt sich ein konkreter Mechanismus für Intelligentes Design ableiten. Mutationen erfolgen demnach nicht zufällig, sondern sind Quantenberechnungen im Zustand der DNA-Verschränkung. Durch die oben erwähnte mentale Natur der universellen Wellenfunktion ist dieser Prozess zielgerichtet. Man könnte auch sagen, dass bestimmte platonische Formen als morphogenetische Attraktoren wirken (vergl. Sheldrake 1981, Griffin 2008), welche nicht-zufällige, adaptive Makro-Mutationen kanalisieren. Daraus resultiert ein sprunghafter und teleologischer Evolutionsprozess, der in den allgegenwärtigen Diskontinuitäten des Fossilberichtes seine Bestätigung findet. Unser hier postuliertes saltatorisches Model steht somit in einer langen Tradition nicht-darwinistischer Evolutionstheorien wie Teilhard de Chardins (1955) Orthogenese und Albert von Köllikers (1864) Heterogenese, D’Arcy Thompsons (1917, 1940) mathematischer Transformationen, der „Hopeful Monster“-Hypothese von Geoffroy Saint-Hilaire und Richard Goldschmidt (1940), Otto Schindewolfs (1950) Typostrophenlehre, Michael Polanyis Emergentismus (Paksi 2012), sowie der Annahme eines sprunghaften Mutationismus bei Hugo de Vries und Thomas Hunt Morgan (Bowler 1978). Die hier befürwortete Hypothese einer teleologischen Quanten-Evolution ist durchaus vereinbar mit einer begrenzten Neo-Darwinistischen Mikroevolution sowie mit Prozessstrukturalismus, der eine weitere teleologische Ebene hinzufügt, nämlich feinabgestimmte Naturgesetze (Laws of Form) und feinabgestimmte Fitness-Landschaften.

 

Verschiedene theologische Konsequenzen folgen ebenfalls aus den obigen Überlegungen. Quanten-Idealismus ist mit verschiedenen religiösen Traditionen vereinbar und hat eine besondere Nähe zur Philosophia perennis, Prisca theologia und hermetischen Traditionen. Unvereinbarkeit besteht natürlich mit den simplistischen und naiven Ausprägungen fundamentalistischer Religionen, die oft eher an Cargo-Kulte erinnern. Hingegen haben eine ganze Reihe bedeutender christlicher Philosophen und Theologen, wie beispielsweise Bischof George Berkeley, Jonathan Edwards (1957), Robert Adams (2007), Keith Ward (2010) und Bruce Gordon (2017), in der Vergangenheit auch die grundsätzliche Vereinbarkeit von anspruchsvollem christlichem Glauben und idealistischer Metaphysik aufgezeigt. Unser Modell erlaubt unter Umständen sogar die rationale Ableitung und Begründung klassischer christlicher Doktrinen, wie beispielsweise eine neuartige Interpretation des Sündenfalls (ein Verlust der Verschränkung mit dem universellen Bewusstsein) und eine stringente mathematische Rekonstruktion der Trinität und ihrer Omni-Attribute aus der Dynamik bewusster Agenten (sensu Hoffman & Prakash 2014) (Raatz 2017). Die Christologie folgt in Anlehnung an die Vorstellungen von Teilhard de Chardin und der von Frank Tipler modernisierten Form der Omega-Punkt-Theorie (Tipler 2008). Auch die im klassischen Theismus zentrale Unterscheidung zwischen Schöpfer und Schöpfung kann rational in unserem Modell hinreichend begründet werden. Diese Unterscheidung ist kompatibel mit einem schwachen (palamitischen) Panentheismus und seiner Unterscheidung zwischen göttlicher Essenz und göttlichen Energien (Jones 2014b), was einen reinen Pantheismus oder einen wandelbaren Gott der Prozessphilosophie vermeidet. Die entsprechende theoretische Ableitung folgt aus einer Anwendung von Carlo Rovellis (1996) Relationaler Interpretation der Quantenmechanik (Kollaps der Wellenfunktion ist relativ zum Bezugssystem, vergl. Soltau 2010) auf unser Modell des Quanten-Idealismus. Im Gegensatz zu dualistischen Vorstellungen vermeidet ein monistischer Idealismus das oft unterschätzte Gott-Welt-Problem (eine Form des bekannteren Problems der Seele-Körper-Interaktion), welches aus einem Non sequitur Fehlschluss resultiert, beruhend auf einer mangelnden explanatorischen Kontinuität zwischen Gott und Welt. Theismus impliziert daher mit logischer Notwendigkeit eine idealistische Metaphysik.

 

Auswirkungen hat unser Modell auch auf den Transhumanismus, der von Manchen auch als säkulare Pseudo-Religion angesehen wird. Seine Vertreter gehen oft davon aus, dass wir durch exponentielle Fortschritte der künstlichen Intelligenz irgendwann unser Bewusstsein digital kopieren und in die Cloud hochladen können, um dort eine Form von Unsterblichkeit in einem virtuellen Paradies genießen können. Sowohl die Ergebnisse der Bewusstseinstheorie der Integrierten Information als auch die Ergebnisse zur Quantenbiologie des Gehirns könnten es jedoch (zumindest mittels klassischer Computer) grundsätzlich unmöglich machen, das menschliche Bewusstsein unter Erhaltung der persönlichen Identität digital zu kopieren (u.a. auch wegen des No-Cloning-Theorems in der Quantenphysik). Ein möglicher Ausweg wäre jedoch vielleicht das Phänomen der Quanten-Teleportation, die in den Experimenten von Anton Zeilinger schon bei einzelnen Teilchen gelungen ist.

 

Abschließend sei noch kurz erwähnt, dass eine monistisch-idealistische Metaphysik auch Fragen der Tierrechte, Naturrechte und Tiefenökologie berührt. Dies zeigt sich unter anderem in den Arbeiten des idealistischen Philosophen Timothy Sprigge (Sprigge 1979, 1984b, 1987), der zeigte, dass in einem Absoluten Idealismus intrinsischer Wert nicht auf die menschliche Natur beschränkt ist, aber dennoch stets eines wahrnehmenden Bewusstseins bedarf um realisiert zu werden.

 

Die hier nur angedeuteten Modelle sind aktueller Gegenstand unserer gemeinsamen Forschung und großteils noch nicht veröffentlicht. Die Simulations-Hypothese (oft auch Matrix-Hypothese genannt) erfreut sich derzeit zunehmender Beliebtheit bei Physikern (z.B. Martin Rees, John Barrow 2007 und Neil deGrasse Tyson), Philosophen wie Nick Bostrom (2003) und High-Tech Vordenkern wie Elon Musk and Ray Kurzweil (1999). Es ist offensichtlich, dass es sich dabei um nichts anderes als eine nicht-theistische Version des Design-Argumentes handelt. Dies zeigt, dass der Bereich der Digitalen Physik und des Quanten-Idealismus die einzigartige Möglichkeit birgt, eine Brücke zwischen den Vertretern des Naturalismus und des Theismus sowie zwischen Vertretern des Darwinismus und des Intelligenten Designs zu schlagen. Zudem ermöglich dieser Ansatz nicht nur den vermeintlichen Konflikt zwischen Religion und moderner Wissenschaft aufzulösen, sondern Religion und Metaphysik in der Physik des 21. Jahrhunderts zu begründen und sicher zu verankern. Metaphysik ist damit nicht länger ein Gefangener philosophischer Beliebigkeit und die Existenz Gottes nicht länger eine reine Glaubensfrage. Der übernatürliche Theismus der Vergangenheit wird zu einem theistischen Naturalismus, bzw. wird die Übernatürlichkeit und Transzendenz Gottes zu einem wissenschaftlich fassbaren Begriff und Intelligentes Design wird zu einem Teil einer neuen Evolutionsbiologie jenseits der erwiesenen Unzulänglichkeit des Neo-Darwinismus (Nagel 2012, Müller 2017) und der absehbaren Unvollkommenheit einer immer mehr Erweiterten Synthese („Extended Evolutionary Synthesis“).

 

Quellen:

 

Weiterführende Videos zum Thema Quanten-Idealismus:

  

Hinweis: Die hier beschriebenen Fakten basieren alle auf wissenschaftlichen Arbeiten von renommierten Wissenschaftlern und sind in peer-reviewten Fachzeitschriften veröffentlicht. Die darauf aufbauende Hypothese des Quanten-Idealismus hat somit nichts mit dem zweifelhaften Missbrauch von Quantenphysik für esoterische Zwecke zu tun, wie er sich leider in bestimmten Kreisen großer Beliebtheit erfreut (z.B. durch Filme wie „What the Bleep“). Wir behaupten weder, dass wir unsere eigene Realität kreieren können, noch behaupten wir, dass in der Quantenmechanik der Akt der bewussten Beobachtung die Wellenfunktion kollabieren lässt. Quanten-Idealismus kann somit nicht einfach als Quantum-Quacksalberei („quantum quackery“) oder Quanten-Aberglaube („quantum woo-woo“) abgetan werden. Insoweit dies dennoch geschieht, so kann diese Ablehnung gegebenenfalls nicht wissenschaftlich begründet sein, sondern basiert dann eher auf einer reinen Voreingenommenheit zu Gunsten einer materialistischen Weltanschauung.

 

Eine noch offene Frage ist, welche Auswirkungen bestimmte grundsätzliche Grenzen der Berechenbarkeit auf unsere Hypothese des Quanten-Idealismus haben. Hierzu zählen z.B. Gödels Unvollständigkeitssatz, das Halteproblem, P-NP-Problem und n-Körper-Problem, die No-free-Lunch Theoreme, die Russelsche Antinomie, der Satz von Löb und Satz von Rice, Tarskis Undefinierbarkeitssatz, Wolframs rechnerische Nichtreduzierbarkeit und das generelle Problem der Unentscheidbarkeit.