@Ipsissimus: Ich glaube nicht, dass es ein Sprachproblem ist, eher ein Herangehensweisenproblem. Du hast eine aus philosophischen Gründen schön erscheinende Idee - "die Naturgesetze sollen sich entwickeln" - und hoffst, dass sich die Realität ihr anschließt. Ich gehe vom aktuellen Kenntnisstand aus und sehe, dass eine gewisse Variabilität bekannt und erfolgreich modelliert ist, es für mehr aber keine Hinweise gibt.
Konkret:
Variable Kopplungskonstanten - bekannt und eine zentrale Eigenschaft des Standardmodells, inklusive im Voraus erfolgter Extrapolationen in neue Energiebereiche, die dann später erfolgreich überprüft wurden.
Variable Lichtgeschwindigkeit - in unzähligen Formen postuliert, gelegentliche Publikation schwacher Hinweise, die sich jedes Mal in Nichts auflösten.
Variable Baryonenzahl - aufgrund der beobachteten Materie-Antimaterie-Asymmetrie muss es sie (ge)geben (haben), zahlreiche Modelle existieren, aber die direkte Überprüfung fehlt.
Variabler Energieerhaltungssatz - in gewissem Sinne durch seine allgemeinrelativistische Verallgemeinerung abgedeckt; darüberhinausgehend ist mir kein selbstkonsistentes Modell mit Verletzungen bekannt, Beobachtungen erst Recht nicht.
Was die Zeitachse und die mit ihr zusammenhängende Energieachse angeht, sollten das doch genügend Beispiele dafür sein, dass eine Variabilität im Rahmen der etablierten Modelle oder deren im selben methodischen Metarahmen diskutierten Erweiterungen zufriedenstellend inbegriffen ist. Das einzige, was ich mir noch vorstellen kann, was du darüberhinausgehend wollen könntest, wäre eine Variabilität der mathematischen und logischen Grundlagen - aber wie soll man das auch nur formell beschreiben...?
Eigentlich hätte ich gedacht, dass in früheren Weltzeitaltern mit höherer Materiedichte die Komplexität sinkt, da der Ausprägung komplexer Materie-Strukturen stärkere Kräfte entgegen wirken, ähnlich wie in einem Schwarzen Loch mutmaßlich die Struktur der gefangenen Materie mit zunehmender Annäherung an das Zentralobjekt durch die Kompression reduziert wird
Wie gesagt, da gibt es eine große Diskrepanz zwischen dem Alltagsbegriff von "Komplexität" und den thermodynamischen Größen, die sich aus seiner Formalisierung ergeben haben (Entropie, Information etc.) und meistens an seiner Stelle verwendet werden. Eine sonderlich gute Abbildung ist das aber auch tatsächlich nicht; genaugenommen ist mir kein physikalisches Konzept bekannt, das wirklich das abdeckt, was man anschaulich unter einem "komplexen System" verstehen will. Vielleicht war es auch kein guter Ansatz, die "Erklärkompliziertheit" eines Systems mit seinem Zustand verbinden zu wollen...
Wenn du nun also eine "Entwicklung der Gesetze mit dem Komplexitätsgrad" haben möchtest, musst du erstmal einen geeigneten Komplexitätsbegriff finden, und dann eine Korrelation nachweisen. Das soll dann sozusagen eine Alternative zur starken Emergenz sein - nicht die üblichen physikalischen Elementargesetze einerseits und spukhafte emergente Gesetze andererseits, sondern beide als Extreme eines mit einem "Komplexitätsparameter" variierenden Metagesetzes?
warum wehrst du dich dann sosehr dagegen?
Ich kann immer noch nicht feststellen, dass ich das tue.
Zur Antwort auf Padreic, und auch an jenen: Ich sehe in den beiden Sichtweisen weder einen Unterschied an Absolutheit, noch an (fundamentaler, nicht notationstechnischer) Metabenenanzahl. In beiden Varianten
gibt es eine absolute Relation, man schreibt sie nur anders auf. Ob ich
x(t)=t² und y(x)=2x
oder
y(t)=2t²
schreibe, ist doch egal, wenn ich die beiden Formeln der ersten Variante in einander einsetze, kommt das gleiche Ergebnis heraus.
Und was soll es überhaupt heißen, "auf Biegen und Brechen eine Absolutheit aufrechterhalten" zu wollen? Oder anders gefragt, wie soll eine "Nichtabsolutheit" aussehen? Meinem Verständnis nach kann man gerade eine Veränderung immer nur gegenüber einem absoluten Bezugsrahmen formulieren. Selbst die wegen ihres Namens so oft philosophisch missbrauchte "Relativitätstheorie" heißt nur "relativ", weil sie mit als überkommen erkannten Pseudo-Absolutheiten (von festen Raum- und Zeit-Koordinaten) aufräumte. Gleichzeitig brachte sie ihre eigenen, allgemeineren Absolutheiten mit - die Invarianzen von Tensorgesetzen. Genausogut könnte man sie also "Absolutheitstheorie" nennen. Und eine zukünftige weitere Verallgemeinerung wird diese Absolutheiten wieder ersetzen, aber auch wieder neue auf einer höheren Ebene bringen.
Die Frage ist "nur", ob dieser Prozess einen Grenzwert hat, nicht, ob man aus ihm ausbrechen kann.
PS@Jan: Nein, eher
hierhin.