Elementarkörpertheorie
basierend auf den Arbeiten zur Masse-Raum-Kopplung von Dirk Freyling
1986 2012 2026
|
|
Wissen ist ein Privileg. Die Weitergabe eine Pflicht. |
Ein überfälliges Rendezvous mit ursächlicher Rationalität
|
Es begann in Deutschland im Jahr 1900 mit der Quantenphysik... folgend die Quantenmechanik (QM) ist interdisziplinär betrachtet, mit dem ausdrücklichen Befürworten der QM-Macher, QM-Verkünder und QM-Nutznießer, gerne mißverständlich und gerne unverständlich. Das Volk liebt Metaphysik respektive Esoterik. Gemäß Theodor Fontane nicht verwunderlich, denn: „Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.“
Zur Kenntnisnahme und Selbstanalyse
Ist die Quantenmechanik (wirklich) unverständlich?
Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung
Hilberträume statt Anschauung
Kopenhagener Deutung von 1927 Albert Einsteins Kritik
Interessanterweise war es Albert Einstein (1879–1955) der die Quantenmechanik schon in den Anfängen nachvollziehbar argumentativ begründet als unbrauchbar identifizierte:
Mythos »Theorieschaft« [Theorie schafft] Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen. Tatsache ist: Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«. Die ~ 125-jährige Herrschaft der Quantenphysik und ihre 90-jährige kosmologische Erweiterung ruhen nicht auf einem soliden phänomenologischen Fundament, sondern auf einem stetig wachsenden Berg von Ad-hoc-Annahmen, freien Parametern und theoriebeladenen Interpretationen. |
»Prinzip der Parsimonie«
Wenn Ockhams Rasiermesser das entscheidende Bewertungskriterium für Theorien ist, dann ist der Fall klar:
|
WARM UP!
|
Beginnen wir mit der Herleitung der, auch interdisziplinär, bekanntesten Gleichung...
Die vermeintliche Herleitung von E = mc2 gemäß Spezieller Relativitätstheorie |
![]()
Elementarkörpertheorie
basierend auf den Arbeiten zur Masse-Raum-Kopplung von Dirk Freyling
1986 2012 2026
|
Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert »plakativ-psychologisch« auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen: ..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei." Karl Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959
Die Elementarkörpertheorie (EKT) stellt einen radikalen Bruch mit der etablierten theoretischen Physik dar. Anstelle sekundärer Begriffe wie Masse, Energie oder Ladung tritt die primäre, sinnlich erfahrbare Größe der radialen Ausdehnung (r) als einziger Parameter in den Mittelpunkt. Basierend auf einer fundamentalen Gleichung, der Masse-Radius-Konstantengleichung [F1], m0 · r0 = 2h/(π · c), können sowohl mikroskopische Größen (wie z.B. Protonenradius, Elektronenradius, Rydberg-Energie, Neutronenmasse, magnetische Momente, Feinstrukturkonstante) als auch makroskopische Größen (z.B. Alter, Masse und Radius des Universums, Temperatur der Hintergrundstrahlung, Vakuumenergiedichte) analytisch ohne freie Parameter berechnet werden. Die Elementarkörpertheorie widerlegt die Standardmodelle theoriepostulierte Existenz von Neutrinos, Quarks und dunklen Entitäten, identifiziert diese als theorielastige Artefakte und führt alle Phänomene auf die Masse-Radius-Kopplung zurück. Die Begründung und der daraus resultierende Formalismus ist, wortwörtlich, denkbar einfach. Die Standardmodellphysik gibt dem Raum keine energetische Bedeutung. Sobald jedoch »Raum als Energieform«* verstanden wird, entsteht ein Energie erhaltendes konsistentes, leicht formalisierbares, phänomenologisch darstellbares Denkmodell, indem Masse und Raum Energieträger sind. Wobei, anders als der Raum(begriff), der sekundäre Massebegriff (die Masse) im phänomenologischen Ursprung der EKT aus dem primären Raumbegriff (Körperradius) Masse-Radius gekoppelt abgeleitet wird. Die erkenntnistheoretischen Grundlagen werden im Spannungsfeld zwischen euklidischer Anschauung und hilbertscher Axiomatik untersucht. E = m · c² „kennt jeder“. »Warm up«, als konkrete Arbeitsleistung der EKT in Form eines pdf-Dokumentes (wahlweise in englisch oder deutsch), ist daher der erste unter dualismus.net veröffentlichte Artikel im arXiv-Stil, bevor die Grundlagen und weitere Denkmodell-Folgerungen der Masse-Raum-Kopplung hier online vorgestellt werden. Dies geschieht nach und nach. *
Die etablierte Physik postuliert eine unvollständige Energieerhaltung, da sie die in der phänomenologisch begründeten Masse-Radius-Kopplung enthaltene Raumenergie nicht kennt. Sie muss daher für jede scheinbare Verletzung der Bilanz – wie beim Beta-Zerfall – neue, nicht direkt nachweisbare Entitäten wie Neutrinos postulieren, anstatt den phänomenologischen Grund der Energietransformation zu erkennen: den dynamischen Raum.
** Fundamentale Bemerkung zur QM Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte: ..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950 Seite 498
Einsteins Argument lässt sich in folgende
logische Struktur zerlegen: Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung. |
![]()
|
Warum die Jahreszahlen 1986, 2012, 2026?
1986
2012
2026 Thomas Royen ist ein deutscher Statistikprofessor, der 67-jährig und bereits vier Jahre im Ruhestand „verweilend“, in 2014 unerwartet die so genannte Gaußsche Korrelationsungleichung bewiesen hat: Das Verblüffende an Thomas Royen's Beweis ist, dass er klassische Methoden nutzt, die im Grunde jeder Mathematikstudent verstehen kann. Der Beweis ist nur wenige Seiten lang... Auch nach seinem letztendlichen Veröffentlichungserfolg ärgerte sich Royen noch lange im Hinblick auf die Tatsache, dass die etablierten Wissenschaftsjournale seine Arbeit ignorierten. Hintergrund: Es gab diverse Mathematiker, die jahrzehntelang vergeblich versuchten den Beweis zu erbringen. Da sich Royen eher (out of the box) am Rande der mathematischen Fachkreise aufhielt, konnte er offensichtlich ergebnisoffener als seine Fachkollegen das Problem der Beweisführung angehen. Seine diesbezügliche Erstveröffentlichung wurde jedoch inhaltlich ignoriert, da diese nicht der gängigen Gestaltungsform entsprach. Erst als andere Mathematiker auf seinen Beweis aufmerksam wurden und in die normierte Veröffentlichungsform „transformierten“, wurde die Arbeit ernst genommen. ...viel einfacher als »Alle« behaupten Übergeordnet wichtig ist hier der Hinweis, dass Royen exemplarisch das mittlerweile größte Problem der Wissensentwicklung - insbesondere im Rahmen Theoretischer Grundlagenforschung - exemplarisch offenlegt. Die etablierten Denkkonzepte lassen keinen Freiraum für zielführend einfache Gedanken. Die Standardtheoretiker denken und handeln so, als ob die von ihnen gewählten hochkomplexen, komplizierten Denkansätze alternativlos seien. Sie sind letztendlich nicht nur umgangssprachlich dumm, sie sind auch arrogant und ignorant. Diese Erwartungshaltung gepaart mit destruktiv emotionalen Charaktereigenschaften (später mehr dazu) ergeben eine fatale Mischung für den »Wissensbetrieb«. 2012 geht auf 2010 zurück, die dazu „etwas" längere Ausführung wird in einem eigenen Browserfenster angezeigt, siehe »out of the box«
|
![]()
Elementarkörpertheorie
Ein überfälliges Rendezvous mit ursächlicher Rationalität
|
|
|
Worum geht es? Um einen nachhaltigen Paradigmenwechsel.
Was ist hier mit Paradigmenwechsel gemeint? Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik.
[SM] Standardmodell der (Elementar)-Teilchenphysik (SM)
Was tritt an deren Stelle? Ein deutlich anschaulicheres, effektiveres, interdisziplinär vermittelbares, mathematisch einfacheres Denkmodell [EKT], welches vereinheitlichend und skalenübergreifend Mikro- und Makro-Kosmos voraussagefähig beschreibt. [EKT] Die Elementarkörpertheorie (kurz EKT) befasst sich insbesondere mit Antworten auf die Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen. Für ein anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig.
Welche Argumente sprechen für diesen Paradigmenwechsel? Das Parsimonieprinzip [: Ockhams Rasiermesser lex parsimoniae Sparsamkeitsprinzip]
Die streng analytisch ↓ motivierte Verwendung
Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden. Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft. Des Weiteren ist das Denkmodell am geeignetsten, welches neben der verwendeten Mathematik phänomenologisch erfassbar und konsistent, sowohl (skalenübergreifend) den Mikro- als auch den Makro-Kosmos, beschreiben kann, sowie einen formalen und phänomenologisch begründbaren Zusammenhang zwischen Licht (genauer PhotonenPh) und Materie erfasst. [Ph] Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Albert Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais "’Raffiniert ist der Herrgott’… Albert Einstein – Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413]. Ein Vergleich Denkmodellchemie und Denkmodellphysik Erst einmal, gemäß meiner eigenen, authentischen Erfahrungen und Beobachtungen sind universitäre, praktische Veranstaltungen im Bereich Chemie nicht mit einer betrieblichen Ausbildung und nicht mit einem betrieblichen Alltag zu vergleichen. Ich bin gelernter Chemielaborant, habe als solcher kurzzeitig auf Wechselschicht in der Produktionskontrolle von Farbstoffen gearbeitet. Während des Physik-Studiums als studentische Hilfskraft im Bereich Didaktik der Physik und als Zeitarbeiter, hin und wieder, als Chemielaborant während des Studiums für verschiedene Firmen im Bereich der Schwerindustrie und hatte im Physik-Hauptstudium als Nebenfach Metallorganische Chemie gewählt. Sowohl für den Physik- als auch für den Chemie-Sektor gilt, dass die meisten Lehrer und viele akademisch Ausgebildete, wie auch Ärzte, in ihrem Berufsalltag keine Forscher sind. Angewandte Physik ist ähnlich wie Chemie. Der Versuch macht klug. Der Unterschied zwischen Chemie und Physik besteht darin, dass in der Chemie selbst der Erfolg der Theoretischen Chemie meist praktisch-konstruktiv ist, da Anwendungen folgen (Verfahrenstechnik, Produkte). In der Theoretischen Grundlagen-Physik (insbesondere Standardmodell der Kosmologie [ΛCDM-Modell] und Standardmodell der Elementarteilchenphysik [SM]) gibt es keine Anwendungen. Theoriefindung und Theorieerweiterung bleiben reine Spekulation. Die Didaktik der Chemie sehe ich in der Oberstufe oder im Grundstudium als wenig problematisch an, da die vermittelten „einfachen“ Modelle praktisch gesehen zu guten Näherungen führen. In der Physik sieht das anders aus. Dort werden bereits (Ober-)Schülern vereinfachte Konzepte und Theorieelemente „verkauft“, die bei genauer Sicht philosophischen und nicht physikalischen Denkmodellen entspringen. Letztendlich definiert sich die Theoretische Physik durch den Glauben an eine gestalterische Mathematik und postulierten nicht direkt nachweisbaren Theorieobjekten und Wechselwirkungen, sowie einer großen Anzahl freier Parameter. Und wie gesagt, das ist nur möglich, weil keine Anwendungen folgen (müssen). Für die Wissensvermittlung werden Lehrer und Hochschul-Dozenten im Rahmen der gängigen Standardmodelle „gezwungen“ (sein), diese auch zu vermitteln. Persönliche Ansichten sind sozusagen „lehrbehördlich“ nicht gewünscht, wenn diese signifikant von der gängigen Methode oder/und von etablierten Denkmodellen abweichen.
Elementarkörpertheorie (EKT) ein erster Überblick
|
![]()
![]() |
|
Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.
|
↓
...die etwas andere Leiche im SM-Keller...

| Higgs-Mechanismus
Es gibt eine Vielzahl von „Abhandlungen“ zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des „Verfahrens“ skizziert werden.
Folgender Sachverhalt wird kaum thematisiert bzw. „teilweise verschwiegen“: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m2 < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms.
Sparen wir uns weiteres, willkürlich postuliert
SM-Theoretisches an dieser Stelle... |

|
Zusammenfassung Dieses Dokument vergleicht das Standardmodell der Teilchenphysik (SM) mit der Elementarkörpertheorie, mit besonderem Fokus auf das Higgs-Boson. Während das SM die Higgs-Masse nicht aus ersten Prinzipien ableiten kann und auf theoriebeladene, indirekte Detektionsverfahren angewiesen ist, bietet die EKT eine parameterfreie, erkenntnistheoretisch fundierte Alternative. Die Analyse zeigt, dass die vermeintliche „Entdeckung“ des Higgs-Bosons am LHC eine starke Theorieabhängigkeit aufweist – die Rohdetektorauflösung von etwa 5–6% wird durch SM-Annahmen auf ±0,1–0,2GeV „verbessert“. Die EKT hingegen berechnet eine Higgs-artige Masse [↓Gl. 2q0q0] aus der Proton-(Anti-)Proton-Wechselwirkung zu etwa 128,6 GeV – ohne freie Parameter, ohne Monte-Carlo-Simulationen, ohne theoriebeladene Kalibrierung:
Im Vergleich zur EKT ist das SM erkenntnistheoretisch naiv, mathematisch überladen und kaum falsifizierbar charakterisiert, während die EKT als primärgrößenbasierter, einfacher und präziser Neuanfang erscheint. |
![]()
Elementarkörpertheorie (EKT)
Grundlagen, energetische Analogien,
Vereinheitlichung von Mikro- und Makrokosmos
ein erster Überblick
![]()
WARM UP!
|
Die vermeintliche Herleitung von E = mc2 gemäß Spezieller Relativitätstheorie Eine kritische Analyse mit Vergleich zur Elementarkörpertheorie Zusammenfassung Die Gleichung E = mc2 gilt als die berühmteste Formel der Physik. Die Standardantwort auf die Frage nach ihrer Herleitung lautet: Aus der Speziellen Relativitätstheorie (SRT) Albert Einsteins. Dieses Dokument stellt die drei gängigen SRT‑Herleitungen im Detail dar: Einsteins ursprüngliches Gedankenexperiment von 1905, die moderne Herleitung über den Viererimpuls und die Herleitung über die Energie‑Impuls‑Beziehung. Jede dieser Herleitungen wird kritisch analysiert. Es zeigt sich, dass alle SRT‑Herleitungen auf unbewiesenen Postulaten beruhen, willkürliche Setzungen enthalten oder Näherungen verwenden. Im Gegensatz dazu wird die Herleitung der Elementarkörpertheorie (EKT) vorgestellt, die E = m0c2 exakt, dynamisch, geometrisch anschaulich und parameterfrei aus den Entwicklungsgleichungen r(t) = r0 sin(ct/r0) und m(t) = m0 sin(ct/r0) ableitet. Der Anhang enthält Ausführungen zur Denkmodellgeschichte, und zur Problematik der Quantenelektrodynamik (QED) zu einigen phänomenologischen Grundlagen der Elementarkörpertheorie. |
![]()
|
|
[BASISSUCHE AlexDirkFreyling 59ndf Foto von T.B.] |
|
Autor Dirk Freyling – unabhängiger Forscher & Künstler [Künstlername AlexD, daher auch adf als Autorenkürzel] |