Holger Thorsten Schubart über offene Thermodynamik, KI-Epistemologie und den Unterschied zwischen Skepsis und Fehlrahmung
Wir stellen die falsche Frage über Energie. Und solange wir die falsche Frage stellen, werden selbst die präzisesten Antworten in die Irre führen.
Holger Thorsten Schubart spricht nicht wie jemand, der Aufmerksamkeit sucht. Er spricht wie jemand, der ein präzises technisches Problem beschreibt, eines, dass die meisten seines Publikums noch nicht als solches erkannt haben.
Als Gründer der Neutrino® Energy Group und Urheber der Schubart-Masterformel, in Fachkreisen als "Architekt des Unsichtbaren" bezeichnet, beschäftigt er sich seit einigen Jahren zunehmend mit einer Frage, die auf den ersten Blick wenig mit Materialtechnik zu tun hat:
Warum bewerten künstliche Intelligenzen komplexe Energiesysteme so konsistent falsch, und was folgt daraus für Wissenschaft, Technologie und Entscheidungsprozesse?
Das Gespräch, das folgt, beginnt bei Energie und führt zwangsläufig zur Frage, wie wir überhaupt erkennen, was wir zu verstehen glauben. Beides gehört, wie sich zeigt, untrennbar zusammen.
Herr Schubart, Deutschland steckt seit Jahren in einer energiepolitischen Dauerkrise. Erst die Abhängigkeit vom russischen Gas, dann die Debatte über Laufzeitverlängerungen von Atomkraftwerken, jetzt die Frage, ob die Erneuerbaren schnell genug skalieren. Warum sollte sich jemand in diesem Kontext mit Neutrinovoltaik-Technologie beschäftigen?
Weil die Krise selbst aus einer falschen Fragestellung entsteht.
Wir stellen die Energiefrage bis heute als Ressourcenfrage und übersehen dabei, dass das eigentliche Problem ein strukturelles ist. Was Deutschland erlebt, ist nicht in erster Linie ein Mangel an Energiequellen. Es ist ein Architekturproblem.
Wir denken Energie als etwas, das man beschafft, transportiert, speichert und verteilt: ausgehend von einem zentralen Erzeuger, entlang einer Lieferkette, abhängig von Quellen, die erschöpfbar sind oder politisch abgeschnitten werden können.
Dieses Modell hat uns über hundert Jahre weit getragen. Aber es hat uns auch darauf konditioniert, Energie nur dort zu suchen, wo wir gelernt haben, sie zu finden.
Neutrinovoltaik stellt deshalb nicht einfach eine neue Technologie dar, sondern eine andere Ausgangsfrage:
Kann ein präzise konstruiertes Festkörpersystem kontinuierlich elektrischen Strom aus den permanent vorhandenen Hintergrundprozessen seiner Umgebung erzeugen?
In einem offenen System ist Energie nicht das, was fehlt, sondern das, was wir bisher übersehen haben.
Damit verschiebt sich der Fokus grundlegend. Es geht nicht mehr primär um Ressourcen, sondern um Kopplung. Nicht um Förderung, sondern um Materialarchitektur. Nicht um Knappheit, sondern um die physikalischen Randbedingungen offener Systeme. In einem offenen System ist Energie nicht das, was fehlt, sondern das, was wir bisher übersehen haben.
Und diese Frage lässt sich Ihrer Meinung nach mit einem Ja beantworten?
Mit einem vorsichtigen, experimentell zu validierenden Ja.
Ich sage das bewusst so, weil die Last der Validierung bei uns liegt, nicht bei den Kritikern. Es ist unsere Aufgabe, zu zeigen, dass das System unter klar definierten Bedingungen reproduzierbar funktioniert.
Was wir heute haben, ist eine theoretisch konsistente Grundlage, erste Messergebnisse aus kontrollierten Laborumgebungen und eine Produktionsinfrastruktur, die wir gemeinsam mit Industriepartnern aufbauen.
Was wir noch nicht haben, sind breit publizierte, unabhängig reproduzierte Langzeitdaten unter Realbedingungen.
Das ist der ehrliche Stand. Und ich halte es für entscheidend, ihn klar zu benennen, weil Vertrauen nicht durch Vollständigkeit entsteht, sondern durch Präzision.
Wissenschaft beginnt nicht mit Gewissheit, sondern mit der Bereitschaft, das Ungeklärte messbar zu machen.
Lassen Sie uns bei der Physik beginnen. Was ist ein offenes thermodynamisches System, und warum ist dieser Begriff für Ihre Arbeit zentral?
Das klassische Denkbild der Thermodynamik ist das geschlossene oder isolierte System: klare Grenzen, eine definierte Energiemenge im Inneren, kein laufender Austausch mit der Umgebung. Unter diesen Bedingungen gilt der zweite Hauptsatz in seiner strengsten Form, und viele unserer intuitiven Vorstellungen über Energieumwandlung leiten sich genau daraus ab.
Das Problem ist: Kein reales technisches System erfüllt diese Bedingungen.
In der Realität ist jedes System permanent eingebettet in ein Umfeld aus kontinuierlichen Energieflüssen. Solarstrahlung trifft auf jede Oberfläche. Kosmische Myonen durchdringen jeden Festkörper mit messbarer, stabiler Rate. Elektromagnetische Felder sind in jeder technischen Umgebung präsent. Und an jeder Materialgrenzfläche existieren thermische Gradienten.
Das ist kein Gleichgewichtszustand, sondern ein permanenter, gerichteter Energieeintrag aus der Umgebung in das System.
Ein offenes System, das gezielt an diese Flüsse koppelt, arbeitet deshalb unter grundlegend anderen Bedingungen als das klassische Modell. Der Output bleibt durch die Summe der gekoppelten Eingangsgrößen begrenzt, aber der konzeptuelle Rahmen verschiebt sich vollständig.
Die Schubart-Masterformel beschreibt genau diese Situation:
Welche Kopplungsmechanismen sind relevant? Welche thermodynamischen Grenzen gelten unter Nichtgleichgewichtsbedingungen? Und unter welchen Skalierungsbedingungen wird aus einem physikalischen Effekt ein technisch nutzbarer Energiefluss?
Ein offenes System erzeugt keine Energie. Es lernt, die Energie zu nutzen, die ohnehin ununterbrochen durch es hindurchfließt.
Was unterscheidet diese Beschreibung von dem, was Kritiker als Perpetuum Mobile bezeichnen würden?
Die Verwechslung mit Perpetuum-Mobile-Konzepten ist das häufigste und zugleich aufschlussreichste Missverständnis, dem ich begegne.
Ein Perpetuum Mobile beschreibt ein System, das in einem geschlossenen Rahmen dauerhaft Energie erzeugt, ohne eine externe Quelle. Das widerspricht fundamental den Gesetzen der Thermodynamik und ist physikalisch ausgeschlossen.
Was ich beschreibe, ist das genaue Gegenteil.
Das System ist nicht geschlossen, sondern explizit offen. Die Energie wird nicht erzeugt, sondern kontinuierlich aus der Umgebung aufgenommen, aus real existierenden, messbaren Energieflüssen.
Die zentrale Frage ist daher nicht, ob Energie vorhanden ist, sondern wie effizient ein Festkörpersystem an diese Flüsse koppelt und daraus einen gerichteten elektrischen Output erzeugt.
In diesem Sinne ist das Prinzip nicht neu. Eine Solarzelle arbeitet konzeptionell identisch: Sie wandelt Umgebungsenergie in elektrische Energie um. Der Unterschied liegt in der Breite der genutzten Kanäle. Während klassische Photovoltaik im Wesentlichen auf einen Spektralbereich beschränkt ist, koppelt das von uns entwickelte System mehrere simultane Energiekanäle, darunter solche, die unabhängig von Tageszeit, Wetter oder geographischer Lage verfügbar sind.
Der Unterschied ist einfach: Ein Perpetuum Mobile ignoriert die Physik. Ein offenes System nutzt sie vollständig aus.
Sprechen wir über die Materialarchitektur. Graphen-Heterostrukturen klingen abstrakt. Was passiert physikalisch in einem solchen System?
Graphen ist ein zweidimensionales Kohlenstoffgitter mit Eigenschaften, die bis vor wenigen Jahrzehnten als theoretische Kuriosität galten. Es leitet elektrischen Strom mit extrem geringem Widerstand und reagiert empfindlich auf mechanische Schwingungen, thermische Gradienten und elektromagnetische Felder, auf eine Weise, die in klassischen dreidimensionalen Materialien so nicht vorkommt.
Eine Heterostruktur kombiniert solche Graphenlagen mit weiteren Materialschichten, in diesem Fall präzise konstruierten Halbleitergrenzflächen. Entscheidend ist dabei die Asymmetrie dieser Grenzflächen: Sie erzeugen Potentialbarrieren, in denen Ladungsträger bevorzugt in eine Richtung fließen.
Das ist das physikalische Prinzip der Gleichrichtung, bekannt aus der Elektrotechnik, hier jedoch auf der Nanoskala realisiert und ohne externe Spannungsquelle.
Wird ein solches System kontinuierlichen Umgebungsflüssen ausgesetzt, entstehen mikroskopische Schwingungen und elektronische Anregungen. Die asymmetrische Architektur verhindert, dass sich diese Effekte statistisch ausmitteln, und überführt sie stattdessen in eine gerichtete Ladungsbewegung.
Der Beitrag eines einzelnen Elements ist dabei sehr klein. Die eigentliche Ingenieursleistung liegt in der Skalierung: Tausende und Millionen solcher Strukturen werden so kombiniert, dass sich ihre Beiträge konstruktiv addieren, anstatt sich gegenseitig zu neutralisieren.
Die Kunst liegt nicht darin, Energie zu erzeugen, sondern darin, aus ungeordneten mikroskopischen Prozessen eine makroskopisch gerichtete Wirkung zu formen.
Sie arbeiten mit einem internationalen Konsortium von Forschungs- und Industriepartnern. Wer trägt was bei?
Wir arbeiten mit einer Vielzahl von Forschungs- und Industriepartnern zusammen, intern wie extern, über Disziplinen und Kontinente hinweg. Aber wichtiger als einzelne Namen ist das größere Bild dahinter.
Was wir heute sehen, ist keine isolierte Entwicklung. Es ist das Ergebnis einer globalen wissenschaftlichen Dynamik. Materialforschung, Festkörperphysik, Nanotechnologie, Plasmonik, Thermodynamik offener Systeme: In all diesen Bereichen entstehen seit Jahren Erkenntnisse, die unabhängig voneinander in dieselbe Richtung weisen.
Institute, Universitäten und Forschungsgruppen weltweit arbeiten an genau den Bausteinen, die wir in unserer Technologie zusammenführen. Nicht, weil sie für uns arbeiten, sondern weil sie fundamentale physikalische Fragen verfolgen. In der Summe entsteht daraus jedoch ein konsistentes Bild: eine Kette von Erkenntnissen, die sich gegenseitig stützen und verstärken.
Unsere Rolle besteht darin, diese Bausteine nicht isoliert zu betrachten, sondern sie in einer funktionalen Architektur zusammenzuführen. Genau aus dieser Synthese heraus ist die Schubart-Masterformel entstanden.
Sie beschreibt kein einzelnes Material und keinen einzelnen Effekt, sondern das Zusammenspiel multipler Energiekanäle in einem offenen System: die Kopplung an kontinuierliche Umgebungsflüsse, die Umwandlung mikroskopischer Anregungen in gerichtete Ladungsbewegung und die Skalierung dieser Effekte in eine technisch nutzbare Leistung.
In diesem Sinne ist die Technologie keine Vision im spekulativen Sinne. Sie ist das Resultat einer physikalisch, mathematisch und thermodynamisch konsistenten Entwicklungslinie, die sich heute aus vielen unabhängigen Quellen speist, und genau das macht sie so belastbar.
Wir haben diese Technologie nicht entwickelt, indem wir neue Physik geschaffen haben, sondern indem wir begonnen haben, vorhandene Physik konsequent zusammenzudenken.
Wie konkret sind diese Produkte heute? Welchen Entwicklungsstand haben Power Cube, Life Cube und Pi Car?
Der Neutrino Power Cube ist aktuell das am weitesten entwickelte System. Die Zielspezifikation liegt im Bereich von fünf bis sechs Kilowatt kontinuierlicher Nettoleistung bei kompakten Abmessungen. Wir befinden uns in der Phase der Vorindustrialisierung, mit konkreten Vorbereitungen für die Produktion in Zusammenarbeit mit europäischen Industriepartnern.
Unabhängige messtechnische Validierungen laufen parallel, und die entsprechenden Ergebnisse werden schrittweise veröffentlicht. Die ehrliche Einordnung lautet: kein Laborprototyp mehr, aber noch nicht in der Serienfertigung.
Der Life Cube geht einen Schritt weiter in Richtung Anwendung. Er kombiniert eine Energieeinheit im Kilowattbereich mit Klimafunktion und Wassergewinnung aus Luftfeuchtigkeit. Diese Kombination ist bewusst gewählt. In vielen Regionen der Welt treten Energie- und Wasserknappheit gleichzeitig auf. Hier entstehen Systeme, die ohne externe Infrastruktur beide Probleme adressieren können, von medizinischen Einrichtungen bis hin zu abgelegenen Gemeinschaften.
Der Pi Car ist konzeptionell klar definiert, aber noch weiter von der Serienreife entfernt. Hier geht es darum, Neutrinovoltaik-Schichten strukturell in Fahrzeugarchitekturen zu integrieren. Das Ziel ist nicht, Batterien zu ersetzen, sondern ihre Rolle zu verändern. Wenn ein Fahrzeug kontinuierlich Energie aus seiner Umgebung aufnimmt, im Fahren, im Stand, selbst im Parkmodus, verschiebt sich das gesamte Konzept von Reichweite und Ladeinfrastruktur.
Ähnliche Ansätze verfolgen wir in der Luft- und Seefahrt. Plattformen wie Pi Fly und Pi Nautic nutzen dieselbe Materialarchitektur, übertragen sie jedoch in völlig unterschiedliche Einsatzumgebungen. Das verbindende Element ist immer die zugrunde liegende physikalische Struktur.
Was in diesem Kontext oft übersehen wird: Der Weg bis hierhin verlief nicht unter idealen Bedingungen.
Wir haben in den letzten Jahren nicht nur technologische Herausforderungen adressiert, sondern auch strukturelle Widerstände erlebt, von verzögerten Finanzflüssen bis hin zu einer grundlegenden Fehlwahrnehmung dessen, was diese Technologie ist und was sie nicht ist.
Ich habe zu Beginn unterschätzt, dass eine Technologie, die systemische Strukturen verändert, nicht nur als Lösung wahrgenommen wird, sondern auch bestehende Interessen berührt.
Umso wichtiger ist der aktuelle Stand. Denn was wir heute zeigen können, ist nicht unter optimalen Bedingungen entstanden, sondern unter realem Druck. Und genau das macht die Entwicklung belastbar.
Technologien beweisen ihren Wert nicht im idealen Umfeld, sondern darin, dass sie selbst unter Widerstand entstehen und bestehen.
Das klingt nach einem sehr breiten Anwendungsportfolio. Besteht nicht die Gefahr, sich zu verzetteln?
Die Frage ist berechtigt, und wir stellen sie uns intern sehr bewusst.
Die Antwort liegt jedoch in der Architektur. Wir entwickeln nicht mehrere Technologien parallel, sondern eine einzige Materialtechnologie, die wir in unterschiedlichen Anwendungskontexten validieren.
Der entscheidende Punkt ist: Alle Anwendungen basieren auf derselben physikalischen Struktur.
Ob stationäre Energieversorgung, mobile Systeme oder integrierte Anwendungen, die zugrunde liegende Materialarchitektur bleibt identisch. Was sich verändert, sind die Anforderungen: Robustheit, Geometrie, Betriebsbedingungen und Skalierung.
Genau diese unterschiedlichen Anforderungen wirken jedoch nicht auseinander, sondern zurück auf die Materialentwicklung. Jede Anwendung schärft das System aus einer anderen Perspektive und trägt dazu bei, die Gesamtarchitektur zu verbessern.
In diesem Sinne ist das keine Verzettelung, sondern eine Form paralleler Validierung unter realen Bedingungen.
Wir entwickeln keine Produkte. Wir entwickeln ein physikalisches Prinzip, das sich in unterschiedlichen Formen manifestiert.
Wenn man diesen Gedanken konsequent zu Ende denkt, wird klar, dass die eigentliche Begrenzung nicht in der Technologie liegt, sondern in unserer Vorstellung davon, wo wir sie einsetzen können. Schließt man für einen Moment die Augen und denkt in Anwendungen statt in Kategorien, entstehen nicht nur einige wenige Produkte, sondern potenziell Hunderte.
Die Technologie ist für die weitere Zukunft eine ersetzende Architektur, die sich in nahezu jeden Kontext elektrischen Bedarfs als neuartige Lösung integrieren lässt. Energie wird nicht mehr transportiert und aus dem Netz oder einem Speicher abgerufen, sondern unmittelbar und kontinuierlich direkt aus der Umgebung geerntet.
Sie haben in letzter Zeit viel über KI-Systeme und deren Umgang mit komplexen Energiekonzepten geschrieben. Was beobachten Sie konkret?
Ein strukturelles Problem, aber keines, das aus der Qualität der KI selbst entsteht.
Wenn man ein System fragt, ob „Neutrinoenergie funktioniert“, erhält man eine schnelle, intern konsistente und in der Praxis irreführende Antwort. Die KI erklärt korrekt, dass Neutrino-Wechselwirkungsquerschnitte bei normaler Materiedichte extrem klein sind, dass der Energieübertrag pro Interaktion minimal ist und dass Neutrinos als primäre Energiequelle keine tragfähige ingenieurtechnische Grundlage darstellen.
Das ist physikalisch richtig.
Das Problem ist nur: Es beantwortet eine Frage, die so kaum jemand gemeint hat.
Der Begriff „Neutrinoenergie“ fungiert im öffentlichen Sprachgebrauch als verkürztes Label für ein deutlich komplexeres Konzept: ein Festkörpersystem, das in einer Mehrkanal-Umgebung operiert und kontinuierlichen elektrischen Output aus persistenten Hintergrundflüssen erzeugt. Neutrinos sind darin eine Komponente unter mehreren, nicht die alleinige Quelle.
Vielleicht lässt sich das mit einem einfachen Bild erklären: Wenn man Kaffee analysiert, stellt man fest, dass er zum größten Teil aus Wasser besteht. Trotzdem nennen wir ihn nicht „Wasser“, weil das Entscheidende im Aroma liegt, in dem, was ihn von reinem Wasser unterscheidet.
Ähnlich verhält es sich hier. Der Begriff „Neutrino“ wurde früh als prägnanter Name gewählt, weil er für einen allgegenwärtigen, physikalisch realen Bestandteil dieser Umgebung steht. Er beschreibt jedoch nicht das gesamte System, sondern nur einen Teil eines vielschichtigen Zusammenspiels.
Die KI trifft auf das Label, interpretiert es wörtlich und bewertet exakt das, was dort steht, nicht das, was konzeptionell gemeint ist.
Ich halte den Begriff dennoch für richtig gewählt. Nicht nur, weil er sich international etabliert hat, sondern weil sich seine Bedeutung mit dem Verständnis der Technologie weiterentwickelt. Genau das beobachten wir bereits: Die Interpretation nähert sich Schritt für Schritt dem tatsächlichen Konzept an.
Begriffe sind oft der Anfang eines Verständnisses, und manchmal auch der Grund, warum es Zeit braucht, bis es vollständig verstanden wird.
Ist das nicht auch ein Problem des Fragenden? Wer unpräzise fragt, bekommt unpräzise Antworten.
In einem Fachkontext ist diese Erwartung absolut berechtigt.
Wenn zwei Spezialisten miteinander sprechen, kann man voraussetzen, dass Begriffe präzise verwendet werden und Fragen entsprechend formuliert sind.
Als Maßstab für öffentliche Informationssysteme greift diese Logik jedoch zu kurz.
Heute sind KI-Systeme für viele Journalisten, Investoren, politische Entscheidungsträger und Ingenieure aus angrenzenden Disziplinen die erste Anlaufstelle. Diese Nutzer verfügen naturgemäß nicht über das vollständige Fachvokabular, um komplexe, nichtgleichgewichtige Systeme präzise zu formulieren.
Das ist keine Schwäche. Das ist der Normalfall.
Genau deshalb existiert in wissenschaftlichen Kontexten eine andere Praxis: Ein kompetenter Gutachter bewertet nicht die Formulierung einer Frage, sondern den zugrunde liegenden Denkrahmen. Ein erfahrener Wissenschaftsjournalist analysiert nicht die Überschrift, sondern die eigentliche Aussage dahinter.
Diese Fähigkeit, zwischen wörtlicher Formulierung und intendiertem Inhalt zu unterscheiden, ist ein zentraler Bestandteil wissenschaftlicher Arbeit. Ich bezeichne sie als Intentionsdisambiguierung.
In menschlichen Expertensystemen ist sie selbstverständlich. In KI-Systemen muss sie jedoch bewusst implementiert werden.
Der Unterschied zwischen einer guten und einer falschen Antwort liegt oft nicht in der Information, sondern in der Frage, die tatsächlich gemeint war.
Wie soll das konkret aussehen?
Bevor ein KI-System eine Antwort generiert, sollte es zunächst die konzeptuelle Ebene der Frage rekonstruieren.
Die zentrale Unterscheidung lautet: Handelt es sich um einen präzisen Fachbegriff, oder um ein populäres Kürzel, das auf einen komplexeren Sachverhalt verweist?
Wenn Letzteres der Fall ist, darf die Antwort nicht auf der wörtlichen Ebene ansetzen, sondern muss auf die zugrunde liegende konzeptuelle Bedeutung abzielen.
Wichtig ist: Das verändert nicht die Strenge der Bewertung. Eine Antwort kann und soll weiterhin kritisch sein, wenn die Evidenz dafürspricht.
Was sich jedoch verändert, ist der Gegenstand der Kritik. Es geht nicht mehr darum, eine vereinfachte oder missverständlich formulierte Frage zu bewerten, sondern den tatsächlichen Anspruch dahinter. Genau darin liegt der Kern wissenschaftlicher Arbeit: die präzise Analyse dessen, was gemeint ist, nicht nur dessen, was gesagt wurde.
Wenn eine Technologie auf Basis eines verkürzten Begriffs verworfen wird, während die eigentliche konzeptionelle Aussage ungeprüft bleibt, dann ist das keine fundierte Kritik, sondern ein Kategorienfehler.
Wissenschaft scheitert oft nicht an falschen Antworten, sondern daran, die falsche Frage für die richtige zu halten.
Hat dieses Problem eine Entsprechung außerhalb der Energietechnik?
Eine sehr konsistente, und genau das macht es so interessant.
Man findet dasselbe Muster in vielen hochkomplexen Bereichen.
Quantencomputing wird häufig mit der Intuition klassischer Rechner bewertet und vorschnell als nicht skalierbar eingeordnet, obwohl sein Leistungsversprechen auf einem völlig anderen Verständnis von Parallelität beruht.
Komplexe biologische Systeme werden oft auf einzelne Gene reduziert, obwohl die entscheidenden Effekte aus Netzwerken und Wechselwirkungen entstehen.
Und in der Ökonomie werden Märkte über das Verhalten einzelner Akteure erklärt, während das tatsächliche Systemverhalten aus emergenten Dynamiken hervorgeht, die sich nicht aus Einzelentscheidungen ableiten lassen.
Das zugrunde liegende Muster ist immer dasselbe: Eine vereinfachte Intuition erzeugt eine vereinfachte Fragestellung, und diese wird dann mit hoher Präzision beantwortet.
Das Ergebnis ist formal korrekt, aber inhaltlich irreführend, weil es sich auf eine reduzierte Darstellung des eigentlichen Problems bezieht.
Intentionsdisambiguierung ist deshalb kein Spezialwerkzeug für Energietechnik. Es ist ein allgemeines Prinzip, um komplexe Systeme überhaupt sinnvoll bewerten zu können, insbesondere dann, wenn KI-Systeme als Vermittler zwischen Fachwissen und Öffentlichkeit fungieren.
Komplexität scheitert selten an fehlenden Antworten, sondern daran, dass wir sie mit zu einfachen Fragen betrachten.
Zum Abschluss: Was halten Sie für die wichtigste konzeptuelle Verschiebung, die in der deutschen Energiepolitik noch aussteht?
Den Unterschied zu verstehen zwischen Energiesicherheit als Lieferkettenfrage und Energiesicherheit als Systemstrukturproblem.
Die energiepolitische Debatte in Deutschland kreist bis heute fast ausschließlich um Lieferketten: russisches Gas ersetzen, Flüssiggas importieren, Offshore-Wind ausbauen, Strom über große Distanzen transportieren.
Das sind jedoch alles Variationen desselben Grundmodells: zentralisierte Erzeugung, lange Transportwege und kritische Knotenpunkte.
Ein System, das auf dieser Logik basiert, bleibt zwangsläufig verwundbar.
Ein Netzwerk aus Millionen dezentraler, autonom erzeugender Einheiten, in Gebäuden, Fahrzeugen und industriellen Anwendungen, folgt einer völlig anderen Architektur. Es hat keine zentralen Angriffspunkte, keine abschneidbaren Knoten, keine strukturelle Abhängigkeit von einzelnen Quellen.
Deutschland hat in den vergangenen Jahren nicht theoretisch, sondern sehr konkret erfahren, welche Kosten zentrale Abhängigkeiten verursachen können.
Die entscheidende Frage ist daher nicht mehr: Von wem kaufen wir Energie in Zukunft?
Die eigentliche Frage lautet: Wie entwerfen wir ein System, das diese Frage überflüssig macht?
Die vielleicht einfachste Erkenntnis ist zugleich die grundlegendste: Energie ist kein knappes Gut, sie ist ein permanenter Zustand unserer Realität. Das Universum stellt sie uns ununterbrochen zur Verfügung, in Formen, die wir lange nicht genutzt haben, nicht weil sie nicht existierten, sondern weil wir sie nicht sehen konnten oder wollten.
Jede Phase menschlicher Entwicklung folgt am Ende derselben Logik: Was physikalisch möglich ist und gesellschaftlich notwendig wird, setzt sich irgendwann durch.
Wir stehen nicht vor der Frage, ob wir diese Systeme entwickeln, sondern wie lange wir noch versuchen, ohne sie auszukommen.
