///.............................._BIWI_...//.............//_................._WISSEN_................._///
The problem is not people being uneducated.The problem is that people are educated just enough to believe what they have been taught; and not educated enough to question anything from what they have been taught.
Richard Feynman / Physiker, Nobelpreisträger 1965
................. hier zum KOMPENDIUM www.vernunftkraft.de/kompendium
IIIIIIIIIIIIIIIIIIII
UNANFECHTBAR ? - ZUM URTEIL DES BUNDES-VERFASSUNGSGERICHTES -
von Prof. Dr. Fritz Vahrenholt, Sebastian Lüning
.................. hier
IIIIIIIIIIIIIIIIIIII
DEUTSCHE ATOMRAFTWERKE KÖNNEN REAKTIVIERT WERDEN
QUELLE :
CICERO-NEWSLETTER / 21.07.2023 /
von DANIEL GRÄBER /
AUTOREN-INFO : Daniel Gräber leitet das "Ressort Kapital" bei CICERO
International renommierte Kernphysik-Experten haben sich in einer britischen Studie detailliert mit der Atomkraft in Deutschland beschäftigt.
Ihr Ergebnis : Für eine Reaktivierung der stillgelegten Reaktoren ist es noch nicht zu spät. Größte Hürde ist der politische Wille.
Auch wenn die Ampelkoalition das Thema gerne vom Tisch hätte: Der deutsche Atomausstieg beschäftigt nach wie vor die (Fach-)Öffentlichkeit. Und das vor allem außerhalb Deutschlands. Denn in Europa kann kaum jemand nachvollziehen, weshalb die Bundesregierung trotz Energiekrise und ehrgeizigen Klimaschutzzielen am einst beschlossenen Ende der Kernkraft festhält und stattdessen lieber alte Kohlekraftwerke reaktiviert.
Das britische Beratungsunternehmen Radiant Energy Group, gegründet und geführt von dem promovierten Kerntechniker Mark Nelson, hat sich die Lage genau angesehen. Nelson sprach unter dem Siegel der Vertraulichkeit mit Vorstandsmitgliedern und leitenden Mitarbeiter von Betreibergesellschaften und Kerntechnikunternehmen in Deutschland. Er wollte herausfinden, welche technischen, rechtlichen und politischen Hürden es gibt, um die stillgelegten Atomkraftwerke wieder ans Netz zu nehmen.
AKW-Betreiber äußerten sich anonym.
„Die Beteiligten machten, unter der Bedingung der Wahrung ihrer Anonymität, detaillierte Angaben zu den Herausforderungen beim Wiederanfahren der angesprochenen Kernkraftwerke“, schreiben Nelson und sein Co-Autor in ihrer frisch veröffentlichten Studie. Ihr Ergebnis ist überraschend und entlarvt die in der innerdeutschen Debatte dominierenden Verhinderungsargumente als vorgeschoben: „Die Rücknahme des deutschen Atomausstiegs wird von der Öffentlichkeit unterstützt, lohnt sich wirtschaftlich und ist technisch machbar.“
Im günstigsten Fall würden nur neun Monate benötigt, um viele der Reaktoren wieder anzufahren. „In unserem realistisch machbaren Best-Case-Szenario könnten sechs Reaktoren innerhalb von neun bis zwölf Monaten und zwei weitere Reaktoren innerhalb von zwei bis drei Jahren wieder in Betrieb genommen werden“, so die Experten.
---------------------------------------------------
GERMANY REACTOR NEWS: ADDITIONAL REACTORS CAN BE RESTARTED
Our new report's out with a shocking find:
8, not 6, reactors can be saved!
Krümmel, big enough to power a million people, still has an operating license despite closing 2011: saved by antinuclear politics, ironically pic.twitter.com/MDWPd8LDGU
— Mark Nelson (@energybants) July 20, 2023
Ihre Studie ist auf der Internetseite der Radiant Energy Group in Englisch veröffentlicht, eine deutsche Übersetzung gibt es als PDF zum Herunterladen.
---------------------------------------------------
Sogar mehr als acht Reaktoren könnten gerettet werden
Insgesamt gebe es in Deutschland mindestens acht Kernreaktoren, bei denen mit dem Rückbau entscheidender Komponenten im Reaktorgebäude noch nicht begonnen wurde. Diese Reaktoren hätten das größte Potenzial für eine Wiederinbetriebnahme, heißt es in der Studie. „Zusammen besitzen diese Reaktoren eine elektrische Nettoleistung von insgesamt 10,7 Gigawatt, das entspricht circa 30 Prozent des deutschen Mindest- beziehungsweise Grundlaststrombedarfs von 35 Gigawatt.“
Bei weiteren Reaktoren, deren Rückbau weiter fortgeschritten ist, sei eine Wiederinbetriebnahme zwar schwieriger. Die Autoren empfehlen dennoch „dringend, die weitere Zerstörung auch dieser Anlagen zu stoppen“. Denn sie blieben „gute Kandidaten für eine zukünftige Instandsetzung, sollten sich die politischen Verhältnisse in Deutschland ändern.“
In hervorragendem technischen Zustand
Die international tätigen Kerntechnikexperten loben den hervorragenden Zustand der stillgelegten deutschen Kernkraftwerke, die jünger als andere Reaktoren seien, deren Laufzeit derzeit weltweit verlängert wird. Und sie betonen: „Deutschland betrieb einst eine der größten Kernkraftwerksflotten der Welt. Das Land war auch weltweit ein führender Anbieter von Reaktoren und nuklearen Dienstleistungen.“
Bei der Lektüre der nüchtern geschriebenen Bestandsaufnahme wird klar: Das größte Hindernis einer Wiederinbetriebnahme der deutschen Kernkraftwerke ist der fehlende politische Wille.
Es sind vor allem die Grünen, die sich bewegen müssten. Nach dem Vorbild ihrer Parteifreunde in Finnland, die Kernkraft aus Klimaschutzgründen befürworten.
Rückbaustopp bis zur nächsten Bundestagswahl
Doch bis auf wenige Ausnahmen – wie etwa der Grünen-„Vordenker“ Ralf Fücks, der durch den Ukrainekrieg zum Umdenken gebracht wurde und nun den deutschen Atomausstieg als nationalen Alleingang kritisiert – schafft es die angebliche Klimaschutzpartei nicht, sich von ihrer Anti-Atom-Vergangenheit zu lösen.
-----------------------------------------
DEUTSCHLAND ALLEIN ZUHAUS - Aber vermutlich sind wir schlauer als der Rest der Welt.
pic.twitter.com/sVrQ5WLS8q
— Ralf Fuecks (@fuecks) July 10, 2023
-----------------------------------------
Wichtig wäre daher nun ein AKW-Rückbaustopp, den der Bundestag auch ohne Grünen-Stimmen beschließen kann, damit bis zur nächsten Bundestagswahl gerettet werden kann, was noch zu retten ist.
IIIIIIIIIIIIIIIIIIII
WIE WIRD DAS STROMNETZ STABILISIERT ?
Die Kraftwerke im europäischen Stromverbund produzieren Wechselstrom mit einer Frequenz von 50 Hz.
Zur Deckung des Strombedarfs produzieren viele unterschiedliche Kraftwerktypen gleichzeitig Strom und speisen diesen in den europäischen Stromverbund ein. Wie wird das Stromnetz stabilisiert? In diesem Beitrag wollen wir den sehr komplexen Sachverhalt möglichst einfach erklären.
Zur Stromerzeugung sind die folgenden Kraftwerktypen beteiligt, die wie in einem Orchester über den Takt der Netzfrequenz, den Strom in das europäische Stromnetz einspeisen.
Grundlastkraftwerke : Braunkohlekraftwerke, Atomkraftwerke
Mittellastkraftwerke : Steinkohlekraftwerke, Gas-Dampfkombikraftwerke
Spitzenlastkraftwerke : Gaskraftwerke, Pumpspeicherkraftwerke
Ökostromanlagen : Windkraftanlagen, PV-Anlagen, Biogaskraftwerke, Wasserkraftwerke
Wie arbeiten die verschiedenen Kraftwerktypen im Verbund zusammen ?
Grundlastkraftwerke
Die Grundlastkraftwerke laufen praktisch immer in ihrem optimalen Lastpunkt mit maximaler Leistungsabgabe. Jede Abweichung würde den Wirkungsgrad so verschlechtern, dass dies große Verluste bei der Stromerzeugung bedeuten würde. Die Grundlastwerke werden deshalb möglichst nicht netzlastabhängig geregelt. Da sie mit ihrer Kombination aus Turbine und Generator eine sehr große Drehmasse haben, sind sie auch die Taktgeber für die Netzfrequenz von genau 50 Hz. Alle anderen Kraftwerke müssen sich nach dieser Taktvorgabe richten.
Biogaskraftwerke und Wasserkraftwerke mit permanentem Durchfluss sind ebenfalls grundlastfähig, gehören aber aufgrund ihrer geringen Leistung in der Regel nicht zu den Taktgebern.
Mittellastkraftwerke
Die Mittellastkraftwerke decken einen großen Teil des Strombedarfs, der über der Grundlast liegt, ab. Diese Kraftwerke laufen aber nicht mit voller Leistung, sondern halten eine Lastreserve für die Schwankung zwischen Angebot und Nachfrage vor. Diese Reserve nennt man Regelenergie. Jedes Land im europäischen Stromverbund ist vertraglich verpflichtet, einen vorgegebenen Betrag an Regelenergie jederzeit zur Verfügung stellen zu können. Deutschland ist verpflichtet, jederzeit mindestens 3000 MW Regelenergie vorzuhalten. Um dies 3000MW Regelenergie jederzeit zur Verfügung stellen zu können, gilt die (n-1)-Regel. Diese Regel gibt vor, dass auch beim Ausfall eines der beteiligten Kraftwerke, z. B. durch einen technischen Defekt, immer noch 3000 MW Regelenergie zur Verfügung stehen.
Da im Stromverbund immer nur soviel Strom erzeugt werden kann, wie gerade verbraucht wird, gleichen diese Mittellastkraftwerke die entsprechende Differenz mit dieser Reserveleistung aus.
Da diese Kraftwerke bereits am Netz sind, kann die Lastanpassung im Bereich von wenigen Sekunden erfolgen.
Spitzenlastkraftwerke
Die Spitzenlastkraftwerke springen dann ein, wenn die Mittellastkraftwerke mit ihrer Regelreserve bestimmte Grenzen überschreiten. Spitzenlastkraftwerke können aus dem Stand hochgefahren werden, benötigen aber mehrere Minuten Zeit, um ihre Leistung zur Verfügung stellen zu können. Sobald die Leistung verfügbar ist, fahren die Mittellastkraftwerke ihre Regelenergie wieder zurück, um diese für eventuell weitere Lastspitzen zur Verfügung zu haben.
Ökostromanlagen
Die Ökostromanlagen sind bis auf Biogas-und Wasserkraftanlagen nicht grundlastfähig und können auch keine Regelenergie zum Lastausgleich zur Verfügung stellen. Die Anteile der Biogas und Wasserkraftwerke sind so gering, dass sie zur Stabilisierung nichts beitragen können, deshalb laufen sie immer mit voller Last. Windkraft- und Solaranlagen produzieren den Strom wetter- und tageszeitabhängig. Da diese Anlagen durch die EEG Verordnung Vorrang bei der Netzeinspeisung haben, erzeugen sie zusätzlich zur Stromnachfrage Schwankungen in der Stromversorgung. Zum Ausgleich von Schwankungen können sie selbst nicht beitragen. Das müssen dann ebenfalls die Mittellastkraftwerke übernehmen.
Wie wird das Stromnetz stabilisiert ?
Das Maß für das Gleichgewicht zwischen Stromverbrauch und Stromerzeugung ist die Netzfrequenz. Diese ist im gesamten europäischen Netzverbund gleich. Die Netzfrequenz ist also die Regelgröße.
Was passiert bei Strommangel ?
Steigt der Strombedarf im Netz über die gerade erzeugte Leistung an, erhöht sich die Last der Generatoren in den Kraftwerken. Die erhöhte Last zieht die Drehzahl der Turbinen nach unten. Der erhöhte Strombedarf wird dann zunächst durch die Rotationsenergie der Grundlastkraftwerke ausgeglichen, bis die Mittellastkraftwerke den Zusatzbedarf zur Verfügung gestellt haben. Bei noch höherem Bedarf springen dann zusätzlich auch noch die Spitzenlastkraftwerke an.
Was passiert bei Stromüberschuss ?
Bei geringerer Nachfrage erhöht sich die Netzfrequenz, da die Generatoren durch den überschüssigen Strom zusätzlich angetrieben werden und sich dadurch die Drehzahl der Turbinen erhöht. Die Mittellastkraftwerke reduzieren dann die Stromerzeugung bis die Netzfrequenz wieder bei 50 Hz liegt. Diese können aber die Last nur bis zu ihrer unteren Betriebsgrenze reduzieren, deshalb kann es immer noch zu einer Stromüberproduktion kommen. Dann pumpen zunächst die Pumpspeicherwerke Wasser in ihre Staubecken. Reicht dies nicht aus muss der zu viel produzierte Strom ins Ausland exportiert werden. Da dies sehr schnell erfolgen muss, wird der Strom immer öfter zu Negativpreisen verkauft d.h. die Netzbetreibe bezahlen noch dafür dass der überschüssige Strom abgenommen wird.
Wie stark darf die Netzfrequenz abweichen ?
Die maximale Abweichung in der Netzfrequenz darf +/- 0,2 Hz betragen. Das sind gerade +/- 12 Umdrehungen in der Minute an den Turbinen. Das hört sich nicht nach viel an, kann aber an den Turbinen bzw. den Generatoren in den Kraftwerken bereits zu schweren Schäden führen. Überschreitet die Netzfrequenz die zulässige Toleranz, erfolgt eine automatisierte Zwangsabschaltung der Kraftwerke. Dies würde eine Kettenreaktion auslösen, welche unweigerlich in einen europaweiten Blackout endet.
Die aktuelle Netzfrequenz und die gerade eingesetzte Regelenergie kann man hier live (https://www.netzfrequenzmessung.de/index.htm) verfolgen.
Können Ökokraftwerke das Stromnetz stabilisieren ?
Wind- und Solarkraftwerke produzieren den Strom nach der aktuellen Wetterlage oder Tageszeit. Denn ohne Wind arbeitet kein Windkraftwerk und Solaranlagen produzieren keinen Strom wenn es dunkel ist. Diese Anlagen können nicht mehr Strom produzieren, als die aktuelle Bedingungen es gerade zulassen. Damit sind diese Anlagen aber auch nicht in der Lage zur Stabilisierung des Netzes abrufbare Regelenergie zur Verfügung zu stellen.
Was machen Wechselrichter ?
Da diese Anlagen ihren Strom über Wechselrichter ins Netz einspeisen, erschweren sie die Regelung zusätzlich. Die Wechselrichter fragen die aktuelle Netzfrequenz ab und speisen den Strom genau mit diesem abgefragten Wert ein. Das tun sie auch dann, wenn bereits eine große Abweichung zum Sollwert vorliegt. Dies erschwert somit den regulierenden Mittel- und Spitzenkraftwerken das Einregeln des Sollwertes zusätzlich. Überschreitet die Netzfrequenz den oberen Grenzwert bei 50,2 Hz trennen sich die Windkraft-und Solaranlagen automatisch vom Netz.
Das ist in den Wechselrichtern so programmiert. Trennen sich aber hunderte von Anlagen nahezu gleichzeitig wegen Stromüberproduktion vom Netz automatisiert ab, kann die Frequenz schlagartig nach unten durchtauchen. Deshalb schaltet der Netzbetreiber einzelne steuerbare Anlagen vorher ab. Die betroffenen Anlagenbetreiber erhalten dennoch eine Vergütung für den Strom, den sie in der Abschaltphase hätten erzeugen können.
Smart-Meter erleichtern die Stabilisierung
Um das gesamte Stromnetz vor einer drohenden Abschaltung schnell zu stabilisieren wäre es für die Netzbetreiber von großem Vorteil direkten Zugriff auf einzelne Verbrauchergruppen über einen intelligenten Stromzähler bzw. Smart-Meter zu bekommen. Durch Abschaltung oder Limitierung des Strombezugs einzelner Verbraucher könnte der Netzbetreiber bei Strommangel die aktuelle Last im Netz unmittelbar absenken. Durch ein automatisiertes Einschalten großer Verbraucher, wie z.B. Wärmepumpen- und Nachtspeicherheizungen, könnte der Netzbetreiber die Probleme bei Stromüberangebot besser regeln.
Kann ein Stromnetz aus 100% Ökostrom funktionieren ?
Bis heute gibt es keine technische Lösung, um ein Stromnetz nur mit Ökostromanlagen stabil zu betreiben. Die entsprechende Regelenergie müssten in diesem Fall Biogasanlagen und Wasserkraftwerke zur Verfügung stellen. Hierzu wäre ein Ausbau der Biogas- und Laufwasserkraftwerke auf die Kapazitäten der in Zukunft abgeschalteten Atom- und Kohlekraftwerke erforderlich. Das ist jedoch völlig utopisch, denn alleine die Biogasanlagen würden mehr landwirtschaftlich genutzte Fläche benötigen als in Deutschland zur Verfügung steht. Bei Wasserkraft sind die in Deutschland zur Verfügung stehenden Möglichkeiten bereits weitgehend ausgenutzt.
Alternativ wären theoretisch auch Batteriespeicher denkbar. Batteriespeicher in dieser Größenordnung sind aber weder technisch realisierbar noch wären sie in absehbarer Zeit bezahlbar.
Ein weiteres Problem bei den Wind- und Solarkraftwerken ist es, dass sie nicht „schwarzstartfähig“ sind. Dies bedeutet, dass diese Anlagen nicht in der Lage sind nach einem Stromausfall das Netz wieder aufzubauen. Diese Anlagen benötigen eine betriebsfähiges Netz mit Spannungs- und Frequenzwerten im stabilen Zustand um den produzierten Strom einspeisen zu können. Schwarzstartfähig sind bei den Ökokraftwerken lediglich die Wasser-und Biogasanlagen. Deren Leistung reicht aber bei weitem nicht aus gegen die Last eines komplett abgestürzten Stromnetzes den Netzbetrieb wieder herzustellen.
Ein Blackout ist absehbar
Es ist jetzt schon abzusehen, dass mit der Abschaltung weiterer Atom- und Kohlekraftwerke nicht mehr genug Regelenergie zur Verfügung stehen wird um das gesamte Stromnetz stabil betrieben zu können.
Am 08. und 10. Januar 2021 gab es jeweils einen Frequenzabfall im europäischen Stromnetz bei denen ein Blackout in letzter Sekunde gerade noch verhindert wurde.
Quelle:
https://blackout-news.de/informationen-zum-blackout/wie-wird-das-stromnetz-stabilisiert/
IIIIIIIIIIIIIIIIIIII
WIEVIEL WINDRÄDER NOCH ?
von Dr. Dipl.-Ing. Detlef Ahlborn
Hier soll die Frage beantwortet werden, wie viele Windkraftanlagen in Deutschland aufgebaut werden müssen, um einen Teil der elektrischen Leistung des Netzes sicher zur Verfügung zu stellen. Eine "sichere Bereitstellung" soll hier so verstanden werden, dass die elektrische Leistung bei Windflauten aus Gaskraftwerken zur Verfügung gestellt werden. Nach den Vorstellungen einiger Kasseler Professoren soll es irgendwann möglich sein, das Methangas zur Befeuerung der Gaskraft-werke auf elektrischem Wege aus Windstrom zu erzeugen.
Dieser Prozess ist bei Wikipedia beschrieben. Leistungen aus Solarkraftwerken können in dieser Betrachtung unberücksichtigt bleiben, weil die gesicherte Grundlast aus dieser Energieform im Winter praktisch auf Null sinkt. In einer unverdächtigen Studie des Freiburger Fraunhofer-Instituts für Solare Energiesysteme zur hundertprozentigen Energieversorgung mit erneuerbaren Energien werden neben anderen Kraftwerkstypen Windkraftanlagen (WKA) mit einer Nennleistung von 170.000 MW auf dem Festland beschrieben. Realisiert man diese Nennleistung durch Anlagen mit 3 MW, so müssen dazu rund 57.000 WKA gebaut werden.
Foto (8)
Bei einem Flächenverbrauch von 5 ha pro Anlage wird dafür eine Fläche von 2.900 km2 verbraucht, wenn man diese Anlagen dicht an dicht bauen würde. Deutschland hat eine Gesamtfläche von 360.000 km2 der Flächenverbrauch der WKA selbst spielt also zunächst keine große Rolle. Wenn man die erforderliche Zahl von WKA ausrechnen will, kann man den Flächenverbrauch der Anlagen selbst zunächst vernachlässigen.
Wir betrachten nun eine einzelne WKA mit einer elektrischen Nennleistung, die mit dem Formelzeichen P_A bezeichnet werden soll. Typische geplante Leistungen liegen bei P_A = 3 MW=3.000 kW.
Da eine WKA praktisch nie bei Nennleistung betrieben werden kann, weil der Wind selten mit der entsprechenden Intensität weht, liegt die durchschnittliche (tatsächliche) Leistung immer ganz wesentlich darunter. Diese Tatsache wird durch die sogenannte Volllaststundenzahl (Formelzeichen T_V) erfasst. Typische Werte liegen auf dem Festland um 1.800 h , andere Autoren stellen zwar größere Werte von bis zu 2.500 h in Aussicht- die durchschnittliche Volllaststundenzahl lag für alle existierenden WKA in Deutschland im Jahr 2012 allerdings nur bei 1.500 h. Das Jahr hat 8.760 h. Die durchschnittliche Leistung einer WKA (Formelzeichen P_WKA) liegt demnach bei
P-WKA = T_V / 8.760 x P_A
Mit den angegebenen Werten für die Volllaststundenzahl liegt die durchschnittliche Leistung einer WKA demzufolge zwischen 16 und 20 % der Nennleistung. Eine WKA mit einer Nennleistung von 3 MW=3000 kW hat also eine durchschnittliche Leistung zwischen 500 und 600 kW. Die Spitzenleistung im deutschen Stromnetz tritt an Wintertagen auf und beträgt 80.000 MW, womit klar ist, dass es einer beträchtlichen Zahl von Windrädern bedarf, um ein solches Netz mit Strom zu versorgen.
Es soll nun diese beträchtliche Zahl an WKA ausgerechnet werden, mit der ein elektrisches Netz sicher betrieben werden kann.
Hierbei sollen die Windräder mit einem Methanisierungs- Speicher- Gaskraftwerk kombiniert werden: Wenn die Windintensität nicht ausreicht, wird das Netz durch Gaskraftwerke gestützt, wenn die Windleistung größer ist als der Strombedarf vom Netz, wird die überschüssige Energie in Form von Methangas gespeichert.
Die Anzahl der WKA soll mit N bezeichnet werden. Wir kennen diese Zahl noch nicht, wir wollen diese Zahl aber hier berechnen und wollen dabei auch die Verluste bei der Speicherung und die Volllaststundenzahl berücksichtigen
Wenn der Wind ausreichend weht, können die WKA das elektrische Netz direkt mit Strom versorgen, überschüssige Windleistung wird in chemische Energie in Form von Methan gewandelt und ins Erdgasnetz gespeichert. Bei der Wandlung der überschüssigen elektrischer Energie in Methan und zurück in elektrische Energie gehen rund 70 % der Energie verloren.
Vor diesem Hintergrund ist es schon begrifflich fragwürdig, überhaupt von Speicherung zu sprechen. Dieser miserable Wert ist keineswegs eine Folge mangelnder Ingenieurskunst, sondern eine Folge aus einem fundamentalen Naturgesetz, das Physikern und Ingenieuren als Zweiter Hauptsatz der Thermodynamik geläufig ist. Jede noch so intensive Forschung wird daran nichts ändern.
Eine genauere Rechnung zeigt, dass im gesamten Prozess zwischen WKA und Verbraucher etwa die Hälfte der ursprünglichen Windenergie verloren geht. Das erklärt sich dadurch, dass ein Teil der gewandelten Windenergie mit geringen Verlusten ins Netz gespeist wird- die gesamte Energieausnutzung liegt daher mit einem Wirkungsgrad (Formelzeichen w) von 50 % über dem 30%- Wirkungsgrad des Power-to ‑Gas-to- Power Prozesses.
Wenn nun N WKA mit einer durchschnittlichen Leistung zwischen 16 und 20 % der Nennleistung und einem Wirkungsgrad von w = 50 % zusammengeschaltet werden, dann haben diese Anlagen eine durchschnittliche Gesamtleistung (Formelzeichen P_G) von
P_G = N_w x T_V / 8.760 x P_A
Um diesen Zusammenhang mit etwas Sinn zu erfüllen, sollen nun konkrete Zahlen eingesetzt werden: Es sollen 1.000 Windräder mit einer Nennleistung von 3 MW betrachtet werden. Die Volllaststundenzahl soll T_V = 1.800 betragen. Dann hat N den Wert 1.000 und die Nennleistung einer Anlage den Wert 3 MW. Man kann also P_A = 3 MW in die Formel einsetzen:
P_G = 1.000 x 50/100 x 1.800/8.760 x 3 MW = 310 MW
Im Verbund mit einem Power-To-Gas Speichersystem haben 1.000 Windräder mit einer Nennleistung von 3.000 MW eine durchschnittliche Leistung, die bei rund einem Zehntel der Nennleistung liegt. Die durchschnittliche Leistung eines einzelnen Windrads mit 3 MW = 3.000 kW liegt dann bei 300 kW. Die exzessive Verschleuderung von Ressourcen und den flächendeckenden Raubbau an der Natur kann man ermessen, wenn man sich klarmacht, dass drei moderne Turbodieselmotoren mit einem Hubraum von 2 Litern eine größere Leistung haben. Diese Motoren würden samt Generator in jedes deutsche Wohnzimmer passen.
Um sich nun zu überlegen, wie viele Windräder es braucht, um ein Viertel der durchschnittlichen Netzleistung von 68.500 MW durch Windkraft zu ersetzen, kommt man mit dem elementaren Dreisatz unmittelbar zum Ziel: Wenn 1.000 Windräder eine Durchschnittsleistung von 310 MW haben, dann haben X Windräder eine durchschnittliche Leistung von 20.000 MW.
Nach einschlägigen Rechenregeln aus der siebten Klasse (!) ergibt sich als erforderliche Zahl von Windrädern:
X = 17.125 MV / 310 MV x 1000 = 55.240
Diese doch recht beträchtliche Zahl sagt zunächst nicht viel aus. Sie gewinnt etwas an Anschaulichkeit, wenn man sich vergegenwärtigt, dass Anfang 2013 rund 23.000 Windräder in Deutschland installiert waren. In jeder Studie wird empfohlen, Windräder in Windparks zusammenzufassen. Dieser Empfehlung wollen wir hier nachkommen und 55.240 Windräder in Windparks zu je 10 Anlagen zusammenfassen. Diese 5.524 Windparks sollen in Gedanken gleichmäßig über ganz Deutschland verteilt werden.
Durch diese Anordnung wollen wir der Hoffnung Rechnung tragen, dass eine gleichmäßige Verteilung der Anlagen die Stromeinspeisung glättet. Diese immer wieder formulierte Hoffnung ist zwar unzutreffend und von uns hier widerlegt, der Empfehlung wollen wir dennoch folgen.
Deutschland hat eine Gesamtfläche von 360.000 Quadratkilometer.
Diese Fläche teilen wir nun in ein Schachbrettmuster aus gleichen Quadraten auf und wir stellen uns vor, dass wir in der Mitte eines jeden Quadrats einen Windpark mit je 10 Windrädern bauen. Jedes dieser kleinen Quadrate hat dann eine Fläche von
A = 360.000 km2 / 5.524 = 65 km2
Zunächst erscheint diese Fläche recht groß; dieser Eindruck täuscht jedoch: Ein Quadrat mit einer Fläche von 65 km2 hat eine Kantenlänge von 8 km.
Fazit
Wir kommen also zu dem überraschenden Schluss, dass wir die gesamte Fläche Deutschlands von Flensburg bis nach Berchtesgaden, von Aachen bis nach Görlitz im Abstand von durchschnittlich 8 km mit Windparks zubauen müssen, um ein Viertel der Stromversorgung Deutschlands mit Windkraftanlagen sicherzustellen.
Der Vollständigkeit halber sei an dieser Stelle angemerkt, dass sich an dieser Tatsache nichts Wesentliches ändert, wenn man größere Volllaststundenzahlen in Ansatz bringt: Bei einer Volllaststundenzahl von 2500 h werden 40.000 Windräder benötigt und der Abstand von Windpark zu Windpark erhöht sich von 8 km auf 9,4 km.
Diese Zahlen sind keineswegs aus der Luft gegriffen: In der bereits erwähnten Studie des Fraunhofer-Instituts ISE in Freiburg wird beispielsweise eine mittlere Volllaststundenzahl von 1800 h und eine Nennleistung der Windkraftanlagen von 170.000 MW (das entspricht 57.000 Windkraftanlagen mit je 3 MW) angenommen.
Keiner dieser Abstände ist in Deutschland umsetzbar: Kein vernunftbegabter Bürger würde eine solche flächendeckende Schändung unserer Landschaften dulden. Für unser Land ist das ein ökologisches Horrorszenario. Politiker, die solche Szenarien ernsthaft betrieben, würden sich ohnehin sehr bald dort wiederfinden, wo sie hingehören: Auf den harten Bänken der Opposition.
Die vorstehende Betrachtung wirft auch ein Schlaglicht auf die Verschleierungstaktik einschlägiger Institute und die völlige Realitätsferne jener Politiker, die sich dieser Studien in der öffentlichen Diskussion gern bedienen.
Allen ruft der Verfasser zu: Besinnen Sie sich auf die Gesetze der Physik und befassen Sie sich mit dem elementaren Dreisatz. Lassen Sie Ihre Vernunft walten und denken Sie selbst über die Dinge nach, die Ihnen in Szenarien, Konzepten und Gutachten einschlägig bekannter Professoren vorgegaukelt werden.
Quelle: www.vernunftkraft.de
IIIIIIIIIIIIIIIIIIII
DAS DEUTSCHE MÄRCHEN VOM GROSSEN STROMSPEICHER
HANDELSBLATT-PODCAST / Interview mit
Leiter des Institutes IGTE der Uni Stuttgart, Professor für Thermodynamik und Magnetfluiddynamik. Er leitet seit 2014 das Deutsche Zentrum für Luft- und Raumfahrt (DLR).
Prof. Dr. A. Thess lehrt an der Universität Stuttgart und forscht zur effizienten und ressourcenschonenden Energiespeicherung sowie zu Energieumwandlungstechnologien der nächsten Generation.
Er gehört zu den Erstunterzeichnern der "Stuttgarter Erklärung" (2022)
........... hier zu seinem Buch
SIEBEN ENERGIEWENDE-MÄRCHEN Eine Vorlesungsreihe für Unzufriedene
................. hier zu einem weiteren Video-Interview mit Prof. Dr. André Thess
IIIIIIIIIIIIIIIIIIII
ÜBER DIE PHYSIKALISCHE PLAUSIBILITÄT VERSCHIEDENER SPEICHER-TECHNOLOGIEN
von Dr. Dipl.-Ing. Detlef Ahlborn
Vor 200 Jahren musste ein Müller einfach akzeptieren, dass er bei einer Flaute kein Mehl mahlen konnte. In größerem Umfang standen außer Wasser und Wind keine Energiequellen zur Verfügung.
Erst mit der Erfindung der Dampfmaschine und der durch sie angetriebenen Industrialisierung sind wir mit unserem Energiebedarf unabhängig vom Wettergeschehen. Mit dem exzessiven Ausbau von Windkraft- und Solarenergie sind wir im Begriff, uns in diese Abhängigkeit zurück zu begeben.
Immer wenn neue Windkraftanlagen in die Landschaft gesetzt werden, wird von den Projektierern behauptet, diese Anlagen seien in der Lage, eine bestimmte Anzahl von Haushalten mit Energie zu versorgen. Diese Behauptungen sind schlicht der Versuch, die Bürger für dumm zu verkaufen.
Ohne Wind produziert ein Windrad nun mal keinen Strom. Würden solche Anlagen tatsächlich die Haushalte versorgen, würden bei einer Flaute die Lichter ausgehen. Strom muss im gleichen Augenblick produziert werden, wie er verbraucht wird. Man kann zwar kleine Mengen an Strom in Batterien speichern, der Bedarf an Energiespeichern in Stromnetzen ist aber gigantisch groß. Speicher in der erforderlichen Größe sind in Deutschland nicht vorhanden.
Das lässt sich anhand eines einfachen Beispiels verdeutlichen: Einer der größten Stauseen in Deutschland ist der Edersee.
Bild vom Edersee
Blick auf den Edersee in Nordhessen.
Mit seinem Fassungsvermögen von 200 Mio m3 ist er in der Lage, eine Energie von rund 20.000 MWh zu speichern. Das 20 MW Kraftwerk am Fuße der Staumauer könnte mit dieser zur Verfügung stehenden Energie rund 40 Tage lang ein Netz stützen.Dann ist der Edersee leer (!)
Die Windkraftanlagen beim Netzbetreiber Amprion etwa haben im Jahr 2012 im Jahresmittel eine Leistung von rund 800 MW erbracht. Das ist im übrigen die Leistung eines einzigen Kohlekraftwerks.
Wollte Amprion eine vierwöchige Flaute überbrücken, müsste man 540.000 MWh elektrische Energie in irgendeiner Form vorhalten. Dieses Speichervolumen übertrifft den Energieinhalt des Edersees um das 25- fache.
Selbst am gegenüber Erneuerbaren Energien sehr wohlwollend eingestellten ISET-Institut in Kassel hat man inzwischen eingesehen, dass Wasserspeicher als Technik ausscheiden:
„Ein ökologisch nachhaltiger Ausbau dieser Technologie in Mitteleuropa ist in dieser Größenordnung nicht vorstellbar, da sehr viele Eingriffe in die Natur stattfinden müssten und diese Kapazitäten rein technisch nicht vorhanden sind.“
Obgleich sich Hundertschaften von Wissenschaftlern in dutzenden Instituten mit regenerativen Energien beschäftigen, steht eine belastbare Aussage zur Frage der Energiespeicherung bis heute aus.
Bevor man sich auf genaue Vorhersagen einlässt, ergehen sich die Autoren gern in halbkonkreten Allgemeinplätzen.
Bezeichnend die folgende Aussage, die man im Büro für Technikfolgenabschätzung im Deutschen Bundestag gewonnen hat.
Im Bericht Nr 147 vom April 2012 ist man zu folgender Erkenntnis gekommen:
„Die Abschätzung des zukünftig entstehenden Bedarfs an Speichersystemen ist methodisch äußerst komplex. Einen Bedarf an Speichern »an sich« gibt es nicht.“
Angesichts der Tatsache, dass der Ausbau von Windkraft- Solaranlagen plan- und rücksichtslos voranschreitet, ist deren Erkenntnis
„dass der gegenwärtige Wissensstand nicht ausreicht, um eindeutige und belastbare Aussagen zum künftigen Speicherbedarf treffen zu können“
geradezu grotesk!
Immerhin räumen die Fachleute im Bundestag ein, dass es eventuell einen Speicherbedarf geben könnte:
„Dennoch könnten Langzeitspeicher auf lange Sicht in der Perspektive einer Vollversorgung mit RES‑E (gemeint sind erneuerbare Energien, d. Verf.) in gewissem Umfang notwendig sein.“
Die Verwendung des Konjunktivs ist an dieser Stelle eine intellektuelle Zumutung.
Am IWES (institute for wind energy and energy systems) in Kassel ist man in 2011 zu dieser konkreteren Einsicht gekommen:
„Netzausbau, Erzeugungs- und Lastmanagement können das Problem der Speicherung nicht lösen, da jedes Jahr über ein bis zwei Wochen das Angebot von Wind- und Solarenergie äußerst gering ausfällt und sich über diesen Zeitraum der Strombedarf nicht ausreichend verschieben lässt. Diese Situationen treten vor allem in den Herbst- und Wintermonaten auf, wenn sich beispielsweise ein stabiles sibirisches Hoch über ganz Europa etabliert, was eine europaweite Windflaute mit sich bringt.“
An dieser Stelle kann den Wissenschaftlern in Berlin, darunter immerhin zwei Physiker, etwas geholfen werden, eine Antwort auf die „komplexe Frage“ zu finden:
Wenn nur die Hälfte des Leistungsausfalls von Wind- und Solarstrom (das entspricht einer Kraftwerksleistung von 40.000MW) durch einen Speicher über 3 Wochen ausgeglichen werden soll, entspricht dies einer Strommenge von rund 20.000.000 MWh.
Energetisch ist das das Tausendfache der Energiemenge des randvollen Edersees.
Damit ist erwiesen, dass Pumpspeicherkraftwerke keine ernstzunehmende Option sind.
Für „Wissenschaftler“, die darüber noch nachdenken, gilt übrigens das gleiche.
Sowohl Solar- als auch Windkraftanlagen haben eine Leistungscharakteristik, die für eine gleichmäßige Stromversorgung ungünstiger nicht sein könnte:
Beim Windkraftwerk liegt das daran, dass sich die Leistung (kW) verachtfacht, wenn sich die Windgeschwindigkeit nur verdoppelt. Dadurch entstehen bei schwachem Wind große Versorgungslücken. Die Leistung des Kraftwerks sinkt auf extrem kleine Werte ab.
In diesem Zusammenhang wird oft behauptet, dass diese Schwankungen durch weiter entfernte Windkraftanlagen ausgeglichen werden können. Dies ist unzutreffend. Die Behauptung, der Wind wehe immer irgendwo, ist reine Augenwischerei!
Denn es entsteht auch im großflächigen Verbund bei einer großen Anzahl von Windkraftanlagen ein volatiler Leistungsverlauf mit extremen Schwankungen.
Das ist ungefähr so, als würden bei einem Automotor zufällig mal einer und dann mal alle Zylinder nacheinander ausfallen.
Da man inzwischen eingesehen hat, dass für Pumpspeicherkraftwerke offensichtlich kein Platz in unserem Land ist, ist man auf den Gedanken verfallen, „überschüssige Windenergie“ in einem mehrstufigen Prozess als chemische Bindungsenergie in Form von Methangas im Erdgasnetz zu speichern – schließlich seien die Speicherkapazitäten im Gasnetz vorhanden.
Mit dem synthetisch erzeugten Gas sollen dann in windschwachen Zeiten sogenannte Backup-Kraftwerke zur Stützung des Stromnetzes befeuert werden.
Hinter dieser Technik verbirgt sich eine gigantische Verschleuderung und Verschwendung von hochwertiger elektrischer Energie.
Es lohnt sich, diesen Prozess und die damit verbundenen Energieverluste genauer anzusehen.
Er besteht aus folgenden Schritten:
(1.) Verwandlung von Drehstrom in Gleichstrom in einem Gleichrichter (Verluste 5%)
(2.) Erzeugung von Wasserstoffgas durch Elektrolyse (Verluste 20%)
(3.) Synthese von Methangas aus Kohlendioxid und Wasserstoffgas (Verluste 20%)
(4.) Einspeicherung von Methangas in unterirdischen Speichern (Verluste 2%)
(5.) Betrieb eines Gas- Kombikraftwerks mit dem gespeicherten Methan (Verluste 50%)
Die hier angegebenen Wirkungsgrade sind optimistische Schätzungen. In der Summe bleiben von der ursprünglichen Energie im günstigsten Fall 30% übrig.
Diese Technik ist in einer kleinen Pilotanlage inzwischen umgesetzt – hier wird ein Gesamtwirkungsgrad von 16% erreicht.
Für das Jahr 2013 ist eine Anlage mit einer Leistung von 6MW geplant. Hier hat man einen Gesamtwirkungsgrad von 21% in Aussicht gestellt.
Diese Verluste können nur gedeckt werden durch einen weiteren Zubau von Wind- oder Solarkraftwerken: Für jede rückverstromte Kilowattstunde müssen 3,5kWh Strom in den Methanisierungsprozeß eingespeist werden.
Immerhin hat man erkannt, wie es in einer einschlägigen Veröffentlichung vom Kasseler IWES lapidar heißt
„einzig die Technologie ‚Strom zu Gas’ bzw ‚Elektrolyse’ und ‚Methanisierung’ bleibt noch umzusetzen“.
Diese sogenannte „Technologie“ haben die Kasseler Professoren offensichtlich nicht ganz zu Ende gedacht!
Das soll hier anhand eines Beispiels nachgeholt werden:
Bei einem Windkraftwerk stehen im Jahresdurchschnitt rund 16% der Nennleistung zur Verfügung- ein Windrad, das bei ausreichender Windstärke seine Nennleistung von beispielsweise 2000kW erbringen könnte, liefert im Jahresdurchschnitt nur 320kW.
Betrachtet man, wie oft dieser Wert erreicht bzw. überschritten wird, kommt man zu der interessanten Erkenntnis, dass dieser Wert in rund 66% der Betriebszeit eines Windkraftwerks (das sind rund 8 Monate im Jahr) nicht erreicht wird.
Während dieses Zeitraums ist die Leistung kleiner. Hohe Leistungen von Windkraftwerken sind also relativ selten.
Der Eindruck, dass Windkraftwerke die meiste Zeit still stehen, ist kein subjektiver Eindruck, sondern eine statistisch erwiesene Tatsache.
Während dieser Zeit steht „überschüssige Windenergie“ nicht nur nicht zur Verfügung, das Stromnetz muss sogar noch durch konventionelle Kraftwerke gestützt werden.
Heute erfolgt diese Stützung durch konventionelle Kraftwerke, irgendwann „perspektivisch“ eventuell auch durch Speicher.
„Überschüssige Windenergie“ steht also nur für eine begrenzte Zeit im Jahr zur Verfügung.
Das hat zur Folge hat, dass Anlagen zur Wandlung und Speicherung der Energie ins Erdgasnetz lange Stillstandszeiten haben.
In allerlei Veröffentlichungen wird versucht, die miserablen Wirkungsgrade im „Power-Gas-Power“ Prozess mit dem Argument schön zu rechnen, man könne die Abwärme in geeigneter Weise nutzen.
Hier muss man sich der Tatsache stellen, dass diese Abwärme je nach Leistung der Anlagen zur Methanisierung zwischen 4 und 5 Monaten im Jahr nicht zur Verfügung steht, weil diese Anlagen mangels überflüssigen Windes still stehen.
Das gleiche gilt für die sogenannten Backupkraftwerke, die zwischen 7 und 8 Monaten im Jahr still stehen.
Die in einer IWES-Veröffentlichung im Oktober 2011 in der Schweizer Zeitschrift "Gas Wasser Abwasser" aufgestellte Behauptung,
„Gleichwohl lassen sich durch geeignete KWK-Konzepte unter Nutzung der Abwärme der Strom-zu-Gas- und Gasverstromungsprozesse die energetischen Wirkungsgrade auf ca. 55% bis 60% steigern“ stellt sich vor dem Hintergrund der schlechten Verfügbarkeit als nicht stichhaltig heraus, zumal die Wärmeströme mit dem Wind starken Schwankungen unterliegen.
Die mit dieser „Technologie“ erforderlichen Anlagen zur Energiewandlung und –speicherung („Methanisierung“) haben naturgemäß eine begrenzte Kapazität (Nennleistung) zur Aufnahme der überschüssigen Windleistung.
Energiebeiträge oberhalb ihrer Nennleistung können nicht genutzt werden- die entsprechenden Windkraftwerke müssen abgeregelt werden. Deren Energie kann dann für die Speicherung nicht genutzt werden- sie muss aus technischen Gründen verworfen werden. Dieser Sachverhalt ist evident, wenn man sich klar macht, dass die Pumpe in einem Pumpspeicherkraftwerk nicht mehr Leistung aus dem Netz aufnehmen kann, als ihre Nennleistung. Die „überschüssige Windenergie“ kann also nie in vollem Umfang für die Speicherung genutzt werden, ein Teil geht immer verloren.
Auch wenn man die Nennleistung der Anlagen zur Wandlung der Windenergie doppelt so groß wählt wie die erforderliche Leistung des zu versorgenden Netzes, erhält man sehr hohe Energieverluste beim Power-To Gas- Speicherprozess. Es stellt sich heraus, dass im Gesamtprozess ungefähr die Hälfte der einmal in Elektrizität gewandelten Windenergie als Abwärme verloren geht. Diese Verluste sind keineswegs mangelhafter Ingenieurskunst, sondern einem fundamentalen Naturgesetz geschuldet, das dem Fachmann als Zweiter Hauptsatz der Thermodynamik geläufig ist. Schon heute steht abseits aller Forschungsanstrengungen fest, dass dieses Naturgesetz die Effizienz der Energiewandlung von Methangas zurück in elektrische Energie begrenzt.
Um nun ein Stromnetz mit „regenerativen Energien“ zu betreiben, müssen zum einen die Wandlungsverluste im Power – Gas– Power Prozess gedeckt werden und zum anderen zusätzliche Leistungen (Wind- oder Solarkraftwerke) installiert werden, um den Anteil an ungenutzter Windenergie in den Leistungsspitzen energetisch zu ersetzen.
Der hier erforderliche technische Aufwand ist schwindelerregend.
Wenn bis heute 10.000 MW Kraftwerksleistung ausreicht, um ein Netz mit 10.000 MW zu betreiben, so sind unter Verwendung der vorgeschlagenen „Technologie“ nunmehr folgende Nennleistungen zu installieren:
90.000 bis 100.000 MW Windkraftwerke oder 200.000 bis 220.000 MW Photovoltaik Anlagen
und
20.000 bis 30.000 MW Anlagen zur Wandlung von elektrischer Energie in Methangas
und
10.000 MW Kraftwerksleistung zur Stützung des Netzes bei Windstille.
Für eine der führenden Wirtschaftsnationen der Welt ist das unter wirtschaftlichen und Naturschutz- Gesichtspunkten schlicht ein Horrorszenario:
Auf je 10.000 MW vom Netz genommene Kraftwerksleistung werden zwischen 30.000 und 35.000 Windräder zu je 3 MW Leistung benötigt. Nach einschlägigen Regeln verbrauchen diese Windräder zwischen 5000 und 6000 Quadratkilometern Landschaft, wenn sie im Raster von 300 x 500m aufgestellt werden.
Das ist die doppelte bis dreifache Fläche des Saarlands.
Diese Flächen wären faktisch unbewohnbar.
Das Fazit kann nur lauten :
Ein ökologisch nachhaltiger Ausbau dieser Technologie in Deutschland ist in dieser Größenordnung nicht vorstellbar, da sehr viele Eingriffe in die Natur stattfinden werden und diese Kapazitäten rein technisch nicht darstellbar sind.
Auf Basis einer bloßen Zukunftsvision in großem Stil und im Eiltempo Erzeugungskapazitäten für nicht grundlastfähigen Strom aufzubauen, und dafür zunehmend die Natur zu schädigen, erscheint uns – gelinde geagt – extrem unvernünftig.
Quelle: www.vernunftkraft.de
IIIIIIIIIIIIIIIIIIII
KLIMA WAHRHEITEN - WARUM SICH DAS KLIMA ÄNDERT
- Fakten zum Klimawandel und zur Energiekrise -
von Dr.-Ing. Bernd Fleischmann
In diesem Vortrag zeigt der Autor Dr.-Ing. Bernd Fleischmann, dass das Narrativ der Klimakrise in allen Punkten widerlegt ist. Die Treibhaustheorie liefert unphysikalische Ergebnisse, kann mit den
beobachteten Temperaturen der Planeten-atmosphären nicht in Einklang gebracht werden und kann weder die paläo-klimatischen Temperaturveränderungen noch die Temperaturerholung nach der kleinen Eiszeit erklären. Sie ist ein längst überholtes Paradigma.
Die konvektiv-adiabatische Theorie von Poisson und Maxwell kann diese Phänomene erklären - inVerbindung mit den Veränderungen der Sonnenstrahlung und den Ozeanzyklen. Die Klimasensitivität von CO2 beträgt wegen der negativen Rückkopplungen deutlich weniger als 1 °C. Die von den Medien angefeuerte Klimahysterie ist deshalb der größte Wissenschafts-Skandal der Neuzeit und die von Politikern beschlossenen Maßnahmen gegen die eingebildete „Klimakrise“ nützen weder den Menschen noch der Natur.
Ganz im Gegenteil, die Ökosteuern vergrößern das soziale Gefälle, ihre Einführung auf internationaler Ebene mit den begleitenden dirigistischen Maßnahmen (die „große Transformation“ ) ist undemokratisch, der Landschaftsverbrauch für „nachwachsende Rohstoffe“ reduziert die Artenvielfalt und schadet dem Regenwald und die sogenannte „Energiewende“ gefährdet unseren Wohlstand und zerstört die Sicherheit der Stromversorgung. Abgesehen davon, dass das Geld woanders fehlt : beispielsweise im Gesundheitswesen, für Bildung, Forschung und Infrastruktur.
Das 2-Grad-Ziel, das wie ein religiöses Dogma über allen politischen Entscheidungen steht, wurde im
Atlantikum vor 5000 bis 7000 Jahren und in vergangenen Zwischeneiszeiten überschritten. Die Sahara war damals grün und Island frei von Gletschern.
Fast immer und fast überall gilt: wärmer ist besser !
Deshalb liegt die wirkliche Katastrophe in der Abkühlung, die in den kommenden Jahrzehnten als Folge einer schwächer werdenden Sonne und ins Negative drehender Ozeanzyklen droht.
Das wird zu Missernten, Hungersnöten und Völkerwanderungen aus den Weltgegenden führen, die in den vergangenen Jahrzehnten am meisten von der Erwärmung profitiert haben.
Mit den Worten des ehemaligen tschechischen Präsidenten Vaclav Klaus :
„Die größte Bedrohung für Freiheit, Demokratie, Marktwirtschaft und Wohlstand ... ist nicht mehr der Sozialismus oder
Kommunismus. Es ist stattdessen die ehrgeizige, arrogante, skrupellose Ideologie des Umweltschutzes ….... Was auf dem Spiel steht, ist nicht die Umwelt. Es ist unsere Freiheit."
Es ist Zeit für einen Paradigmenwechsel !
................ lesen Sie weiter
IIIIIIIIIIIIIIIIIIII
DEUTSCHLANDS WEG in eine "StromMangel-Wirtschaft"
von Henrik Paulitz
(1.) Einführung
Die Befürworter einer Energiewende und diejenigen, die an der konventionellen Energieversorgung festhalten, waren sich – bei allen Auseinandersetzungen – in einem Punkt stets einig: – in einem Punkt stets einig: Die Lichter dürfen nicht ausgehen. Es bestand Einvernehmen darin, dass Wohlstand und Arbeitsplätze nicht gefährdet werden dürfen. Es bestand Einvernehmen darin, dass Wohlstand und Arbeitsplätze nicht gefährdet werden dürfen. Inzwischen ist alles anders. Da eine zuverlässige Stromversorgung allein mit erneuerbaren Energien wegen der ausbleibenden Langzeitspeicher nicht machbar ist, thermische Kraftwerke aber dennoch ersatzlos abgeschaltet
werden sollen, organisiert man jetzt klammheimlich eine Strom-Mangelverwaltung, ohne die Bevölkerung und die Wirtschaft zu fragen, ob sie das tatsächlich möchte oder nicht. In der energieintensiven Industrie sind Stromabschaltungen längst an der Tagesordnung, den Privathaushalten möchte man Elektrowärmepumpen und Elektroautos aufzwingen, während man zugleich ein Gesetz entwirft, um diesen jederzeit den Strom abschalten zu
können, da natürlich nicht genügend Wind- und Solarstrom erzeugt werden kann. Es spricht Bände, dass nun ausgerechnet der Bundesverband Solarwirtschaft vor einer akut drohenden Stromlücke im zweistelligen Gigawatt-Bereich warnt, weswegen Laufzeitverlängerungen für Kohlekraftwerke „unausweichlich“ seien. Es ist unverständlich, dass in bemerkenswertem Gegensatz zum sonstigen Hang dieser Gesellschaft zum Alarmismus diese
Aussage von fast allen maßgeblichen Akteuren in Politik, Wirtschaft und Gesellschaft ignoriert wird.
Info zum Autor :
........... weiter zum Vortrag
IIIIIIIIIIIIIIIIIIII
Energiewende führt zu StromMangel-Wirtschaft, zu De-industrialisierungs-Effekten und Teil-Verarmung
von Henrik Paulitz
.......... weiter zum Beitrag
(erschienen in der "Zeitschrift für neues Energierecht ", ZNER, 02/2022)
IIIIIIIIIIIIIIIIIIII
PHYSIK DES KLIMAS -
WAS STIMMT AN DER TREIBHAUSTHEORIE UND WAS NICHT -
von Dr.-Ing. Bernd Fleischmann
(1.) Zunächst eine Liste aller Punkte, die bei der Treibhaustheorie stimmen:
Mehratomige Gasmoleküle wie Wasserdampf, Kohlendioxid (CO2), Ozon, Methan und andere absorbieren
Infrarotstrahlung und emittieren sie entsprechend ihrer Temperatur. So, das war die komplette Liste, denn
alle davon abgeleiteten angeblichen Berechnungen, Projektionen und Horrorszenarien sind falsch, jedenfalls
was die Interpretation durch Agendawissenschaftler und Profiteure in den Medien, der Politik und der
Wirtschaft betrifft.
(2.) Warum die Treibhaustheorie falsch ist – Beispiel Gewächshaus
Svante Arrhenius, der „Erfinder“ der Treibhaustheorie, beschrieb die Erwärmung im Gewächshaus als Folge
der vom Glas der Bedachung eingefangenen und zum Boden zurückgestrahlten Infrarotstrahlung. Das ist
falsch, denn ein gekipptes Fenster am Boden und eines am Dach lassen die gesamte Wärme entweichen. Der
Effekt des Gewächshauses beruht darauf, dass der Luftaustausch (die Konvektion) unterbunden ist. Das
Gewächshaus funktioniert auch mit Plastikfolie, wie jeder Landwirt weiß. Diese ist transparent für
Infrarotstrahlung, kann also keine Infrarotstrahlung einfangen oder zurückstrahlen.
(3.) Warum die Treibhaustheorie falsch ist und die konvektiv-adiabatische Theorie stimmt – Beispiel Venus
Die Venusatmosphäre besteht zu 97 % aus Kohlendioxid und die Temperatur am Boden beträgt 464 °C. Daraus leiten manche einen „galoppierenden Treibhauseffekt“ ab, angefangen beim NASA-Wissenschaftler Carl Sagan 1960. Er hatte versucht, die Temperatur der Venus mit dem konvektiv-adiabatischen Modell zu berechnen, das Lord Kelvin und James Clerk Maxwell 100 Jahre vorher beschrieben und quantifiziert haben. Sagan ist gescheitert, weil zu seiner Zeit die Temperatur der Atmosphäre und der Druck am Boden (92mal so hoch wie auf der Erde) falsch geschätzt wurden. Es gab noch keine Venussonden mit genauen Messungen.
Mit den richtigen Werten für die Atmosphäre ergibt sich die richtige Temperatur! Wenn das CO2 der Venus durch eine Mischung aus Stickstoff und Sauerstoff (wie auf der Erde) ausgetauscht würde, ergäbe sich sogareine Temperatur von über 600 °C.
Die Mär vom „galoppierenden Treibhauseffekt der Venus“ beruht also auf Messfehlern. Hätte Sagan damals Kenntnisse über die tatsächlichen Temperatur- und Druckverhältnisse der Venus gehabt, gäbe es das Postulat des „galoppierenden Treibhauseffekts“ nicht, woran viele „Klimawissenschaftler“ bis heute glauben.
(4.) Warum die Treibhaustheorie falsch ist – Beispiel Erdatmosphäre
Der Kohlendioxidanteil der Erdatmosphäre beträgt 0,04 %. Weil durch einen steigenden Kohlendioxid-Gehalt alleine kein großer Temperaturanstieg erfolgen kann, selbst nach den Berechnungen der
Treibhaustheoretiker, werden verschiedene positive Rückkopplungen postuliert, vor allem durchWasserdampf.
Die NASA schreibt dazu: (https://www.nasa.gov/topics/earth/features/vapor_warming.html) “Zunehmender Wasserdampf führt zu wärmeren Temperaturen, wodurch mehr Wasserdampf in die Luft aufgenommen wird. Erwärmung und Wasseraufnahme nehmen in einem ständigen Kreislauf zu.“
Das ist falsch, denn diese Wasserdampf-Todesspirale würde bei jeder Art der Erwärmung loslaufen und nicht auf eine Temperaturzunahme durch Kohlendioxid warten. Jedes System mit insgesamt positiver Rückkopplung
ist instabil, wie jeder Ingenieur weiß. Weil das Klima über lange Zeiträume stabil ist, müssen die
Rückkopplungen, z. B. durch Wolkenbildung, insgesamt negativ sein.
Die unrealistischen Annahmen über positive Rückkopplungen führen dazu, dass dien Wissenschaftler vom Weltklimarat" IPCC (Intergovermental Panel on Climate Change) in ihrem Bericht von 2013 (AR5, Assessment Report 5) vorhersagen, dass bei einer Verdoppelung des CO2-Gehalts in der Atmosphäre die globale Temperatur mit funfundachtzig-prozentiger Wahrscheinlichkeit um 1 bis 6 Grad Celsius ansteigen wird. Die Bandbreite von 1 bis 6 °C ist eindeutig ein Zeichen von Nichtwissen.
(5.) Warum sich das Klima ändert : durch Ozeanzyklen
5. Warum sich das Klima ändert: durch Ozeanzyklen
Kurzfristige Auswirkungen auf die globale Temperatur haben El Niño - und sein Gegenstück La Niña – und der Indische Ozean-Dipol (IOD). Starke El Niños wie 1998 und 2016 oder der IOD von 2019 heben die Temperatur global um mehr als ein halbes Grad an. Längerfristige Auswirkungen haben die Atlantische Multidekaden-Oszillation (https://de.wikipedia.org/wiki/Atlantische_Multidekaden-Oszillation) und die Pazifische Dekaden-Oszillation.
Beide verursachen Temperaturänderungen mit einer Periodizität von 60 bis 80 Jahren. 30 bis 40 Jahre lang wird es wärmer, so wie 1910 bis 1945 oder 1980 bis 2015, dann wird es wieder kälter, wie von 1945 bis 1980 oder die nächsten 30 Jahre. Die von der Weltwetter-Organisation definierte Mittelungsperiode von 30 Jahren für das Klima ist deshalb zu kurz. Es sollten mindestens 70 Jahre sein.
(6.) Warum sich das Klima ändert: durch die Veränderung der Sonneneinstrahlung
Die Sonneneinstrahlung kann sich kurzfristig im Bereich von Jahrzehnten ändern. In der zweiten Hälfte des
20. Jahrhunderts war sie stärker als in den 8000 Jahren zuvor (lt. Max-Planck-Institut für Sonnensystemforschung (www.mpg.de/forschung/sonnenaktivitaet?c=2191)
Durch die Veränderung der Erdachsenneigung und der Erdumlaufbahn ändert sich die Bestrahlungsstärke der nördlichen Breiten. Das sind die berühmten Milanković-Zyklen (https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen), die für die Abfolge von Eiszeiten und Warmphasen verantwortlich sind. Und durch Veränderungen des Sonnenmagnetfeldes
ändert sich die kosmische Strahlung und damit die Wolkenbedeckung der Erde, was ebenfalls zu
Temperaturänderungen führt
(7.) Wo sich das Klima nicht ändert: Antarktis und andere Wüsten
In der südlichen Hemisphäre wirken sich die Ozeanzyklen weniger stark aus. Wo die Wolkenbedeckung konstant niedrig ist – also in den Wüsten - ist keine signifikante Temperaturveränderung festzustellen.
Im Gegenteil, der Winter 2021 war in der Antarktis der kälteste, seit es dort Temperaturmessungen gibt. Das liegt auch an der starken Temperaturinversion über der Antarktis, was dazu führt, dass ein Anstieg des CO2-Gehalts zu einer Abkühlung führt. Das „Schmelzen der Polkappen“ ist deshalb Fake News. Tatsächlich wurde von der NASA für die Antarktis eine Zunahme der Eismasse von 100 Gigatonnen pro Jahr gemessen (www.nasa.gov/feature/goddard/nasa-study-mass-gains-of-antarctic-ice-sheet-greater-than-losses), was den mittleren Eisverlust Grönlands über die letzten Jahre fast kompensiert.
(8.) Anzeichen für die globale Abkühlung
Die kleinste Sommereisausdehnung in der Arktis war 2012 – vor 10 Jahren. Die Meerestemperaturen umGrönland sinken seit 2008 (https://pubmed.ncbi.nlm.nih.gov/33523831/).
2021 und 2022 gab es mehr Sommereis als 2007. Die Eismasse auf Grönland wuchs in den Jahren 2017 und 2018. Die globale Temperatur hatte ihren Höchststand 2016.
(9.) Die Klimageschichte zeigt: Die angeblichen Kipppunkte sind widerlegt und wärmer ist besser
Wenn es auf Island 5 °C wärmer wird, dann wachsen dort Bäume statt Gletscher – so wie vor 5000 bis 7000 Jahren im Atlantikum, der wärmsten Phase des Holozäns (www.vatnajokulsthjodgardur.is/static/files/Utgefid-efni/VJP-sameiginlegt/unesco-nomination-of-vatnajokull-national-park-dynamic-nature-of-fire-and-ice.pdf ). Zu dieser Zeit trieben Nomaden ihre Viehherden durch die grüne Sahara (https://de.wikipedia.org/wiki/Rinderzeit).
Höhere Temperaturen bedeuten mehr verdunstendes Wasser über den Ozeanen und in Folge dessen mehr Niederschläge. Im Atlantikum und in der Eem-Warmzeit vor 130 Tausend Jahren war es global um mehr als 2 Grad Celsius wärmer als heute, ohne dass das Kliama "gekippt" wäre.
Die Kipppunkte sind deshalb eine längst widerlegte Hypothese.
Die zu erwartende Abkühlung wird wegen der Niederschlagsreduktion katastrophale Folgen für den Sahel haben, dessen Bevölkerungszahl sich in den letzten vier Jahrzehnten in Folge der Erwärmung und Ergrünung durch die CO2-Düngung verdreifacht hat. Dort fand Anfang der 1980 iger Jahre - am Ende der AMO-Abkühlungsphase - die letzte große Klimakatastrophe statt, als eine halbe Million Menschen in Folge einerDürre verhungerten. In jedem Winter sterben in Gegenden mit ausgeprägten Jahreszeiten wesentlich mehr Menschen als im Sommer.
(10.) Die mediale und politische Panikmache ist unsachlich: es gibt keine Klimakrise
Der angebliche dramatische Meeresspiegelanstieg findet nicht statt. An der deutschen Nord- und
Ostseeküste steigen die Pegel mit 1 bis 2 mm pro Jahr. In der Karibik, in Australien und vielen anderen
Gebieten ebenfalls (https://tidesandcurrents.noaa.gov/sltrends/).
Koralleninseln wachsen mit dem Meeresspiegel mit. Die meisten Inselgruppen haben in den letzten Jahrzehnten an Fläche hinzugewonnen,
ebenso Bangladesch. Waldbrände haben global seit 2003 abgenommen. Tropische Wirbelstürme haben
global an Energie nicht zugenommen. „Jahrhunderthochwasser“ wie im Ahrtal sind Wetterphänomene, die in etwa alle hundert Jahre auftreten, zuletzt 1910 und 1804.
Die Klimahysterie „ist der größte und erfolgreichste pseudowissenschaftliche Betrug“ der Neuzeit (Prof. Harold Lewis)
QUELLE: www.klima-wahrheiten.de
Stand: 02.02.2023
IIIIIIIIIIIIIIIIIIII
Fukushima 2011 - die grobfahrlässige Katastrophe
von Peter Ungerer und Dr. Bernd Fleischmann
Stand: 31.03.2022
Ein Erdbeben der Stärke 9 vor der Küste Japans und der nachfolgende Tsunami haben am 11.03.2011 eines der größten Atomkraftwerk-Unglücke ausgelöst. Dieser Bericht beschreibt die Ursachen, den Ablauf und die Folgen des Unglücks.
Vorab : Die Bedienmannschaften der sechs Reaktoren in Fukushima Daiichi verdienen unseren
Respekt für die Beherrschung des vom Management und von korrupten Institutionen verursachten Unglücks. Es gab noch nicht einmal ein Notfall-Handbuch für den gleichzeitigen Stromausfall in zwei oder mehr Reaktoren.
Vereinfacht entsprechen die Reaktoren in Fukushima einem 21 m hohen Dampfkochtopf mit 5,53 m Durchmesser, in dessen Mitte ein Reaktor mit mehr als 400 Brennstäben sitzt. Jedes zerfallende Uranatom exportiert 2 Neutronen, die, falls sie mit der richtigen Geschwindigkeit andere Uran 235 Isotope treffen, diese spalten. Dabei werden wieder 2 Neutronen exportiert. Eine Kettenreaktion setzt dann ein, wenn die Neutronen die richtige Geschwindigkeit haben. Dazu braucht es einen Moderator, der sie entsprechend abbremst. Der Moderator in Fukushima ist Wasser. Verdampft das Wasser im Falle eines Fehlers, gibt es keine Kettenreaktion mehr. Ein AKW kann also nicht atomar„explodieren“, auch wenn manche AKW-Gegner das behaupten, womit sie sich disqualifizieren.
Zurück zu unserem Kochtopf, bei dem wir natürlich die Menge des erzeugten Dampfes regeln wollen; das geschieht durch Regelstäbe zwischen den Brennelementen, die einen Teil der Neutronen absorbieren. Je weiter sie eingefahren sind, desto geringer wird die Leistung des Reaktors. Nach dem vollen Einfahren der Regelstäbe erzeugen die Brennelemente für eine gewisse Zeit noch Leistung, weil einige Elemente natürlich zerfallen. Diese
sogenannte Restwärme ist nach einer Minute 2,5 % der Nennleistung, nach einer Stunde 1% und nach einem Monat rund 0,13 %. Kippt man Borsalz in den Reaktor, dann hat das die gleiche Wirkung wie das komplette Einfahren der Regelstäbe. Das ist der sichere Schnellstop der Kettenreaktion in AKW.
Die Restwärme war das Problem in Fukushima. Das klären wir in den nächsten Abschnitten.
Nach dem Erdbeben, das am Standort der AKW noch eine Stärke von 6 bis 7 hatte, wurden automatisch dieRegelstäbe voll eingefahren und der sog. „Kaltstatus“ eingeleitet. Der Kaltstatus ist erreicht, wenn die Temperatur im „Dampfkochtopf“ unter 100 °C gefallen ist. Dann hört das Wasser auf zu kochen und der Druck fällt. Pumpen versorgen das Reaktorgefäß vor dem Kaltstatus mit Speisewasser und der Dampf wird heruntergekühlt bis er wieder zu Wasser wird. Für die Pumpen braucht man in Fukushima Strom von außen. Durch das Erdbeben waren aber die Fernleitungsmasten umgefallen, weil sie nicht erdbebensicher konstruiert waren ..........
............weiter zum Beitrag
QUELLE : file:///C:/Users/Benno/AppData/Local/Temp/MicrosoftEdgeDownloads/61868995-f213-45e6-8c43-b0fc43687ea9/Fukushima,%20die%20grobfahrl%C3%A4ssige%20Katastrophe%2020220707.pdf
IIIIIIIIIIIIIIIIIIII
FÜHRT die ENERGIEWENDE
in den technisch-wirtschaftlichen BLACKOUT ?
VORTRAG von Klaus H. Richardt
Stand : 13.05.2023
Wir wollen konventionelle thermische Kraftwerke durch Wind- und Solarkraft ersetzen, wissen aber, dass der Wind nicht immer bläst und die Sonne nachts nicht scheint. Wir wollen Autos mit Verbrennungsmotor abschaffen und den Verkehr auf Elektrofahrzeuge umstellen. Dazu braucht es noch mehr erneuerbaren Strom und ein Niederspannungsnetz, das die enormen Strommengen zum Laden der E-Autos liefern kann.
Dieser Vortrag untersucht anhand statistischer Daten, was uns bei der Energiewende erwartet und was wir beachten müssen, damit bei uns das Licht nicht aus- und die Wirtschaft nicht untergeht.
Die verwendeten Daten stammen vom FRAUNHOFER INSTITUT (www.energy-charts.info), dem Bundesverband der Elektrizitäts- und Wasserwirtschaft (www.bdew.de), Energieverbräuche von UBA und der AGEB (Arbeitsgemeinschaft Energiebilanzen) sowie der Windlobby-Organisation DEUTSCHE WINDGUARD (www.windguard.de).
--------------
Natürlich gibt es beim Stromverbrauch (s. energy-charts.info) saisonale Unterschiede. So braucht es im Winter mehr Strom wegen kürzerer Tage und zusätzlichem Heizbedarf, auch über Wärmepumpen. Die Sonne scheint weniger, derWind bläst etwas stärker, aber Dunkelflauten ohne Wind und Sonne sind ebenfalls möglich.
In diesem Vortrag wurde aus zeitlichen Gründen auf einen saisonalen Vergleich verzichtet.
Die nachfolgende Folie zeigt die momentane Stromerzeugung im Juli 2011 und Juli 2021 für ganz Deutschland. Auf der Abszisse finden Sie die Zeitachse (Datum) mit darunterstehendem Farbschlüssel für die einzelnen
Erzeugungsarten.
Die jeweiligen Leistungen in GW sind gestapelt in y-Richtung aufgetragen. Multipliziert man diemomentane Leistung in GW mit der jeweiligen Zeiteinheit und summiert diese auf kommt man auf die Gesamterzeugung in TWh (1 TWh = 1000 GWh = 1 Mio. MWh = 1 Mrd. kWh) (siehe: Folie 18) dargestellt.
Beide Erzeugungen (Juli 2011 und Juli 2021) unterscheiden sich im Wesentlichen wie folgt :
2011: Mehr Nuklear und konventioneller Anteil an der Erzeugung, Braunkohle wurde kaum zur Regelung verwendet.
2021: Mehr Wind- und Solaranteil, starke Regelausschläge bei Steinkohle, Gas und Pumpspeicherkraftwerken, um die
volatile Wind und Solarstromerzeugung auszugleichen. Wegen der Volatilität musste viel Strom ex- bzw. importiert werden, weshalb Fraunhofer zur Unterscheidung die schwarze Linie für den Gesamtstromverbrauch eingeführt hat. Lag die Eigenerzeugung über dieser Linie wurde Strom exportiert, gab es weiße Flecken unter dieser
Linie, musste Strom importiert werden. (siehe Folie 5, folgend) .................
................ weiter zum Vortrag
QUELLE :
file:///C:/Users/Benno/AppData/Local/Temp/MicrosoftEdgeDownloads/d118d7ba-d98a-4c36-be3f-f0a1ba595040/F%C3%BChrt%20die%20ENERGIEWENDE%20in%20den%20technisch-wirtschaftlichen%20Blackout%20-%20Klaus%20Richardt.pdf
IIIIIIIIIIIIIIIIIIII
DIE NORWEGER ZEIGEN UNS DEN VOGEL
Ein Interview mit Prof. Dr. Kurt Gehlert , Iserlohn
Kosten für Versorger und Kunden? Machbarkeit? Sinnhaftigkeit – die Diskussion über das Thema „Erneuerbare Energien“ nimmt zur Zeit international wie national mächtig an Fahrt auf.
Der Iserlohner Dr. Kurt Gehlert (75), ehemaliger Professor an der Fachhochschule Bielefeld und als promovierter Bergbau-Fachmann u.a. auch beim Streitgebiet “Fracking“ der Experte, glaubt nicht an die versprochene grüne Zukunft. Und er will das im Gespräch auch beweisen.
Sehr geehrter Herr Prof. Gehlert, ich muss Sie gleich warnen: Das Thema „Energiewende“ ist zwar hoch spannend, aber wenn es zu wissenschaftlich wird, stoße ich schnell an meine Grenzen des nachhaltigen Verstehens. ( WE-Redaktion, DER WESTEN, FUNKE Medien NRW )
Ich verspreche Ihnen, Sie sanft zu führen, wenn ich Ihnen meine Gedankengänge nahebringe. Allerdings werden manche Fakten eine gewisse Härte beinhalten. Leicht wird es Ihnen jedoch bei den Berechnungen gemacht. Wir bleiben bei den vier Grundrechenarten. Die Energiewende wird oft vereinfachend auf die Erzeugung von Strom mit Hilfe von Erneuerbaren-Energien-Anlagen reduziert. Dabei gehört auch die Wärmenutzung in Industrie und Privathaushalten dazu. Für dieses Gespräch bitte ich jedoch diese Vereinfachung zu akzeptieren, weil bereits in dem Teilbereich „Strom“ die wesentlichen Probleme aufscheinen.
Wie kann und soll der Strom erzeugt werden ?
Die Stromerzeugung als Erneuerbare Energie erfolgt laut Erneuerbare Energien Gesetz (EEG) mit Hilfe von Wasserkraft, Windrädern (an Land und „Offshore”), Photovoltaik-Anlagen, Biomasse-Anlagen, einschließlich Biogas und Grubengas-Anlagen. Mit einem eigenen Gesetz gibt es noch Anlagen mit Kraft-Wärme-Kopplung.
Was fordern die Befürworter der Energiewende?
Alle Befürworter der Energiewende unterstützen die Forderung, bis zum Jahr 2050 mehr als 80 Prozent des Stromes aus Erneuerbaren Energiequellen zu gewinnen. Sie möchten zudem den Strom für die Verbraucher bezahlbar erhalten. Und sie halten die Versorgungssicherheit bei Strom für wichtig.
Welche Einstellung haben die Befürworter zu den derzeitigen Hauptlieferanten ?
Nahezu alle Befürworter der Energiewende möchten bis zum Jahr 2050 alle Braunkohle-, Steinkohle- und Öl-Kraftwerke stilllegen. Manche fordern sogar den Verzicht auf Gaskraftwerke, wie die Umweltministerin Hendricks. Sie möchte 2050 die Stromversorgung zu 100 Prozent aus Erneuerbaren Energien!
Was folgt für Sie daraus, wenn wir uns auf Wind- und Sonnenstrom konzentrieren?
Strom muss dann für wind- und sonnenarme Zeiten gespeichert werden, um die Versorgungssicherheit zu garantieren. Von den Erneuerbaren Energien liefern nur Wasserkraft-, Biomasse- und Grubengas-Anlagen relativ gleichmäßig über das Jahr Strom. Sie sind fast „grundlastfähig“, haben aber nur geringe Ausbauchancen bei den Erneuerbaren Energien. Ihr Anteil von Wasserkraft- und Biogasanlagen am Strommix ist mit 45,3 Prozent der Erneuerbaren Energien oder 11,5 Prozent des gesamten deutschen Brutto-Jahres-Stromverbrauchs von etwa 600 TWh zu gering, um die Versorgungssicherheit auch nur annähernd zu gewährleisten. Das gilt auch für die Zukunft, da sich die Wasserkraft an ihren Ausbaugrenzen befindet und die Benutzung von Biomasse bereits jetzt an Akzeptanzgrenzen in der Gesellschaft stößt.
Sie befürchten aber offenbar bei der Stromerzeugung hauptsächlich durch Windkraft- und Photovoltaik-Anlagen negative Auswirkungen.
Genau ! Windkraft an Land steht -hoch angesetzt- 3000 von 8760 Jahresstunden, Windkraft auf dem Meer etwa 6000 Jahresstunden und Photovoltaik (Sonnenstrom) etwa 1000 Jahresstunden mit voller Leistung zur Verfügung. Aber gelegentlich stehen beide auch nicht zur Verfügung.
Wie lang dauernd halten Sie maximal die Möglichkeit einer Windflaute ?
Drei Tage?
Oft. Bei Hochdruck-Wetterlage.
Eine Woche?
Selten.
Drei Wochen?
Sehr selten
Noch länger?
Kommt kaum vor.
Zur Sonne: Was sagen die Wetteraufzeichnungen zu der Frage, wie lange der Himmel in Deutschland durchgehend bedeckt sein und die Photovoltaik daher keinen Strom liefern kann? Drei Tage?
Oft. Bei Tiefdruck-Wetterlage.
Eine Woche?
Nicht selten. Bei Dauerregen.
Drei Wochen?
Immer wieder einmal, speziell im Winter.
Ihr erstes eigentlich auch logisches Fazit ?
Strom aus Windkraft- und Photovoltaikanlagen variiert sehr stark entsprechend dem Wetter über längere Zeiträume bis zu Wochen, bei der Photovoltaik zusätzlich über den Tag-Nacht-Zyklus. Niemand bezweifelt, dass die Versorgungssicherheit als ernsthafte Forderung zu betrachten ist. Daher ist die Stromspeicherung unbedingt nötig zur Abdeckung des Strombedarfs, wenn der Wind nicht weht und die Sonne nicht scheint .
Also brauchen wir leistungsfähige Akkus oder Batterien ?
In den Medien wird leicht der Eindruck erweckt, dass die Batterieforschung durch die milliardenschwere öffentliche Förderung den Durchbruch zu einer wirtschaftlichen Stromspeicherung bringen würde. Es fällt auf, dass bei diesem Thema kein Unterschied zwischen der Strom-Speicherung im Bereich von Minuten bis zu Stunden und der Strom-Speicherung im Bereich von Tagen oder gar bis zu Wochen gemacht wird.
Über welche Bedarfs-Größenordnungen reden wir denn überhaupt ?
Heute verbrauchen wir jährlich 600 TWh. Festgelegt durch die Regierung sollen wir im Jahr 2050 einen jährlichen Brutto-Stromverbrauch in Deutschland von 500 TWh haben. 80 Prozent sollen dann aus erneuerbaren Quellen stammen, entsprechend 400 TWh. Selbst bei Annahme einer Verdoppelung des Stromes aus nahezu grundlastfähigen Wasserkraft- und Biogasanlagen bis dahin auf 140 TWh fehlen 260 TWh, die bei Dunkelheit und Flaute aus Speichern bereitgestellt werden müssen, weil dann ja keine Kohlenkraftwerke als Backup-Kraftwerke mehr zur Verfügung stehen sollen. Eine riesige Strommenge, mehr als 50 Prozent des Gesamtverbrauchs, die „eingelagert“ und wieder in das Netz „eingespeist“ werden müsste.
Was gibt es denn überhaupt an Speichermöglichkeiten ?
Akkumulatoren mit unterschiedlichsten Innenleben: Speicherung für kurze Zeit und für kleine Strom-Mengen.
Pumpspeicherkraftwerke: Speicherung für lange Zeit und bei geeigneter Landschaft große Strom-Mengen.
Power-to-gas: bei vorhandenen geologischen Gas-Lagermöglichkeiten Strom über längere Zeit und in großen Mengen. Das Verfahren befindet sich derzeit im Versuchsstadium, kämpft mit einem Wirkungsgrad von nur 25 Prozent bis 30 Prozent.
Druckluftspeicher unter Tage kombiniert mit Gasturbinengeneratoren: in Versuchsanlagen, mit Wirkungsgrad von nur 50 bis 60 Prozent bei begrenzten Volumina nur mittlere Strommengen für mittlere Zeit.
Ihre Einschätzung zu dieser Speichermöglichkeit klingt anders als manche positive Veröffentlichung es glauben machen möchte ?
Akkumulatoren jeder Art können nur Verbrauchsspitzen abdecken. Zur Langzeit-Stromspeicherung und –Stromabgabe sind sie von Größe und Kosten her nicht darstellbar.
Könnte man die Akkus der Elektrofahrzeuge bei Bedarf anzapfen ?
Das klingt immer nach einer guten Idee und soll in einer Überschlagsrechnung einmal betrachtet werden. Im Jahr 2020 werden wir plangemäß 1 Millonen akkubetriebene Pkw in Deutschland haben. Zapfen wir sie an und entnehmen 50 Prozent der Akku-Kapazität von durchschnittlich 25 kWh, dann deckt die dadurch erhaltene Strommenge (12,5 x 1 000 000 =12,5 GWh, bei einem täglichen Verbrauch von 712 GWh) für 25 Minuten und 17 Sekunden unseren Bedarf ab. Anschließend haben alle Besitzer eines Elektrofahrzeuges nur noch 50 Prozent Reichweite für die nächste Fahrt. Würden Sie das gerne zulassen?
Wenn es so also nicht geht, wie geht es anders?
Beim heutigen Stand der Technik sind nach meiner Einschätzung nur Pumpspeicherkraftwerke und power-to-gas-to-power-Anlagen denkbar, die große Mengen Strom über lange Zeit (Tage bis Wochen) „speichern“ und „liefern“ könnten.
Fangen wir mit den Pumpspeicherkraftwerken an.
In Deutschland existieren derzeit fast 40 Speicherseen. Sie erzeugten durch vielfaches Ablaufen und Hochpumpen 4042 GWh Strom zur Verbrauchsspitzenabdeckung im Laufe eines Jahres. Ihr Speicherinhalt reicht theoretisch aus, um für 80 Minuten und 54 Sekunden bei durchschnittlichem Stromverbrauch den Bedarf zu gewährleisten. Danach sind sie leergelaufen und müssen mit Pumpen wieder gefüllt werden. Benötigt werden aber Kapazitäten für 7 Tage = 10 080 Minuten, wenn wir eine einwöchige Flaute und fehlenden Sonnenschein nicht ausschließen können.
Fazit : In Deutschland müssten rund 125 Mal so viele Speicherseen bis 2050 geschaffen werden, wie heute existieren. Diese Flächen und Volumen in topographisch machbaren Gebieten hätten und haben wir gar nicht. Damit es fassbar wird: 20 Kubikkilometer Wasser müssen 50 Meter Fallhöhe bekommen, um gegebenen Falls über Turbinen in den unteren See mit 20 Kubikkilometer Fassungsvermögen zu laufen. Zum Vergleich der Bodensee mit 48 Kubikkilometer Inhalt. Er müsste fast in der Mitte mit einer 125 Meter hohen Staumauer geteilt werden.
Wenn es also in Deutschland auf Grund der Topographie nicht möglich ist, zusätzlich mehrere große also, „kleine Bodenseen“ oder über 100 Pumpspeicherkraftwerke in hierzulande üblicher Größe zu bauen, müssten sie ab sofort im Ausland gebaut werden?
Dafür kommen nur die Schweiz oder Norwegen in Frage. Denn Österreich hat schon abgewinkt. Meine Vermutung: Die Schweizer reagieren allergisch und die Norweger zeigen uns einen Vogel.
Und dann ist da noch die Sache mit den Stromleitungen.
Stimmt ! Deutschland braucht heute zur unterbrechungsfreien Stromversorgung eine verfügbare Erzeugerleistung von 84 GW, nach der Projektion für 2030 etwa 70 GW. Zwischen Norwegen und Deutschland gibt es z.Zt. eine Leitung mit 1 GW.
Für die Übertragung der benötigten Leistung aus zentralen Pumpspeicherkraftwerken (Schweiz, Norwegen, Bodensee) in die entfernt liegenden Verbrauchsschwerpunkte wären also entsprechend viele Hochspannungsleitungen unabdingbar erforderlich?
Richtig ! Ich schätze die Zahl auf etwa 70 Höchstspannungsleitungen von etwa 300 bis 1200 Kilometer Länge. Übrigens: die 2800 Kilometer Höchstspannungsleitungen innerhalb Deutschlands werden laut DENA bis zum Jahr 2022 unabhängig von vielleicht bis dahin in Norwegen gebauten Pumpspeicherkraftwerken benötigt.
Kommen wir zum nächsten Themenbereich: power-to-gas. Was bedeutet dieser Begriff ?
Diese Kurzbezeichnung hat sich für die Verfahrensreihe eingebürgert: vom Windstrom über Gleichstrom-Elektrolyse zum Wasserstoffgas. Dabei soll bevorzugt Windstrom, der über den augenblicklichen Bedarf an Strom hinausgeht, in Anlagen zu H2, Wasserstoffgas und weiter zu speicherbarem Methan „umgewandelt“ werden. Der letzte Umwandlungsschritt von CH4 mit Hilfe eines Gasturbinen-Generators zu Strom wird in der Kurzform mit „power-to gas-to-power“ bezeichnet.
Dafür braucht es aber doch wohl wieder viele Windräder ?
Eine letzte kleine Rechnung dazu ist schnell gemacht: Zum Ende des Jahres 2014 liefen in Deutschland fast genau 25 000 Windräder, die 8 Prozent der Jahres-Strommenge lieferten. Bei komplett ausgebauter Infrastruktur für das power-to-gas-to-power-System würden nur 24 Prozent der Strommenge von zusätzlichen 200 000 gleichartigen Windrädern geliefert werden können. Allerdings existieren bisher die zusätzlich benötigten Hauptgasleitungen, Gasspeicher und Gaskraftwerke nicht. Diese Investitionen kämen zu den 200 000 Windrädern hinzu. Diese riesige Anzahl kommt wegen des geringen Wirkungsgrades von 25 Prozent bei power-to-gas-to-power und wegen der 2/3 der Zeit stillstehenden Windräder zu Stande.
Nur 24 Prozent des Stromverbrauchs würden so abgedeckt? Sollten es nicht eher 50 Prozent sein ?
In Ordnung.
Die erweiterte Rechnung auf 50 Prozent Dauerstrom aus Windkraft er gibt die Anzahl von etwa 470 000 deutschen Windrädern.
Diese Zahl ist schwer vorstellbar.
Deutschland bedeckt eine Fläche von etwa 360 000 Quadratkilometern. Dann hätte jedes der 470 000 Windräder durchschnittlich 0,76 Quadratkilometer zur Verfügung. Im Stadtgebiet von Iserlohn mit 125,5 Quadratkilometern Fläche würden 165 Windräder stehen.
Ihr Fazit bis jetzt ?
Die Energiewende ist unter den in Deutschland gegebenen Bedingungen als gescheitert zu betrachten, wenn man sie naturwissenschaftlich-technisch unter Anwendung der vier Grundrechenarten in die Zukunft projiziert.
Und Ihre Zukunftsprognose ?
Möglichst keine Kernkraftwerke mehr, aber ein Mix von modernen Braunkohle-, Steinkohle- und Gaskraftwerken. Fast alle Windräder und Biogasanlagen sind am Ende ihrer Lebensdauer und stillgelegt, Photovoltaikanlagen sind zwar abgeschrieben, liefern aber durch Alterung nur noch die Hälfte bis 70 Prozent ihrer ursprünglichen Leistung. Es gibt keine EEG-Vergütung mehr und keinen Vorrang der Einspeisung. Die Politik konstatiert besorgt: Unsere Amtsvorgänger haben uns ein desillusioniertes Volk hinterlassen.
....................... hier zum
PODCAST-INTERVIEW mit Prof. Dr. Kurt Gehlert auf Radio MK https://www.nrwision.de/mediathek/beruf-berufung-traumberuf-kurt-gehlert-bergbauingenieur-220222/
IIIIIIIIIIIIIIIIIIII
DARMSTÄDTER MANIFEST
LINK: www.naeb.info/Dokumente/Darmstaedter%2Manifest%201998.pdf
IIIIIIIIIIIIIIIIIIII
VIDEO-VORTRÄGE
Prof. Dr. Gerd Ganteför
Lehrstuhl für Experimental-Physik, Universität Konstanz
www.youtube.com/watchv=4AMMKDsNgo
www.youtube.com/watch?v=zdGR5Rs3_fA
www.youtube.com/watch?v=OaWM2Pd0sHY
www.youtube.com/watch?v=Yl96zRS
www.youtube.com/watch?v=WkP_bA70iY0
Prof. Dr. Joachim Weimann
Professor für Volkswirtschaftslehre, Universität Magdeburg
Prof. Dr. Dr. Werner Sinn
Lehrstuhl für Volksökonomie, Maximilian- Universität-München, Präsident a.D. des ifo-Instituts, München
www.youtube.com/watch?v=z5trsBP9Cn4
www.youtube.com/watch?v=78ntekFBE4o
Prof. Dr. Fritz Vahrenholt
ehemaliger Umweltsenator in Hamburg, Chemiker, Aufsichtsrat der AURUBIS AG und der ENCAVIS AG,
www.youtube.com/watch?v=5n1QNiR9_14
EIN GESPRÄCH MIT MARTIN BURCKHARDT :
Dr.-Ing. Bernd Fleischmann
Klima-Wahrheiten / Warum sich das Klima ändert
https://www.youtube.com/watch?v=sHAf34Jo39I
https://www.youtube.com/watch?v=gBenO7ztios
https://www.youtube.com/watch?v=3Nhvxsds0xM
https://www.youtube.com/watch?v=FYgE2J8B1io
https://www.youtube.com/watch?v=gNwQCSDOs4U
Dipl.-Ing. Klaus Richardt
Führt die Energiewende in den technisch-wirtschaftlichen Blackout ?
............ zum Vortrag
Prof. Dr. Georg Brasseur
Institut für Elektrische Messtechnik und Sensorik, Technische Universität Graz, Österreich
www.youtube.com/watch?v=tPuhBKEMggs
www.youtube.com/watch?v=weI_ga3TYoI
www.youtube.com/watch?v=lLIq07HNBnc
www.youtube.com/watch?v=FgWc_U4rnfk
IIIIIIIIIIIIIIIIIIIII
VORTRAGS-REIHE
..................... in PLANUNG
Foto (12)