Montag, 26. November 2012

Montag, 22. Oktober 2012

Früher war es wärmer

Die Studie Variability and extremes of northern Scandinavian summer temperatures over the past two millennia von Jan Esper et al., veröffentlicht in der Zeitschrift Global and Planetary Change, kommt für die letzten zwei Jahrtausende zu dem Ergebnis: "The record provides evidence for substantial warmth during Roman and Medieval times, larger in extent and longer in duration than 20th century warmth. The first century AD was the warmest 100-year period (+0.60 °C on average relative to the 1951–1980 mean) of the Common Era ...". Die wärmste 30-Jahr-Periode in diesen 2.000 Jahren war der Zeitraum von 21-50 unserer Zeitrechnung mit +1,05 °C über dem Mittelwert von 1951-1980. Damit ist zumindest für Nordeuropa die Behauptung der Klimapolitiker widerlegt, dass die Warmzeit des 20. Jahrhunderts einmalig sei.


Die obige Grafik (Quelle: Jan Esper et al., Global and Planetary Change 88–89 (2012), 1–9, Figure 4) zeigt den Temperaturverlauf seit dem Jahr 138 vor unserer Zeitrechnung. Die hellgrauen vertikalen Balken bezeichnen die Wärmeperioden, die dunkelgrauen Balken markieren die Kälteperioden. Man sieht, dass der Temperaturgang im 20. Jahrhundert nicht außergewöhnlich ist, sondern in jeder Hinsicht eine natürliche Klimaschwankung darstellt.

Montag, 15. Oktober 2012

Klimaschwankungen unbeeinflusst von Kohlendioxid

In den letzten 5.000 Jahren gab es heftige Klimaschwankungen, die sich unter anderem durch Isotopenmessungen in der Eisdecke Grönlands nachweisen lassen. Die folgende Grafik von Lee Drake (Drake, B.L. 2012. The influence of climatic change on the Late Bronze Age Collapse and the Greek Dark Ages. Journal of Archaeological Science 39: 1862-1870), die auf den Daten von R.B. Alley beruht (Alley, R.B. 2004. GISP2 Ice Core Temperature and Accumulation Data. In: Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program. IGBP PAGES World Data Center for Paleoclimatology, Boulder, Colorado, USA), zeigt den Temperaturverlauf von fünf Jahrtausenden, wie er vom Greenland Ice Sheet Project (GISP2) gemessen wurde:


Deutlich ausgeprägt sind die globalen Wärmeperioden in der späten Bronzezeit (Late Bronze Age (LBA)), der Blütezeit des Römischen Imperiums (Roman Warm Period (RWP)) und im Mittelalter (Medieval Warm Period (MWP)). Die Zeitangabe CE ist eine Abkürzung für "Common Era" oder "Current Era", BCE steht für "Before the Common/Current Era", siehe Common Era. Weitere Informationen zum Artikel von Lee Drake finden sich auf der Website des Autors.

Bei dem Versuch, die Klimaänderungen der letzten fünf Jahrtausende zu erklären, ist es wichtig zu wissen, dass während der ersten 4.800 Jahre des Zeitraums (96% der Zeit) der CO2-Gehalt der Atmosphäre bei 275 bis 285 ppm extrem stabil war. Trotzdem gab es in dieser Zeit drastische Klimaschwankungen. Erst während der letzten 200 Jahre (4% des Beobachtungszeitraums) erfolgte ein steiler Anstieg des atmosphärischen CO2 um über 100 ppm, wobei sich die Temperatur weniger änderte als in der Epoche des stabilen CO2. Das Kohlendioxid kann deshalb kein Treiber der globalen Temperaturentwicklung sein.

Montag, 8. Oktober 2012

Die unzuverlässige Windenergie

Der Wind weht so unregelmäßig, dass er keinen eigenständigen Beitrag zur Deckung des Strombedarfs machen kann. Die folgende Grafik gibt dafür ein Beispiel (Quelle: William Korchinski, The Limits of Wind Power, Figure 6):


Das obige Bild zeigt die Windstromeinspeisung in das Netz des deutschen Energieversorgers E.ON zu Weihnachten 2004. Am Weihnachtstag erreichte die Windleistung um 9.15 Uhr ihr Maximum von 6.024 MW, um dann in nur 10 Stunden auf 2.000 MW zu fallen. Dieser Leistungsabfall von über 4.000 MW entspricht der Kapazität von 8 Kohlekraftwerksblöcken von je 500 MW. Der Absturz in der Windstromzulieferung belief sich an jenem Tag zeitweise auf 16 MW je Minute, im Durchschnitt war es ein Rückgang von 6,7 MW je Minute. Vom ersten bis zum zweiten Weihnachtsfeiertag fiel die Windstromeinspeisung von 4.500 MW auf unter 40 MW.

Die nächste Grafik stellt für den Bereich der PJM Interconnection Region, die Delaware, Illinois, Indiana, Kentucky, Maryland, Michigan, New Jersey, North Carolina, Ohio, Pennsylvania, Tennessee, Virginia, West Virginia und den District of Columbia umfasst, für den Zeitraum vom 18.12.2008 bis zum 22.01.2010 den tatsächlichen Stromverbrauch der Windstromeinspeisung gegenüber, die angefallen wäre, wenn nur Windstrom zur Verfügung gestanden hätte (Bildquelle: William Korchinski, The Limits of Wind Power, Figure 11):


Man sieht, dass ständig entweder viel zu viel oder viel zu wenig Windleistung zur Verfügung steht. Um die heftigen Schwankungen der Windenergie auszugleichen, müsste man den Strom aus dieser Quelle in Überschusszeiten speichern, um bei Windflaute das Netz versorgen zu können. Nur Pumpspeicherwerke können das wirtschaftlich leisten, alle anderen Verfahren (Batterien, Luftkomprimierung) sind weit von der Marktreife entfernt. Für die PJM Interconnection Region würde man unter der obigen Bedingung einen Speichersee von 5.200 km2 benötigen, der 30 m tief ist. Es ist offenkundig, dass derartige Monsterbauwerke nicht realisierbar sind.

Das bedeutet: je höher der Anteil des Windstroms, desto instabiler wird das Netz, denn die schwankende Verfügbarkeit des Windes macht die hohe Verlässlichkeit der konventionellen Kraftwerke immer unbedeutender. Windkraftanlagen können daher die herkömmlichen Kraftwerke nicht ersetzen, sondern sie zwingen sie in einen Backup-Modus, in dem sie unwirtschaftlich arbeiten müssen.

E.ON stellt dazu fest (Wind Report 2005, Seite 9): "As wind power capacity rises, the lower availability of the wind farms determines the reliability of the system as a whole to an ever increasing extent. Consequently, the greater reliability of traditional power stations becomes increasingly eclipsed. As a result, the relative contribution of wind power to the guaranteed capacity of our supply system up to the year 2020 will fall continuously to around 4%. In concrete terms, this means that in 2020, with a forecast wind power capacity of over 48,000 MW, 2,000 MW of traditional power production can be replaced by these wind farms."

Montag, 1. Oktober 2012

Antarktische Meereseisdecke auf Rekordniveau

Das Meereis in der Antarktis hat gegenwärtig eine Ausdehnung, die erheblich über dem langjährigen Durchschnitt liegt, siehe dazu die folgende Grafik (Bildquelle):


Im Gegensatz dazu haben die Klimamodelle des IPCC eine ständige Abnahme der antarktischen Meereisbedeckung vorausgesagt, wie die im Journal of Climate veröffentlichte Studie An Initial Assessment of Antarctic Sea Ice Extent in the CMIP5 Models von John Turner et al. enthüllte. Die Autoren stellen fest: "Many of the models have an annual SIE [sea ice extent] cycle that differs markedly from that observed over the last 30 years. The majority of models have too small a SIE at the minimum in February, while several of the models have less than two thirds of the observed SIE at the September maximum. In contrast to the satellite data, which exhibits a slight increase in SIE, the mean SIE of the models over 1979 - 2005 shows a decrease in each month ..." Soviel zur Verlässlichkeit von Klimamodellen, die den Umbau der Weltwirtschaft rechtfertigen sollen.

Die Klima-Angstmacher verweisen gerne auf den Rückgang des Meereises in der Arktis, doch der ist nur das zeitweilige Ergebnis eines natürlichen Klimazyklus, wie die nächste Grafik zeigt (Bildquelle):


Samstag, 8. September 2012

Sozialstaat kostspieliger als Krieg

Die folgende Grafik (Bildquelle) zeigt die Staatsausgaben der USA als Prozentsatz des Bruttoinlandsprodukts von 1791 bis 2011. Es fällt dabei auf, dass im letzten Jahr der Anteil der Staatsausgaben um nahezu zwei Prozentpunkte höher war als im Jahr 1919, als das Land seine größte Kraftanstrengung im Rahmen des 1. Weltkriegs unternahm. Selbst wenn man die im vergangenen Jahr entstandenen Kosten des Militäreinsatzes in Afghanistan abzieht, die sich auf höchstens einen Prozentpunkt belaufen, bleibt die Tatsache, dass der moderne Sozialstaat die Wirtschaft mehr beansprucht als die Teilnahme an einem großen Krieg in Europa.

Ein Gründungmythos der Grünen

Das Buch Silent Spring von Rachel Carson, eine der heiligen Schriften der Grünen, wurde vor 50 Jahren veröffentlicht. Was ist an dieser Schrift, das die Ökologisten so erregt und bewegt? Eine wissenschaftliche Einschätzung findet sich bei Roger Meiners und Andrew Morriss, Silent spring at 50: reflections on an environmental classic. Die Autoren widerlegen die bekanntesten Behauptungen von Carson, wie das Vogelsterben durch DDT oder der Niedergang der Menschheit durch Chemikalien. Ihr Urteil über die Wirkung des Buchs: "Unfortunately‚ its influence on modern environmental thought encourages some of the most destructive strains within environmentalism: alarmism‚ technophobia‚ failure to consider the costs and benefits of alternatives‚ and the discounting of human well-being around the world."

Der Entomologe Gordon Edwards hat in seiner Studie The Lies of Rachel Carson deren Buch Seite um Seite überprüft und kommentiert, wonach er feststellt: "Carson’s deceptions, false statements, horrible innuendoes, and ridiculous allegations in ... Silent Spring will indicate why so many scientists expressed opposition, antagonism, and perhaps even a little rage after reading Carson’s diatribe."

Für eilige Leser empfiehlt sich die journalistische Zusammenfassung Rachel Carson's Deadly Fantasies von Henry Miller und Gregory Conko. Einen Ausblick darauf, was zu tun ist, gibt Marjorie Hecht in Bring Back DDT, and Science With It!.

Das von den Grünen durchgesetzte Verbot von DDT hat den vermeidbaren Tod von 60 Millionen Menschen durch Malaria verursacht. Insofern gehört Rachel Carson, wie Lenin und Stalin, in die Kategorie der größten Menschheitsfeinde.

Samstag, 25. August 2012

Die Einkommensbelastungsquote

Von jedem Euro, den ein Bürger verdient, muss er 51,7 Cent an das Finanzamt und die öffentlichen Körperschaften der gesetzlichen Sozialversicherung abgeben. Diese Einkommensbelastungsquote setzt sich zusammen aus der Steuerlastquote von 31% und der Soziallastquote von 20,7% (Quelle: Der Steuerzahler, 63. Jahrgang, Juli/August 2012, S. 176-178, Bund der Steuerzahler). Wenn dem Bürger mehr als die Hälfte seines Einkommens vom Staat genommen wird, hat die Besteuerung einen konfiskatorischen Charakter, der dem Grundrecht auf Eigentum widerspricht.

Eine derartige Politik hat in Deutschland eine lange Tradition. Im Jahre 1960 lag die Einkommensbelastungsquote noch bei 40,3%, danach stieg sie auf 43,8% im Jahre 1970, 1977 wurde mit 50,9% erstmals mehr als die Hälfte des Bürgereinkommens vom Staat beansprucht. In den Jahren danach gab es nur geringfügige Schwankungen dieser Quote, da der Kauf von Wählerstimmen durch Wahlgeschenke teuer ist.


Die Abbildung zeigt das Titelblatt der staatstheoretischen Schrift Leviathan von Thomas Hobbes (Bildquelle). Zu sehen ist der absolutistische Herrscher, dessen Körper aus seinen Untertanen besteht. In seinen Händen hält er Schwert und Hirtenstab, die Zeichen für weltliche und geistliche Macht. Über der Abbildung steht ein Zitat aus der Bibel: "Keine Macht auf Erden ist mit der seinen vergleichbar". Hobbes sah den Staat seiner Zeit als so mächtig an, dass er ihn mit dem biblischen Seeungeheuer Leviathan verglich, gegen das jeder menschliche Widerstand sinnlos ist.

Seitdem hat die Macht Leviathans zugenommen. Sowohl die Steuerlastquote als auch die Soziallastquote sind heute um ein Vielfaches höher als damals.

Sonntag, 12. August 2012

Konjunkturprogramme schaden der Konjunktur

Die politische Klasse ist sich einig, dass zusätzliche Staatsausgaben die Wirtschaft ankurbeln, indem sie für mehr Nachfrage sorgen, die ihrerseits das Wachstum des Bruttoinlandsprodukts beschleunigen und die Arbeitslosigkeit senken soll. Unter wohlklingenden Namen wie "Stimulus" in den USA oder "Wachstum" in der EU wurden in den letzten Krisenjahren Billionen an weiteren schuldenfinanzierten Staatsausgaben in die Wirtschaft gepumpt.

Das Ergebnis dieser enormen Ausweitung der Staatstätigkeit entspricht überhaupt nicht den offiziellen Erwartungen. Arthur Laffer hat in seinem Artikel The Real 'Stimulus' Record darauf hingewiesen, dass unter den OECD-Staaten diejenigen, die im Zeitraum von 2007 bis 2009 ihre Ausgaben am stärksten erhöhten, in diesen Jahren das geringste Wachstum ihres Bruttoinlandsprodukts aufzuweisen hatten.

Der Grund für diesen Misserfolg liegt darin, dass in der Politik nur das gegeben werden kann, was vorher anderen genommen wurde. "For every additional government dollar spent there is an additional private dollar taken. All the stimulus to the spending recipients is matched on a dollar-for-dollar basis every minute of every day by a depressant placed on the people who pay for these transfers." (Arthur Laffer, op.cit.) Die Einkommenswirkungen von zusätzlichen Staatsausgaben sind in der Summe immer Null.

Die staatlichen Ausgaben regen auch keine zusätzlichen Ausgaben in der Privatwirtschaft an. "There was no discernible two or three dollar multiplier effect from every dollar the government spent and borrowed. In reality, every dollar of public-sector spending on stimulus simply wiped out a dollar of private investment and output, resulting in an overall decline in GDP." (Arthur Laffer, op.cit.)

Die staatliche Stimulus-Finanzierung ist nicht zuletzt deshalb wirtschaftsschädlich, weil sie Ressourcen von produktiven zu unproduktiven Tätigkeiten umlenkt. "Often as not, the qualification for receiving stimulus funds is the absence of work or income — such as banks and companies that fail, solar energy companies that can't make it on their own, unemployment benefits and the like. Quite simply, government taxing people more who work and then giving more money to people who don't work is a surefire recipe for less work, less output and more unemployment. ... what economists call the substitution or price effects of stimulus spending are negative for all parties. In other words, the transfer recipient has found a way to get paid without working, which makes not working more attractive, and the transfer payer gets paid less for working, again lowering incentives to work." (Arthur Laffer, op.cit.)

Es ist sogar sehr zweifelhaft, ob das Ausgeben von staatlichen Stimulus-Geldern für Infrastrukturprojekte sinnvoll ist, siehe dazu: Veronique de Rugy und Matthew Mitchell, Would More Infrastructure Spending Stimulate the Economy?. Selbst John Maynard Keynes war hinsichtlich dieser Projekte ein Skeptiker: "Organized public works, at home and abroad, may be the right cure for a chronic tendency to a deficiency of effective demand. But they are not capable of sufficiently rapid organization (and above all cannot be reversed or undone at a later date), to be the most serviceable instrument for the prevention of the trade cycle." (The Collected Writings of John Maynard Keynes: Volume 27, Activities 1940-46: Shaping the Post-war World: Employment and Commodities, ed. E. Johnson, D. Moggridge, Cambridge University Press, 1980, Seite 122)

Aus diesen Gründen sind alle staatlichen "Stimulus"-Programme in Wirklichkeit Behinderungsprogramme, die der Wirtschaft schaden, statt ihr zu nutzen.

Samstag, 4. August 2012

Freiheit ermöglicht Wohlstand

Je größer die wirtschaftliche Freiheit, desto höher das Einkommen der Bürger. Diesen altbekannten Zusammenhang dokumentiert auch die neueste Freiheits-Rangliste der Länder dieser Welt: Economic Freedom of the World: 2011 Annual Report, aus der die beiden folgenden Grafiken stammen.


Im wirtschaftlich freiheitlichsten Viertel der Länder ist das Pro-Kopf-Einkommen siebenmal höher als in dem Viertel mit der geringsten wirtschaftlichen Freiheit. Sogar zwischen dem obersten und dem zweiten Viertel gibt es noch einen riesigen Unterschied, denn im ersteren verdienen die Bürger mehr als doppelt so viel wie im letzteren. Diese Einkommensunterschiede haben Auswirkungen auf alle Lebensbereiche, so auch auf die Lebenserwartung.


Die Lebenserwartung ist im freiesten Viertel ca. zwei Jahrzehnte höher als im unfreisten Viertel. Man zahlt für jede Abweichung vom unverfälschten Kapitalismus einen hohen Preis.

Samstag, 21. Juli 2012

Abkühlungstrend über zwei Jahrtausende

Einem internationalen Forscherteam unter Beteiligung von Wissenschaftlern der Johannes Gutenberg-Universität Mainz (JGU) ist es gelungen, eine sehr genaue 2.000-jährige Klimarekonstruktion für Nordeuropa anhand von Baumjahrringen zu erstellen, siehe: Jan Esper et al., Orbital forcing of tree-ring data Nature Climate Change, 8. Juli 2012, doi:10.1038/NCLIMATE1589.

Die Paläoklimatologen unter der Leitung von Jan Esper vom Geographischen Institut der JGU erarbeiteten aus den Jahrringdichtemessungen fossiler Kiefernbäume aus dem finnischen Lappland eine Zeitreihe, die bis in das Jahr 138 vor unserer Zeitrechnung zurückreicht. Die Messungen der Holzdichte dieser Bäume korrelieren sehr gut mit den modernen Temperaturmessungen in diesem Raum nahe der nordischen Waldgrenze. Mit ihrem innovativen Ansatz ist es den Forschern gelungen, eine Temperaturrekonstruktion von bisher unerreichter Qualität zu erstellen. Diese Rekonstruktion zeigt in hoher Auflösung die Wärmeperiode zur Römerzeit und die Mittelalterliche Warmzeit, aber auch die Kältephasen zur Zeit der Völkerwanderung oder der kleinen Eiszeit.

"Wir haben festgestellt, dass die historischen Temperaturen zur Römerzeit und im Mittelalter bis dato als zu kühl eingeschätzt wurden", so Esper. "Diese Befunde sind auch insofern von klimapolitischer Bedeutung, da sie die Beurteilung des aktuellen Klimawandels im Vergleich zu den historischen Warmphasen beeinflussen." (Quelle: Klima in Nordeuropa während der letzten 2.000 Jahre rekonstruiert: Abkühlungstrend erstmalig präzise berechnet) Das bedeutendste Ergebnis der Studie ist die Entdeckung eines langfristigen Abkühlungstrends, der sich kontinuierlich über die letzten 2.000 Jahre erstreckte, siehe dazu die folgende Grafik (Bildquelle):


Die Forscher erklären diesen Abkühlungstrend durch die langsame Veränderungen des Sonnenstands beziehungsweise der Distanz der Erde zur Sonne, wodurch eine Abkühlung von -0,3°C pro Jahrtausend verursacht wurde. "Eigentlich erscheint diese Zahl nicht sonderlich imposant", so Esper. "Allerdings ist sie im Vergleich zur globalen Erwärmung, die bis heute auch weniger als 1°C beträgt, nicht zu vernachlässigen. Wir konnten nun zeigen, dass die großräumigen Klimarekonstruktionen, die auch vom internationalen Klimarat IPCC verwendet werden, den langfristigen Abkühlungstrend über die letzten Jahrtausende unterschätzen."

Samstag, 14. Juli 2012

Fracking ist ungefährlich

Das Hydraulic Fracturing (Fracking) ist ein sehr erfolgreiches Verfahren zur Gewinnung von Erdgas und Erdöl aus Gesteinsformationen, in denen bisher kein wirtschaftlicher Abbau derartiger Bodenschätze möglich war. Die folgende Grafik verdeutlicht diese geologische Tiefbohrtechnik (Quelle: Al Granberg, Pro Publica):


Die Grünen führen einen Propagandafeldzug gegen das Fracking, in der sie durch Übertreibungen versuchen, Angst zu erzeugen. Eine Studie der Royal Academy of Engineering widerlegt nun die grünen Behauptungen:

  • "Fracture propagation is an unlikely cause of contamination. The risk of fractures propagating to reach overlying aquifers is very low provided that shale gas extraction takes place at depths of many hundreds of metres or several kilometres. Even if fractures reached overlying aquifers, the necessary pressure conditions for contaminants to flow are very unlikely to be met given the UK’s shale gas hydrogeological environments."
  • "Seismic risks are low. ... Seismicity induced by hydraulic fracturing is likely to be of smaller magnitude than the UK’s largest natural seismic events and those induced by coal mining."
  • "Water requirements can be managed sustainably. Water use is already regulated by the Environment Agency. Integrated operational practices, such as recycling and reusing wastewaters where possible, would help to minimise water requirements further."

Mittwoch, 11. Juli 2012

Kein Peak Oil in Sicht

Die Grünen versuchen ihre Subventionierung der erneuerbaren Energien auch mit der Behauptung zu rechtfertigen, dass die weltweiten Vorräte an energetisch nutzbaren Kohlenwasserstoffen (Erdgas, Erdöl, Kohle) bereits weitgehend erschöpft seien und deshalb die Förderung dieser Energieträger ihren Allzeit-Höhepunkt schon überschritten habe und sie daher in Zukunft immer mehr zurückgehen müsse um sehr bald bei nahezu Null zu stagnieren.

Diese These vom bereits erreichten oder demnächst bevorstehenden Peak Oil ist seit ihrem Bestehen durch die Realität immer wieder widerlegt worden. In den letzten 50 Jahren sind die wirtschaftlich nutzbaren Erdölreserven nicht gesunken, sondern stetig gestiegen. Dieser Prozess hat sich in den vergangenen 10 Jahren beschleunigt und es ist zu erwarten, dass in den nächsten 10 Jahren der Produktionszuwachs sogar noch zunehmen wird.

Leonardo Maugeri vom Belfer Center for Science and International Affairs der Harvard University kommt in seiner empirischen Studie Oil - The Next Revolution zu folgenden Ergebnissen (Bildquellen: Maugeri, Leonardo. "Oil: The Next Revolution" Discussion Paper 2012-10, Belfer Center for Science and International Affairs, Harvard Kennedy School, June 2012.):


Die obige Grafik zeigt den bis 2020 zu erwartenden Anstieg in der globalen Produktion von Rohöl und flüssigem Erdgas in Millionen Fässer pro Tag (mbd = million barrels per day). Der Kapazitätszuwachs von 17,6 mbd in einem Jahrzehnt wäre der größte Produktionsanstieg seit den 1980er Jahren. Die nächste Grafik gibt eine Prognose der Produktionskapazitäten der wichtigsten Erdölländer bis 2020. Man sieht, dass nur in 4 Staaten (Iran, Mexiko, Norwegen und Großbritannien) mit einem Produktionsrückgang zu rechnen ist.


Leonardo Maugeri bewertet die Produktionsentwicklung auf dem Erdölweltmarkt wie folgt:

  • "Contrary to what most people believe, oil supply capacity is growing worldwide at such an unprecedented level that it might outpace consumption. This could lead to a glut of overproduction and a steep dip in oil prices."
  • "...production capacity growth will occur almost everywhere, bringing about also a 'de-conventionalization' of oil supplies. During the next decades, this will produce an expanding amount of what we define today as 'unconventional oils' such as U.S. shale/tight oils, Canadian tar sands, Venezuela’s extra-heavy oils, and Brazil’s pre-salt oils."
  • "In fact, the mere dynamics of supply, demand, and spare capacity cannot explain the high level of oil prices today. At more than $100 per barrel, the international benchmark crude Brent is $20 to $25 above the marginal cost of oil production. Only geopolitical and psychological factors (above all, a major crisis related to Iran) and a still deep-rooted belief that oil is about to become a scarce commodity, can explain the departure of oil prices from economic fundamentals."
  • "Oil is not in short supply. From a purely physical point of view, there are huge volumes of conventional and unconventional oils still to be developed, with no 'peak-oil' in sight. The real problems concerning future oil production are above the surface, not beneath it, and relate to political decisions and geopolitical instability."

Dienstag, 3. Juli 2012

Der Kapazitätsfaktor erneuerbarer Energien

Die Grünen schwärmen wortreich über die angeblichen Vorzüge der erneuerbaren Energien, aber sie sind sehr zurückhaltend bei der Bereitstellung von Daten, die den Produktivitätsvergleich ihrer Lieblingsenergiearten mit den Kohlenwasserstoffen und der Atomenergie ermöglichen würden. Eine entscheidende Kennziffer in diesem Zusammenhang ist der Kapazitätsfaktor, der die tatsächlich Leistung einer Energieproduktionsanlage als Prozentsatz der maximal möglichen Leistung dieser Anlage ausdrückt. Die folgende Tabelle zeigt einen internationalen Vergleich der Leistungsdaten von Windkraftanlagen im Jahre 2009 (Quelle: Physikalisches Institut der Universität Heidelberg in Windenergie):


Die blauen Ziffern in der Spalte "Nutzungsgrad" geben den Kapazitätsfaktor der Windkraftanlagen des betreffenden Landes an. Man sieht, dass Deutschland mit einem Kapazitätsfaktor von 16,6% noch schlechter dasteht als alle anderen Staaten. Trotzdem wurde an den ungünstigen deutschen Standorten im ökologistischen Überschwang mehr Windkraftkapazität installiert als in jedem anderen europäischen Land. Eine mittlere deutsche Windkraftanlage hatte im Jahr 2010 eine installierte Kapazität von ca. 1,3 MW und das Siebenjahresmittel des Kapazitätsfaktors aller deutscher Windkraftanlagen betrug 18% (Quelle: siehe oben).

Das bedeutet, dass eine deutsche Windkraftanlage in der Realität nur etwa ein Sechstel der Leistung liefert, für welche die Anlage ausgelegt wurde. Das entspricht einer Fabrikanlage, die während des Jahres nur 2 Monate in Betrieb ist und die restlichen 10 Monate still steht. Niemand würde in ein derartiges Pleiteobjekt investieren, aber im Energiebereich wurde der Markt beseitigt und die Politiker diktieren.

Es könnten auch niemals 500 2-MW-Windkraftanlagen ein 1000-MW-Kernkraftwerk ersetzen, da deutsche Kernkraftwerke einen Kapazitätsfaktor von weit über 90% haben. Ein Propagandamärchen ist auch die in der deutschen Presse oft zu findende Behauptung, dass ein bestimmter Verbund von Windkraftanlagen so und so viele Haushalte versorgen könne, wobei einfach die maximal mögliche Leistung durch den Verbrauch eines durchschnittlichen Haushalts geteilt wird. Die so ermittelte Versorgungszahl ist um das Sechsfache zu hoch angesetzt, wobei noch gar nicht berücksichtigt ist, dass der Windstrom, wenn er fließt, es oft zu Zeiten tut, in denen man ihn gar nicht gebrauchen kann.

"Wind energy can be likened to the wayward child. It’s unavailable when needed, shows up when unexpected, and when it does arrive it often behaves erratically. As a result, wind cannot be relied on as a primary fuel source." Lisa Linowes von Industrial Wind Action


So schlecht die Leistungsdaten der Windenergie sind, die Solarwirtschaft schafft es, diese noch drastisch zu unterbieten. Deutsche Fotovoltaikanlagen hatten im Jahre 2010 einen Kapazitätsfaktor von 7,9% (Quelle: Physikalisches Institut Heidelberg in Fotovoltaik in Deutschland). Der jährliche Kapazitätsfaktor der deutschen Solaranlagen schwankte im Zeitraum von 2000 bis 2010 zwischen 4% und 8%.

Den Grünen ist bewusst, wie ungünstig diese Leistungsdaten sind und sie versuchen, den Sachverhalt zu verschleiern. Das macht auch das Bundesumweltministerium, zu dessen Daten das Physikalisches Institut Heidelberg mit der gebotenen Ironie schreibt: "Ein Beweis für den hohen Sachverstand des BMU in Energiefragen ist die Tatsache, dass die installierte Leistung in der Einheit MW angegeben wird, die damit zu vergleichende, bereit gestellte Leistung aber in der Einheit GWh. Letztere ist eine Energieeinheit, und ich nehme an, dass diese Einheit eigentlich GWh a-1 sein sollte. Zur Berechnung des Kapazitätsfaktors ohne großen Umrechnungsaufwand müssen installierte und gelieferte Leistung mit derselben Maßeinheit angegeben werden. Oder ist es Ziel dieses, nicht nur vom BMU benutzen Verfahrens zu verschleiern, wie ungeeignet die Fotovoltaik für die Energieversorgung Deutschlands ist?."

Freitag, 29. Juni 2012

Der Öko-Imperialismus der EU

Nirgendwo auf der Welt ist der Ökologismus so ausgeprägt wie in der EU, deren politische Klasse die bevorstehende Klima-Apokalypse predigt und damit extreme Maßnahmen begründet, die außerhalb des eigenen Machtbereichs niemand übernehmen will. Das sei aber vorerst unvermeidlich, werden wir belehrt, denn wir hätten eine Avantgarde-Funktion im Klimaschutz. Der etwas rückständige und moralisch nicht ganz so hoch stehende Rest der Welt werde schon nachfolgen, wenn er erst das von uns gegebene Vorbild gebührend bewundert hat und mit seinem langsam arbeitenden Verstand seine Vorzüge erkannt hat.

Nun ist seit langer Zeit klar, dass der Öko-Vorreiter EU keine Nachahmer findet, sondern auf seinem Sonderweg völlig isoliert ist. Ein Beispiel dafür ist die Einbeziehung des Luftverkehrs in den EU-Emissionshandel (European Union Emission Trading System, EU ETS). Seit dem 1.1.2012 müssen alle Fluglinien für jeden Flug, der einen Flughafen in der EU nutzt, Emissionszertifikate kaufen. Ein besonderer Leckerbissen der EU-Regelung ist, dass für die gesamte Flugstrecke, also auch jene außerhalb des EU-Luftraums, Emissionsrechte zu erwerben sind. Die außereuropäischen Fluggesellschaften wehren sich vehement gegen ihre Einbeziehung in das ETS, da diese grüne Sonderbesteuerung die Flugtickets auf innereuropäischen Flügen um ca. 10 Euro und auf Langstrecken-Flügen um ca. 40 Euro verteuern würde.

Die internationale Zivilluftfahrtorganisation ICAO hat im Herbst 2011 die Ausweitung des ETS auf die Fluggesellschaften außerhalb der EU verurteilt, da sie gegen Artikel 1 der Convention on International Civil Aviation verstößt, der lautet: "Every state has complete and exclusive sovereignty over airspace above its territory."

Das Repräsentantenhaus der USA hat ein Gesetz verabschiedet, das US-Firmen die Teilnahme am ETS verbietet. Allein diese Unternehmen müssten von 2012 bis 2020 für die EU-Emissionszertifikate 3,1 Milliarden Dollar ausgeben, siehe: EU emissions trading could escalate into 'first green trade war'.

Auch China, Russland und Indien haben unmissverständlich erklärt, dass sie sich nicht dem ETS unterwerfen wollen. Im Februar 2012 unterzeichneten 24 Staaten, darunter Brasilien, China, Indien, Japan, Korea, Russland und die USA, die Moskauer Deklaration, in der sie Gegenmaßnahmen ankündigen, falls die EU das ETS gegen sie mit Zwangsmaßnahmen durchzusetzen versucht. Als Vergeltung gegen mögliche EU-Aktionen werden u. a. genannt: Zusatzgebühren für EU-Fluggesellschaften, Entzug von Lande- und Überflugsrechten, Kündigung bilateraler Luftverkehrsabkommen mit der EU.

Die chinesische Regierung hat den Fluggesellschaften ihres Landes ebenfalls verboten, in irgendeiner Weise mit den EU-Behörden in ETS-Angelegenheiten zu kooperieren. Am 12. Juni kündigte China an, EU-Flugzeuge zu beschlagnahmen, wenn die EU Strafen gegen chinesische Unternehmen in diesem Streit verhängen sollte, siehe: China threatens to seize planes in EU tax row. In Protest gegen die EU-Klimapolitik hat China bereits Bestellungen bei Airbus in Höhe von 14 Milliarden Euro gekündigt.

Die EU hat jetzt nur noch zwei Optionen: entweder auf den Einbezug der außereuropäischen Unternehmen in das ETS zu bestehen und dafür den ersten grünen Handelskrieg in Kauf zu nehmen, oder klein beizugeben und die Emissionsbesteuerung auf Flüge von EU-Fluggesellschaften zu beschränken und so deren Wettbewerbsfähigkeit entscheidend zu schwächen. Das wäre ein harter Schlag für die europäische Luftfahrt, die eine Umsatzrendite von nur 1% hat.

Die Hauptleidtragenden dieser ökologistischen Politik sind in jedem Fall die Bürger der EU, die bisher durch das ETS mit 210 Milliarden Euro belastet wurden, wie eine Untersuchung der UBS ergeben hat, siehe Europe's $287bn carbon 'waste': UBS report. Mit diesem immensen Aufwand wurde nicht einmal das selbst gesteckte Ziel einer Kohlendioxid-Reduktion erreicht, wie die UBS feststellt, die von "almost zero impact" bei der Emissionsminderung spricht.

Die EU hat sich weltweit isoliert. Es ist schon pathologisch, in dieser Situation von sich zu behaupten, ein Vorreiter zu sein.

Freitag, 22. Juni 2012

Die Farce der EU-Sparpolitik

Die EU-Schuldenkrise zwang die regierenden Politiker, sich zu einer Sparpolitik zu bekennen, um die Finanzmärkte zu beruhigen. Sofort nach Bekanntgabe dieser Austeritätspolitik, die von sich behauptet, einen ausgeglichenen Staatshaushalt ohne Neuverschuldung anzustreben, wurde heftige Kritik daran geübt. Man beklagt Kürzungen der Staatsausgaben, die "tief", "brutal", "wild" und "grausam" wären. Die Linke spricht vom "Kaputtsparen", das verantwortlich für die aktuellen Rezessionen in den EU-Krisenstaaten sei.

Tatsächlich hat bis heute keine nennenswerte Kürzung der Staatsausgaben in den hoch verschuldeten EU-Staaten stattgefunden. Die folgende Grafik zeigt die Entwicklung der Staatsausgaben in fünf exemplarischen Staaten (GISFUK) von 2002 bis 2011 zu ihrem nominalen Wert (Quelle: Veronique de Rugy vom Mercatus Center der George Mason University in Fiscal Austerity in Europe Doesn't Mean Large Spending Cuts):



In der Grafik bezeichnet die graue vertikale Linie den Beginn der Wirtschaftskrise im Jahre 2008. Jede ernsthafte Einsparung müsste erreichen, dass die Staatsausgaben zumindest unter das Niveau fallen, das sie zu Beginn der Krise hatten. Nur einmal ist dieses Minimalziel erreicht worden, siehe auch: Show Me the ‘Savage’ Spending Cuts in Europe, Please.

  • In Frankreich gibt es überhaupt keine Einsparungen, sondern die Staatsausgaben wuchsen ungehemmt von 1.030 Milliarden Euro in 2008 auf 1.119 Milliarden Euro im Jahre 2011. Das hinderte aber die Linke nicht daran, in den französischen Präsidentschafts- und Parlamentswahlen der vergangenen Monate gegen eine angebliche Sparpolitik Stimmung zu machen und mit dieser hemmungslosen Demagogie die Wahlen zu gewinnen.
  • Auch im Vereinigten Königreich haben die Staatsausgaben seit Beginn der Krise zugenommen, von 686 Milliarden Pfund Sterling in 2008 auf 739 Milliarden £ im Jahre 2011. Die britische Regierung hat trotz ihrer starken Worte nur eine leichte Abschwächung des Ausgabenanstiegs zustande gebracht.
  • In Italien wurden die Staatsausgaben in den Jahren 2009 und 2010 reduziert, aber im Jahre 2011 wieder erhöht, wobei die Erhöhung höher ausfiel, als die Summe der beiden Senkungen zuvor. Im letzten Jahr gab Italien 22 Milliarden Euro mehr aus als im Jahre 2008.
  • Nur Spanien und Griechenland senkten ab 2009 die Staatsausgaben, wenn auch nur sehr unzureichend. Spanien gab 2011 immer noch 18 Milliarden Euro mehr aus als im Jahre 2008. Hinzu kommt, dass in beiden Ländern sinnvolle Strukturreformen fast vollständig unterblieben.

Das Bild wird auch nicht besser, wenn man die um die Inflation bereinigten Ausgaben betrachtet. Die nächste Grafik zeigt die Staatsausgaben der fünf Länder bewertet mit einem GDP Deflator mit Basisjahr 2000 (Quelle: wie erste Grafik). Aus der Grafik ist ersichtlich, dass sogar der griechische Staat heute mit seinen gesunkenen Ausgaben mehr Güter und Dienstleistungen des gleichen Leistungsgrads kaufen kann als im Jahre 2008.



Soviel zu den "grausamen Ausgabenkürzungen", die für die in den Krisenstaaten zu beobachtende Rezession verantwortlich sein sollen. Der wahre Grund für den Wirtschaftsrückgang ist der Versuch der politischen Klasse, einen ausgeglichenen Staatshaushalt nicht durch Ausgabensenkungen, sondern durch Einnahmeerhöhungen zu erreichen. "In fact, between 2010 and 2011, according to Eurostat, government spending across the EU dropped by €2.6 billion. But during that same time frame, taxes rose €235.5 billion. That is not a misprint: Europe raised taxes by almost €90 for every €1 in actual spending cuts." (Quelle: Tax hikes as a bridge to nowhere).

Diese Steuererhöhungen sind der Grund für den Wirtschaftsabschwung. Alle seriösen Ökonomen stimmen darin überein, dass eine erfolgreiche Haushaltssanierung nicht über Steuererhöhungen, sondern nur über Ausgabensenkungen erfolgen kann. Matt Mitchell schreibt dazu: "Lots and lots of papers [21 peer-reviewed papers] have now studied this question and the evidence is rather clear: the types of austerity that are most-likely to a) cut the debt and b) not kill the economy are those that are heavily weighted toward spending reductions and not tax increases. I am aware of not one study that found the opposite. In fact, we know more. The most successful reforms are those that go after the most politically sensitive items: government employment and entitlement programs." (Quelle: Does UK Double-Dip Prove that Austerity Doesn’t Work?).

Sogar der Internationale Währungsfonds (International Monetary Fund, IMF) fordert von den Krisenstaaten Ausgabenkürzungen statt Steuererhöhungen, siehe: Greece must now cut spending, says IMF. Welche verheerenden Folgen die Erhöhung des Steuerdrucks hat, zeigt an vielen praktischen Beispielen aus Frankreich der folgende Artikel: The terror - The 75% tax and other alarming campaign promises.

Die gegenwärtige Wirtschaftskrise hat ihren Ursprung darin, dass der Sozialstaat nicht länger finanzierbar ist. Der Ausweg aus der Misere ist nur über eine drastische Senkung der Staatsausgaben möglich. Da aber weder die Herrschenden, noch das Volk, diesen Weg gehen wollen, wird die Krise anhalten und sich verschärfen.


Freitag, 15. Juni 2012

Preistreiber spielen Verbraucherschützer

Das Staatstheater gibt zur Zeit eine Schmierenkömodie, deren Handlung in Kürze die ist: die Treibstoffpreise steigen bis an die Schmerzgrenze; die Bürger sind verärgert; die unteren Einkommensschichten können sich das Autofahren kaum mehr leisten; die politische Klasse sucht einen Sündenbock, um die Schuld von sich abzulenken und findet natürlich einen, nämlich den Schurken, der für alle Übel dieser Welt verantwortlich ist: das Großkapital; die Kapitalisten werden vor ein virtuelles Volkstribunal gestellt um zumindest eingeschüchtert und später möglichst enteignet und bestraft zu werden.

Es ist ein spannendes und lustiges Stück, das da aufgeführt wird. Es hat nur den kleinen Nachteil, die Realität völlig verlogen darzustellen. Von jedem Euro, der an einer Tankstelle für Benzin ausgegeben wird, gehen ca. 60 Cent an den Staat. Jede Tankstelle müsste, wenn man ehrlich wäre, ein großes Schild tragen mit der Aufschrift: INKASSOSTELLE DES FINANZAMTS. Siehe dazu: Historische Benzinpreise von 1972-2010. Die folgende Grafik zeigt die heutigen Preisbestandteile von Superbenzin E10 (Quelle):



Der Einstandspreis, zu dem die deutschen Mineralölkonzerne ihre Produkte beschaffen, ergibt sich aus deren Notierung an der Warenbörse in Rotterdam. Die Börsenkurse sind von der Situation auf dem Weltmarkt abhängig und auch von großen Nachfragern nicht beeinflussbar. Auch für die Steuern sind die Anbieter, die als kostenlose Steuereintreiber missbraucht werden, nicht verantwortlich. In ihrem Gestaltungsbereich ist nur die dritte Komponente des Preises, nämlich der Deckungsbeitrag in Höhe von ca. 4% des Verbraucherpreises. Davon sind die Kosten für Transport, Lagerhaltung, gesetzliche Bevorratung, Verwaltung, Vertrieb, Forschung, Qualitätssicherung der Produkte, Provision der Tankstellenpächter sowie seit Januar 2007 die Kosten für Biokomponenten und deren Beimischung zu tragen. Wenn dann vom Deckungsbeitrag etwas übrig bleibt, ist das der Gewinn der raffgierigen Kapitalisten, die daraus noch Investitionen, z.B. in neue Tankstellen, zu decken haben. Üblicherweise sind die Mineralölkonzerne froh, wenn sie einen Gewinn von 0,5 bis 1 Cent pro Liter erzielen.

Die politische Klasse, die pro Liter Benzin ca. 90 Cent abkassiert, hat keine Skrupel, die Schuld für die Preissteigerungen den privaten Unternehmen zuzuweisen. Dabei sagen die selben Politiker, dass es ihr erklärtes Ziel ist, die fossilen Brenn- und Treibstoffe zu verteuern, um das Klima zu schützen. Die exzessive Besteuerung der Kraftstoffe ist gerade Ausdruck dieser ökologistischen Politik.

Aber man kann im alltäglichen Politikbetrieb keine Rücksicht auf derartige Widersprüche in den öffentlichen Aussagen der Machthaber nehmen. Wenn Unmut im Volk entsteht, muss gehandelt werden. Das tut der FDP-Bundeswirtschaftsminister, indem er beim Bundeskartellamt eine Preisüberwachungsbehörde, euphemistisch "Markttransparenzstelle" genannt, einrichtet, der nicht nur die Preise im Großhandel mit Strom und Gas sondern auch alle Geschäftsvorfälle im Tankstellenbereich zu melden sind, siehe Entwurf eines Markttransparenzstellen-Gesetzes. Darin wird der Wille deutlich, jedes Detail des Geschäftslebens zu überwachen und zu reglementieren. Das Gosplan der Sowjetunion lebt weiter.

So sollen im Kraftstoffsektor nicht nur die Tankstellenpreise täglich der Behörde gemeldet werden, sondern auch die Mengen jeder einzelnen Tankwagenlieferung für jede einzelne Kraftstoffsorte an jede der 14.700 Tankstellen in Deutschland. Darüber hinaus soll zu jeder Tankwagenlieferung der jeweilige Einkaufspreis an die Aufseher berichtet werden. Insgesamt müssen für die neue Behörde mehr als 1 Million Daten pro Tag erhoben, gespeichert und verarbeitet werden.

Die Erfüllung dieses Gesetzes bürdet der Mineralölwirtschaft erhebliche Kosten auf, siehe Kabinettsentscheidung für das Bürokratiemonster Markttransparenzstelle und (Markttransparenzstellen-Gesetz - Stellungnahme des MWV. Es ist aufschlussreich, dass diese neue Bürokratie unter der Federführung eines FDP-Ministers geschaffen wurde. Diese Regulierungspolitik ist das genaue Gegenteil dessen, was der Liberalismus will.

Samstag, 9. Juni 2012

Die Steuererhöhungspartei FDP

Vor der letzten Bundestagswahl hat die FDP Steuersenkungen versprochen, nach der Wahl hat sie geliefert, allerdings das Gegenteil dessen, was sie angekündigt hat. Sehen wir uns drei Steuererhöhungen an, welche die FDP zu verantworten hat:

  1. Luftverkehrsteuer (LuftVSt). Seit dem 1. Januar 2011 müssen Fluggesellschaften eine Steuer für Passagiere entrichten, die ihren Flug auf deutschen Flughäfen beginnen. Diese Steuer in Höhe von jährlich knapp einer Milliarde Euro trifft besonders deutsche Luftfahrtunternehmen hart, denn diese erzielen den wesentlichen Anteil ihres Umsatzes aus Abflügen von deutschen Flughäfen, während bei ihren ausländischen Konkurrenten dieser Anteil gering ist. 60% der LuftVSt tragen alleine 6 deutsche Fluggesellschaften, der Rest verteilt sich auf über 100 ausländische Unternehmen. Die deutschen Fluggesellschaften und Flughäfen sind zudem im innerdeutschen Verkehr besonders belastet, da sowohl für den Hin- als auch den Rückflug LuftVSt anfällt. Das führt zu einer erheblichen Verschlechterung der Wettbewerbsposition der einheimischen Luftverkehrsunternehmen, die deshalb langsamer wachsen als ihre westeuropäischen Konkurrenten, obwohl hier die Gesamtwirtschaft höhere Wachstumsraten hat als dort. Siehe dazu die Grafik (Quelle: Stellungnahme des Bundesverbandes der Deutschen Luftverkehrswirtschaft e.V. (BDL) zu den Auswirkungen der Luftverkehrsteuer):

    Die deutsche Luftverkehrswirtschaft trägt ihre Infrastruktur- und Betriebskosten selbst. Das werden in diesem Jahr voraussichtlich 2 Mrd. € für Flughafenentgelte, 1,2 Mrd. € für Flugsicherungsgebühren und 0,5 Mrd. € für Luftsicherheitsgebühren sein. Bis zum Jahre 2010 hat jede Bundesregierung die Finanzierung des deutschen Luftverkehrs durch seine Nutzer anerkannt und deshalb auf eine Zusatzbesteuerung verzichtet. Es blieb der FDP und ihren Genossen in der CDU vorbehalten, im Spätsommer 2010 einen radikalen Kurswechsel zu vollziehen und die einheimischen Fluggesellschaften einer doppelten Belastung zu unterwerfen. Zum einen finanzieren sie ihre Infrastruktur weiterhin selbst. Zum anderen müssen sie nun zusätzlich die systemfremde LuftVSt tragen.
  2. Kernbrennstoffsteuer (KernbrSt), umgangssprachlich auch Brennelementesteuer genannt. Seit dem 1. Januar 2011 müssen Atomkraftwerksbetreiber je Gramm Uran oder Plutonium in ihren Brennstäben 145 Euro an den Staat zahlen. Das Kernbrennstoffsteuergesetz (KernbrStG) soll jährlich 2,3 Milliarden Euro einbringen. Die FDP-Bundestagsfraktion begründete in ihren Fact Sheets vom 6. Oktober 2010 zum Energiekonzept der Regierung die KernbrSt mit der damals angekündigten Verlängerung der Laufzeiten der Kernkraftwerke. In den FDP-Papier heißt es: "Die Kernbrennstoffsteuer soll einen großen Teil der Zusatzgewinne abschöpfen ... Die Koalition will damit sicherstellen, dass die Verlängerung der Restlaufzeiten den Stromkunden und nicht den Stromerzeugern dient." Dann kam vor einem Jahr die Energiewende von CDU/FDP mit ihrer Rücknahme der Laufzeitverlängerung, aber die Brennelementesteuer blieb. Die deutsche Energiewirtschaft muss deshalb zusätzlich zu den Einnahmeausfällen und Vermögensschäden in Milliardenhöhe durch den Atomausstieg auch noch diese Sondersteuer tragen, obwohl deren Begründung nicht mehr gegeben ist. Der umweltpolitische Sprecher der FDP-Bundestagsfraktion sagte dazu in der Debatte des Gesetzes im Bundestag an die Opposition gewandt: "Wir kassieren diese Konzerne so ab, wie Sie es sich nie getraut haben." (Quelle: Brennelementesteuer - Der Triumph der Abkassierer). So viel zur angeblichen Wirtschaftsfreundlichkeit der FDP.
  3. Finanztransaktionssteuer. In dieser Woche wurde bestätigt, dass die ursprünglich als Tobin-Steuer von der äußersten Linken geforderte Abgabe nun mit den Stimmen der FDP in Deutschland eingeführt werden soll, siehe: Finanztransaktionssteuer - Noch eine Schröpfsteuer. Zu den negativen Auswirkungen dieser Steuer sagt der Bundesverband deutscher Banken: "Vor einer isolierten Einführung in Europa kann wegen der vielfältigen Umgehungsmöglichkeiten nur gewarnt werden. Aber auch wenn Ausweichbewegungen begrenzt werden könnten, stünden der ungewissen Einnahme handfeste Nachteile gegenüber: Eine Finanztransaktionsteuer würde die Beschaffung von Kapital verteuern und das Wachstum dämpfen. Auch die Anleger würden belastet. Die Leistungsfähigkeit der Finanzmärkte würde beeinträchtigt und damit die Wettbewerbsfähigkeit gerade derjenigen Volkswirtschaften beschädigt, die wie Deutschland wegen hoher Lohnkosten auf Kapital dringend angewiesen sind." (Quelle: Auswirkungen einer möglichen Finanztransaktionssteuer)

Die FDP rühmt sich, durch den von ihr geplanten teilweisen Abbau der kalten Progression in der Einkommensteuererhebung eine Steuersenkung auf den Weg zu bringen. Doch das ist eine Mogelpackung, denn dem Steuerzahler soll nur ein Teil dessen zurück gegeben werden, was ihm vorher über diese verdeckte Erhöhung der Steuerlast zusätzlich genommen wurde. Wenn z. B. ein Arbeitnehmer mit einem Bruttomonatseinkommen von 3.200 Euro eine Lohnerhöhung von 2,5% bekommt, erhöht sich seine Steuerbelastung um 4,3%, weil bereits dieser geringfügige Einkommenszuwachs ihn in einen höheren Steuertarif bringt. Dadurch kassiert der Staat bei jeder Lohnerhöhung überproportional mit. Das Problem wird dadurch verschärft, dass Lohnerhöhungen zum Großteil oder manchmal zur Gänze nur der Ausgleich für die vorhergehende Inflation sind, also die Einkommensverbesserung nur nominal ist, aber keiner realen Kaufkraftsteigerung entspricht. Trotzdem beansprucht der Fiskus in dieser Situation mehr Steuern, obwohl die Leistungsfähigkeit des Steuerpflichtigen nicht gestiegen ist. Eine wirkliche Beseitigung dieser Steuerungerechtigkeit würde eine viel größere Änderung der Tarifstruktur erfordern, als die FDP durchzuführen bereit ist.

Es bleibt festzuhalten, dass in der konkreten Politik der FDP keine Spur des Liberalismus feststellbar ist. Diese Partei ist ein fester Bestandteil des herrschenden ökosozialistischen Machtkartells und für Liberale nicht einmal als kleineres Übel wählbar.

Samstag, 2. Juni 2012

Götzendämmerung in Spanien

Die folgenden Kurven haben zustande gebracht, was alle rationalen Argumente bisher nicht vollbrachten:





Die nicht zuletzt durch die staatliche Energiepolitik ausgelöste Wirtschaftskrise hat die spanische Regierung gezwungen, einen Subventionsstopp für alle neuen Projekte zum Ausbau erneuerbarer Energien zu beschließen, siehe: Spanish moratorium turns tables for renewable energy sector. Der oberste europäische Windlobbyist, der CEO der European Wind Energy Association Christian Kjaer, sagte dazu völlig zu Recht: "They destroyed the Spanish market overnight with the moratorium ... The wider implication of this is that if Spanish politicians can do that, probably most European politicians can do that."

Wieder einmal zeigt sich die Richtigkeit der alten Erkenntnis: knappe Staatskassen sind die besten Verbündeten der Liberalen.

Mittwoch, 23. Mai 2012

Totaler Krieg gegen den Islam

Die Zeitschrift Wired hat u. a. in ihrem Artikel U.S. Military Taught Officers: Use ‘Hiroshima’ Tactics for ‘Total War’ on Islam aufgedeckt, dass an der Militärakademie des Generalstabs, dem Joint Forces Staff College in Norfolk, Virginia, Kurse stattfanden, in denen ein totaler Krieg gegen den gesamten Islam unter bewusstem Bruch des Völkerrechts geplant wurde. Wired kam in den Besitz von Kursunterlagen, in denen der Kursleiter, Oberstleutnant Matthew A. Dooley, die nachstehenden Aussagen machte (Quelle: "So What Can We Do?" A Counter-Jihad Op Design Model):

In seinem Operationsmodell entwirft Oberstleutnant Dooley einen Krieg zur gewaltsamen Transformation des Islam, der in vier Phasen erfolgen soll. Die Phase 1 "Abschreckung" sei bereits gescheitert, deshalb behandelt der Vortragende nur die Phasen 2 - 4. Dabei stellt er die folgenden Überlegungen an:

Seite 3: "Can we articulate and subsequently force a choice [of ours] on 1.4 billion people?"

Seite 7: "This model asserts Islam has already declared war on the West ... It is, therefore, illogical to continue along our current global strategy models that presume there are always possible options for common ground and detent with the Muslim Umma without waging near 'total war'".

Seite 8: In Phase 3 des Krieges gegen den Islam werden die folgenden Maßnahmen vorgeschlagen: "Saudi Arabia threatened with starvation, Mecca and Medina destroyed." Dabei nimmt der Autor keine Rücksicht auf das gegenwärtige Kriegsrecht, das auch von den USA ratifiziert wurde: "This model presumes Geneva Convention IV 1949 standards of armed conflict and the pursuant UN endorsements of it are now ... no longer relevant ... This would leave open the option once again of taking war to a civilian population wherever necessary (the historical precedents of Dresden, Tokyo, Hiroshima, Nagasaki being applicable to the Mecca and Medina destruction."

Oberstleutnant Dooley sieht keinen relevanten Unterschied zwischen extremen und gemäßigten Muslimen. Letztere unterscheiden sich für ihn nur in unwesentlichen Nuancen von den Ersteren. Deshalb sei es gerechtfertigt, gegen alle Muslime Krieg zu führen. Auf Seite 17 verspottet er die gemäßigten Muslime mit dem folgenden Bild:


Die Darstellung von Kindern überrascht in diesem Kontext, hat aber bei dieser Bildwahl die wohl beabsichtigte Wirkung, Skrupel bei der künftigen Bombardierung muslimisch bewohnter Städte zu reduzieren, denn die Bilder suggerieren, dass schon die Kinder Terroristen sind.

Seite 28: Hier zieht Oberstleutnant Dooley die Schlussfolgerungen aus seinen bisherigen Ausführungen: "Within any modern understanding of what defines a religion, Islam has clearly exceeded acceptable political boundaries..." - "... we have now come to understand that there is no such thing as 'moderate Islam' ..." - "This barbaric ideology will no longer be tolerated. Islam must change or we will facilitate its self-destruction."

Nachdem die Öffentlichkeit von diesem Kurs erfahren hatte, wurde er vom US-Verteidigungsministerium eingestellt. Oberstleutnant Dooley ist aber weiterhin an der Militärakademie tätig. Es ist für Außenstehende schwer festzustellen, wieviele Gegen-Dschihadisten es im höheren Offizierskorps der USA gibt. Wachsamkeit bleibt geboten. Jeder rechtsstaatlich Denkende muss sich fragen, ob es einen wesentlichen Unterschied zwischen Oberstleutnant Dooley und Anders Breivik gibt.

Freitag, 11. Mai 2012

Das Scheitern der Drogenpolitik

Der Krieg gegen die Drogen kennt nur Verlierer, mit einer Ausnahme: die staatliche Bürokratie, für die dieser Kampf ein vortrefflicher Vorwand ist, um üppig zu wachsen. Ein realistisches Bild der weltweiten Situation liefert die Studie der Weltbank INNOCENT BYSTANDERS - Developing Countries and the War on Drugs, aus der die folgenden Grafiken stammen.


Nachdem Präsident Nixon 1971 den war on drugs erklärt hatte, dauerte es noch einige Jahre, bis der Staatsapparat entsprechend ausgebaut war, aber dann füllten sich die Gefängnisse. Heute sind allein in den USA fast eine halbe Million Menschen hinter Gittern, weil sie gegen irgendeines der vielen Antidrogengesetze verstoßen haben. In 40% der Fälle war das nur der Besitz von Marijuana. Die USA geben jährlich circa 40 Milliarden Dollar für den Kampf gegen die Drogen aus, wobei drei Viertel dieser Ausgaben auf die Ergreifung und Bestrafung von Drogenhändlern und -konsumenten entfallen. Der Produktionsausfall, der durch die Inhaftierung dieser vielen Menschen entsteht, beläuft sich auf 39 Milliarden Dollar pro Jahr. Dazu kommen die negativen Auswirkungen der massenhaften Einkerkerungen, wie zerbrochene Familien, Arbeitslosigkeit und Armut.

Auch in anderen Ländern sind die sozialen Kosten der Drogenpolitik sehr hoch. So gibt z. B. Mexiko 9 Milliarden Dollar pro Jahr aus, um den Drogenhandel zu bekämpfen. In diesem Kampf wurden von 2006 bis 2010 insgesamt 34.000 Menschen getötet, die Gesamtzahl der Opfer beträgt ungefähr 50.000. In Kolumbien starben in den 1990er Jahren jährlich 27.000 Menschen in Auseinandersetzungen, die von der Drogenpolitik verursacht oder zumindest verstärkt wurden. Es gibt kein für den Drogenanbau oder -transit geeignetes Entwicklungsland, das nicht unter der Drogenpolitik gelitten hat.

Was hat man mit all diesen Opfern erreicht? Die Drogenproduktion ist weltweit stark gestiegen, während der Drogenkonsum moderat anstieg. Die Folge ist ein langfristiges Sinken der Drogenpreise, trotz des staatlichen Verfolgungsdrucks.



Charles Kenny stellt in seinem Artikel The Narco State fest: "Cocaine and opiate prices are about half their 1990 levels in America today. And 16 percent of American adults have tried cocaine -- that's about four times higher than any other surveyed country in a list that includes Mexico, Colombia, Nigeria, France, and Germany. ... Aggregate coca cultivation in Bolivia, Colombia, and Peru was higher in 2007 than in the late 1990s, for example -- despite stepped up eradication programs in all three countries." Daraus zieht er die Schlußfolgerung: "America and Europe should commit to a drug policy based around public health and regulation -- making drug use safer, legal, and rare -- rather than criminalization and paramilitary enforcement. That switch will save money and families at home alongside lives and livelihoods abroad. It is time the world ended its addiction to war as a tool of social control."

Aber nicht nur Experten auf der Beratungsebene, sondern auch Praktiker ziehen diesen Schluß. Guatemalas Präsident Otto Pérez schreibt in seinem viel beachteten Artikel We have to find new solutions to Latin America's drugs nightmare: "So, decades of big arrests and the seizure of tons of drugs and yet consumption and production of damaging substances are booming. ... Drug consumption, production and trafficking should be subject to global regulations, which means that consumption and production should be legalised but within certain limits and conditions. ... we [are not] willing to continue as dumb witnesses to a global self-deceit. We cannot eradicate global drug markets, but we can certainly regulate them as we have done with alcohol and tobacco markets. Drug abuse, alcoholism and tobacco should be treated as public health problems, not criminal justice issues."

Dienstag, 1. Mai 2012

Himmlische Determinanten des Klimas

Henrik Svensmark vom Center for Sun-Climate Research am National Space Institute der Technical University of Denmark (DTU), hat nachgewiesen, dass die von der Sonne regulierte Intensität der kosmischen Strahlung das Ausmaß der Wolkenbildung und damit das Klima bestimmt. Die folgende Grafik zeigt den Wirkungsmechanismus (Bildquelle: Vortrag Die klimatische Rolle der Sonne und der kosmischen Strahlung von H. Svensmark im November 2011):
Die nächste Grafik (Bildquelle s.o.) verdeutlicht den engen Zusammenhang zwischen der Intensität der kosmischen Strahlung (rot) und der niederen Wolkendecke (blau), die für das Klima entscheidend ist:
Die anfangs sehr gute Übereinstimmung der beiden Kurven verschlechtert sich zu Beginn der 1990er Jahre. Der Grund dafür dürfte in einer unsachgemäßen Eichung der Messinstrumente liegen, die zu einer Verzerrung der Daten führte. Das wäre nichts Neues, denn bei den Temperaturmessreihen sind schon viele Abweichungen von den anerkannten Messregeln aufgedeckt worden. Aber auch die vorliegenden Daten beweisen die große Abhängigkeit der beiden Größen voneinander.

In seiner bisher letzten Arbeit Evidence of nearby supernovae affecting life on Earth, die in den Monthly Notices of the Royal Astronomical Society erschienen ist, weist Henrik Svensmark für die letzten 500 Millionen Jahre nach, dass die Artenvielfalt auf der Erde von der Intensität der kosmischen Strahlung abhängt (Bildquelle):
Siehe dazu die Pressemitteilung der Royal Astronomical Society Did exploding stars help life on Earth to thrive? und den Artikel von Nigel Calder Svensmark’s Cosmic Jackpot: Evidence of nearby supernovae affecting life on Earth.

Mittwoch, 18. April 2012

Grüne plündern knappe Ressourcen

Der altertümliche Begriff "Seltene Erden" bezeichnet eine Gruppe von 17 Metallen, die hervorragende magnetische Eigenschaften haben, welche sie der komplexen Struktur ihrer Elektronenhülle verdanken. Deren äußere Schale mit den Valenzelektronen ist bei allen Seltenen Erden gleich. Die Unterschiede finden sich vor allem in der von außen gesehen dritten Elektronenschale. Die dortigen Elektronen können, abgeschirmt durch die beiden äußeren Schalen, ihre Wirkung voll entfalten, wodurch ihre Magnetkraft sehr stabil an der Struktur des Kristalls ausgerichtet wird.

Diese besonderen elektronischen Eigenschaften machen die Seltenen Erden unentbehrlich für eine Vielzahl von Anwendungen. Ein wichtiges Anwendungsfeld ist ihre Nutzung als Leuchtmittel in Bildschirmen, Lasern und LEDs. Besonders nachgefragt ist heutzutage die Seltene Erde Neodym, mit der sich die stärksten Dauermagneten herstellen lassen. Man kann damit z. B. leistungsfähige Lautsprecher bauen, die so klein sind, dass sie in das menschliche Ohr passen. Auch in modernen Computer-Festplatten ist Neodym unverzichtbar. Im Jahre 2008 wurden weltweit für diesen Zweck 1.700 Tonnen dieser Seltenen Erde verbraucht.

Dieser Verbrauch ist aber gering im Vergleich zu dem, was für Ökoanwendungen nachgefragt wird. Die starken Neodym-Magneten erlauben in Windkraftanlagen den direkten Antrieb des Generators durch die Rotoren ohne dazwischen geschaltetes Getriebe. Das vereinfacht den Bau der Anlagen und reduziert deren Wartungsaufwand. Für ein Megawatt an Leistung sind 200 kg Neodym erforderlich. Das bedeutet, dass eine einzige der heute üblichen 5-MW-Anlagen eine Tonne der wertvollen Seltenen Erde für sich beansprucht. Zusätzlich dazu benötigen die Magnethersteller noch weitere Seltenen Erden, da reine Neodym-Magneten nur bis 80°C stabil sind. Erst bei einem Zusatz von Dysprosium oder Terbium bleiben sie bis 200°C magnetisch.

Eine weitere Ökoanwendung für Seltene Erden sind Autos mit Elektroantrieb. Für deren Motor/Generator benötigt man Neodym, Praseodym, Dysprosium und Terbium. In den NiMH-Batterien kommen Lanthan und Cerium zum Einsatz. Die Knappheit dieser Ressourcen macht es unmöglich, die gegenwärtige kohlenwasserstoffgetriebene Kfz-Flotte auf Elektroantrieb umzustellen. In dem von den Grünen erträumten Ökoparadies könnte höchstens ein Zehntel der heutigen Autofahrer auf ein Elektrofahrzeug umsteigen, für den Rest bleibt das Fahrrad. Es ist keine Polemik festzustellen, dass die grünen Referenzländer das maoistische China und das heutige Nordkorea sind.

Auch ein anderer grüner Traum kommt nicht ohne Seltene Erden aus. Das schwankende Angebot an regenerativer Energie wollen die Grünen ausgleichen, indem sie große Strommengen über weite Strecken transportieren. So soll sogar Skandinavien mit Solarstrom aus der Sahara versorgt werden. Die Seltene Erde Yttrium bleibt in Verbindung mit Barium und Kupfer bis -183°C supraleitend. Sie gilt daher als viel versprechend bei dem Versuch, verlustarme Stromübertragungen über große Strecken zu realisieren.

Der grüne Hunger nach den Seltenen Erden ließ deren Preise explodieren. Von 2005 bis 2011 sind die Preise für Neodym um das Dreißigfache und für Dysprosium um mehr als das Fünfzigfache gestiegen. Terbium ist so knapp geworden, dass heute nicht mehr alle Kaufinteressenten bedient werden können. Bei Dysprosium erwartet man eine partielle Lieferunfähigkeit für die allernächste Zukunft.

Die grüne Energiepolitik verteuert nicht nur unmittelbar alle Energiearten, sondern auch viele Hochtechnologieprodukte, die auf Seltene Erden angewiesen sind. Wie viele Behinderte in armen Ländern müssen z. B. auf eine effiziente Hörhilfe verzichten, weil die hoch subventionierten Windkraftanlagenbauer den Weltmarkt von Neodym leer gefegt haben?

Es ist eine seltsame grüne Politik, die eine Ressource (Kohlenwasserstoffe) schonen will, indem sie eine andere Ressource schonungslos ausbeutet. Das ist nicht nur inkonsistent, sondern widerspricht auch der wirtschaftlichen Vernunft. Die bekannten Vorräte an fossilen Brennstoffen werden dank neuer Technologien von Jahr zu Jahr größer, während die Seltenen Erden wirklich selten sind.

Die Grünen bezeichnen die regenerativen Energien als sauber, obwohl die zu ihrer Erzeugung verwendeten Seltenen Erden bei ihrer Förderung und Aufbereitung oftmals viel Schmutz verursachen. Die Seltenen Erden finden sich in der Erdkruste fast immer zusammen mit radioaktiven Elementen wie Uran und Thorium, die beim Abbau als Abfallstoffe anfallen und zusammen mit giftigen Chemikalien in künstlichen Wasserbecken gelagert werden. Wenn nicht sehr strenge Sicherheitsmaßnahmen getroffen werden, können die Schadstoffe von dort in das Grundwasser oder die Luft gelangen.

In China ist das bereits mehrfach geschehen. In der Umgebung chinesischer Minen wurden verseuchte Brunnen entdeckt und die Krankheits- und Sterblichkeitsfälle unter den Anwohnern lagen über dem Durchschnitt. Insbesonders beim illegalen Abbau, der nach Schätzung von Experten ungefähr die Hälfte der Weltproduktion von Seltenen Erden liefert, kommt es häufig zu schweren Umweltbelastungen. Seit einigen Jahren geht die chinesische Regierung gegen diese Missstände vor, indem sie illegale Minen schließt. Das führte dazu, dass sich die chinesischen Exporte von 65.000 Tonnen im Jahr 2005 auf 30.000 Tonnen im letzten Jahr reduzierten. Für die Weltwirtschaft ist dieser drastische Angebotsrückgang ein ernstes Problem, weil China einen Anteil von 97% an der weltweiten Produktion Seltener Erden hat.

Die Regierungen der westlichen Industriestaaten reagierten auf den chinesischen Lieferrückgang mit einer Beschwerde gegen China bei der Welthandelsorganisation (WTO). Das ist ein ambivalentes Verhalten, denn China hat nur das getan, was die Beschwerdesteller schon seit längerer Zeit vom Land der Mitte gefordert hatten.

Es ist auch interessant zu sehen, wie China zu seiner Monopolstellung im letzten Jahrzehnt kam. Noch im Jahr 2000 stammte die Hälfte der Weltproduktion an Seltenen Erden aus der Mine Mountain Pass in Kalifornien, der Rest kam fast ausschließlich aus Lagerstätten an der Westküste Australiens. Auf Druck der Grünen, die nicht realisierbare Umweltauflagen für die westlichen Produktionsstätten durchsetzten, mussten diese geschlossen werden. Unternehmerische Chinesen ergriffen sofort die sich bietende Chance und begannen spontan mit der Förderung und Aufbereitung Seltener Erden in China, das bis dahin in diesem Bereich keine Rolle gespielt hatte. So kam dieses fernöstliche Land innerhalb weniger Jahre zu einer Monopolstellung, die niemand erwartet oder geplant hatte.

Der Rückgang der chinesischen Exporte hat dazu geführt, dass die westlichen Förderstätten wieder geöffnet werden. Was vor einem Jahrzehnt noch an Umweltbedenken scheiterte, ist nun plötzlich wieder möglich. Im Februar kündigte der Eigentümer von Mountain Pass an, demnächst jeden Tag 2.500 Tonnen Gestein abbauen zu wollen. Es bleibt abzuwarten, ob die Grünen diesmal etwas erlauben werden, was sie vor 10 Jahren noch verhindert haben. Angesichts ihrer opportunistischen Zickzackpolitik in der Vergangenheit ist jeder Irrationalismus möglich, solange er mit der Aura der moralischen Überlegenheit umgeben werden kann.

Mittwoch, 11. April 2012

Kein CO2-Signal in Temperaturdaten

Die globale Erwärmung im letzten Jahrhundert ist nicht menschengemacht, sondern beruht auf natürlichen Fluktuationen, wie zyklisch auftretenden Zirkulationsschwankungen von Meeresströmungen oder den mannigfaltigen Solarzyklen. Das hat eine statistische Auswertung der monatlichen Temperaturdaten von 2249 weltweit verteilten Messstationen über den Zeitraum von 1906-2005 ergeben, siehe: Lüdecke, Horst-Joachim; Link, Rainer und Ewert, Friedrich-Karl, 2011. How natural is the recent centennial warming? An analysis of 2249 surface temperature records. International Journal of Modern Physics C 22: 10.1142/S0129183111016798.

Die Autoren stellen fest: "...the probabilities that the observed temperature series are natural have values roughly between 40% and 90%, depending on the stations characteristics and the periods considered. 'Natural' means that we do not have within a defined confidence interval a definitely positive anthropogenic contribution and, therefore, only a marginal anthropogenic contribution can not be excluded."

Während des hundertjährigen Beobachtungszeitraums zeigte ein Viertel der Stationen fallende Temperaturen, was in sich selbst "is an indication that the observed temperature series are predominantly natural fluctuations", so Lüdecke und seine Mitarbeiter. Die folgende Grafik gibt dafür Beispiele (Quelle: Seite 10, Fig. 4 der obigen Arbeit):



Erläuterung: "The linear regression lines of the records Tucumcari and Pocahonta are for the period 1906 - 2005, of the record Sussex for 1906 - 1955 and of the record Broome Airport for 1955 - 2005".

Die nächste Grafik zeigt die Trendumkehr im Temperaturverlauf des 20. Jahrhunderts, die Ausdruck der damaligen Abkühlung (blaue Linie) ist, die für einige Jahrzehnte die globale Erwärmung (rote Linien) unterbrach. Auch das ist ein Beweis dafür, dass das atmosphärische Kohlendioxid kein Klimatreiber ist, denn während jener Abkühlungsperiode stieg der CO2-Gehalt der Atmosphäre ständig an. Bildquelle: Seite 14, Fig. 8.



Erläuterung: "An own global record evaluated from 581 stations, each in areas with populations of under 1000 ..., with linear regression lines for the interim periods 1901-1934, 1934-1979, and 1979-2010 (black). The record was evaluated by basic averaging and normalizing local records; global record provided by GISS (green)."

Die statistische Analyse von Lüdecke u. a. bestätigt die auf Beobachtung beruhenden Ergebnisse folgender Autoren:

  • Idso, S.B. 1998. CO2-induced global warming: a skeptic's view of potential climate change. Climate Research 10: 69-82.

  • Lindzen, R.S. und Choi, Y.-S. 2009. On the determination of climate feedbacks from ERBE data. Geophysical Research Letters 36: 10.1029/2009GL039628.

  • Lindzen, R.S. und Choi, Y.-S. 2011. On the observational determination of climate sensitivity and its implications. Asia-Pacific Journal of Atmospheric Sciences 47: 377-390.

  • Scafetta, N. 2012. Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models. Journal of Atmospheric and Solar-Terrestrial Physics: 10.1016/j.jastp.2011.12.005.