Zottels Zeug
  zuletzt bearbeitet: Sat, 09 Sep 2017 03:41:13 +0200  
Hier und hier habe ich mir früher schon Gedanken über die Angebotsseite bei Elektroautos gemacht.
Zeit für ein Update zur aktuellen Situation – leider mit vielen negativen Aspekten, richtig Positives kann ich nur im Ausblick auf die nächsten Jahre liefern.

Neue Autos, neues Glück?


Seit dem letzten Überblick sind einige neue Modelle oder Updates erschienen, die ich hier nennen möchte. Gleich vorweg: Viel Gutes ist nicht zu berichten.

Der Hyundai Ioniq Electric ist theoretisch offiziell auf dem Markt angekommen. Praktisch ist er aber fast nicht zu haben: Hyundai produzierte bis vor kurzem nur 1.200 Elektro-Ioniqs pro Monat (jetzt erhöht auf 1800), die zur Hälfte auf den koreanischen Markt gehen. Bleiben 600 (bald 900) E-Ioniqs für den Rest der Welt, was natürlich viel zu wenig ist. Bestellt man heute einen E-Ioniq beim Händler, muss man mit satten 12 Monaten Lieferzeit rechnen. 15 Monate, wenn man sich als Händler einen auf den Hof stellen möchte.
Grundsätzlich ist das wirklich ein ganz tolles Fahrzeug, E-Mobilität zu einem angemessenen Preis. Hilft nur nichts, wenn man so lange auf das Auto warten muss, dass man befürchten muss, sein Auto erst zu bekommen, wenn es schon überholt ist. Denn: Für 2018 ist ein Batterie-Upgrade angekündigt. Wann genau weiß niemand, kann gut sein, dass man den Ioniq mit großer Batterie erst ab Ende 2018 bestellen kann. Auch über Preise ist natürlich noch nichts bekannt, und ob es die aktuelle 28-kWh-Batterie evtl. parallel weiter geben wird, steht in den Sternen.
Trotzdem: So richtig Spaß macht der Kauf eines Hyundai Ioniq Electric aktuell nicht wirklich. Nicht, weil das Auto schlecht wäre, ganz im Gegenteil. Sondern weil Hyundai sich entweder völlig verkalkuliert hat oder kein Interesse daran hat, Elektroautos in hohen Stückzahlen zu produzieren. Oder vielleicht allgemein oft zu konservativ plant – anscheinend gab es auch auf Verbrennerseite schon öfter Modelle, bei denen es nach Markteinführung ähnlich aussah, etwa beim iX 35.

Der neue eGolf bietet jetzt auch eine taugliche Reichweite (realistisch ca. 160 km (Winter) bis 210 km (Sommer)), etwas, aber nicht viel mehr als der Ioniq. Trotz deutlich größerer Batterie – die Effizienz des Ioniq ist auf dem Markt weiterhin unerreicht und führt dazu, dass der Reichweitenunterschied zwischen den beiden Autos fast vernachlässigbar ist.
Sicher ein solides Auto, aber zu teuer. Der Grundpreis entspricht etwa dem Ioniq Electric in Style-Ausstattung, allerdings muss man bei VW noch so manche teure Zusatzausstattung hinzubuchen, um ein ähnliches Niveau zu erreichen.
Hier ist außerdem der Preisunterschied zum Verbrenner weiterhin zu groß: Der billigste Benziner kostet Listenpreis die Hälfte, im Vergleich zum Diesel sind es noch knapp € 13.500,– oder 60% Aufpreis, nach Förderung immer noch über 40%.
Aber immerhin: Wenn man einen guten Rabatt aushandeln und auf Extras verzichten kann, sollte der neue eGolf unter € 30.000,– zu haben sein – eine wichtige Schwelle.
Extrem interessant kann der Kauf eines eGolf allerdings zur Zeit für Besitzer älterer Diesel (bis Euro 4) sein: Alle Prämien zusammengerechnet kann man laut einem aktuellen Angebot eines lokalen Händlers bis zu knapp € 15.000,– auf den Listenpreis sparen. Das ist dann tatsächlich konkurrenzlos günstig und erreicht dann fast den Preis der Dieselvariante (nicht ganz, weil man auf den Diesel ja auch noch Rabatt aushandeln kann, auf dieses eGolf-Angebot aber mit ziemlicher Sicherheit nicht mehr).

Die Zoe von Renault ist jetzt in zwei Varianten auf dem Markt: Die alte Variante gibt es weiterhin nur mit Batteriemiete, was aus wirtschaftlichen Gründen meiner Meinung nach keine Option ist, da der Vorteil eines Elektroautos bei den Betriebskosten mehr als nur aufgefressen wird.
Neu ist die Variante mit 41-kWh-Batterie, die für realistische Reichweiten von 200-300 km sorgt. Das ist ein Wort – abgesehen von der Urlaubsfahrt dürfte das für fast jeden (privaten) Einsatz reichen.
Leider hat das Auto aber viele Nachteile: Zunächst einmal ist keine Gleichstrom-Schnelllademöglichkeit (Chademo oder CCS) verbaut, und selbst die Wechselstromladung wurde im Vergleich zum Vormodell (max. 43 kW) massiv auf max. 22 kW reduziert. Verbunden mit der großen Batterie bedeutet das, dass man für die 80%-Ladung mindestens eineinhalb Stunden beschäftigt ist – je nachdem, wann das Auto die Leistung reduziert, wahrscheinlich sogar eher zwei Stunden.
Eine Variante mit dem alten Motor (der bei Renault gleichzeitig auch der Lader ist) und entsprechender Ladeleistung ist nur via Import zu haben. Die krankt dann wiederum daran, dass geringe Ladeleistungen, etwa an der Schukosteckdose, mit extrem schlechter Effizienz verbunden sind.
Klar – wann braucht man schon einmal wirklich die schnelle Ladung, zumal in einem Kleinwagen, den man (sofern man kein Enthusiast ist) eher nicht für Langstrecken einsetzen wird? Trotzdem gehört das bei aktuellen Autos eigentlich zum Standard.
Außerdem ist auch dieses Auto viel zu teuer: Listenpreis mit Batterie jenseits der € 30.000,– ist für einen Kleinwagen wirklich viel zu viel. Renault bietet zwar mehr Rabatt als die Konkurrenz bei der Umweltprämie, so dass nach Förderung „nur“ noch etwas mehr als € 25.000,– übrig bleiben, aber auch das ist mehr als der doppelte Preis des vergleichbaren Clio.
Leider können mich die inneren Werte des Autos nicht wirklich überzeugen.
Immerhin: Die Zoe ist jederzeit lieferbar und wird auch in relativ großen Stückzahlen verkauft. Das müssen andere Hersteller erst einmal schaffen.

Opel etwa. Der mit Spannung erwartete Ampera-e hat sich in meinen Augen mittlerweile komplett zur Lachnummer entwickelt. Immer wieder verschoben, mittlerweile verfügbar in anderen Ländern (etwa Norwegen), aber in Deutschland? Aktuell nur für Geschäftskunden bestellbar, in einer teuren Premium-Variante, werden jetzt erst die ersten Fahrzeuge ausgeliefert. Händler wissen nicht Bescheid, niemand kann sagen, wann das Auto für Privatleute verfügbar sein wird.
Wenn es denn irgendwann mal so weit ist, findet der geneigte Käufer hier einen Kleinwagen für knapp € 40.000,– Einstiegspreis Liste. Klar, die Größe des Akkus ist absolut exorbitant, aber deshalb so viel Geld für so ein kleines Auto bezahlen?
Zumindest für mich ist das keine Option.

Das Model 3 von Tesla … Tja, sagen wir so, es ist im Zeitplan. Nach dem jahrelangen Ankündigungsmarathon fühlt sich das inzwischen aber nicht mehr so viel anders an als beim Ampera-e.
Die ersten Autos in den USA wurden ausgeliefert, die Produktion wird langsam hochgefahren. Erste Auslieferungen in Europa sind für Q3/Q4 2018 geplant – mal sehen, ob es dazu auch kommt. Wer jetzt bestellen will, wird sich aber ohnehin hinten anstellen müssen – Tesla verfügt bereits über mehr als 500.000 Vorbestellungen. Selbst wenn die Produktion Ende Dezember wie geplant 5.000 Fahrzeuge pro Woche erreicht, wird man 100 Wochen oder etwa zwei Jahre beschäftigt sein, um sie alle abzuarbeiten. EDIT: Ich habe mittlerweile gelesen, dass das Ziel für „irgendwann 2018“ 10.000 Fahrzeuge pro Woche sind. Außerdem sind, nach über 60.000 zurückgezogenen Vorbestellungen, wohl „nur noch“ etwas mehr als 450.000 Vorbestellungen übrig. Trotzdem: 39.000 Model 3 will man 2017 insgesamt produziert haben, bleiben mehr als 410.000. Etwa im Juni müsste man 10.000 Fahrzeuge pro Woche erreicht haben, um die Vorbestellungen noch bis Ende 2018 abarbeiten zu können.
Für den deutschen Markt steht einstweilen noch nicht einmal ein Preis fest. Knapp $ 40.000,– sind es in den USA für die Basisversion. Da die Preise dort im allgemeinen ohne vom Bundesstaat abhängige Steuern ausgewiesen werden, dürfte man in Deutschland wohl irgendwas zwischen € 40.000,– und € 45.000,– berappen müssen. Kein schlechter Preis für das Auto, aber doch weit weg vom „Elektroauto für die Massen“, als das das Model 3 einmal angepriesen wurde.

Für die aktuelle Situation bleibt als einzig positiver Aspekt zu vermerken, dass endlich Leben in den Gebrauchtmarkt gekommen ist. Günstige Kleinstwagen (i-MIEV/C-Zero/iOn, smart ed, mia) gibt es ab etwa € 7.000,–, Zoes beginnen bei € 10.000,– (allerdings muss man da noch eine Batterie mieten), Leafs bei € 12.000,–, in größeren Stückzahlen bei etwa € 15.000,–.
Das kann man sich dann schon überlegen.

Ausblick


Immerhin: Die Autohersteller haben einige interessante Projekte in der Pipeline. Einige möchte ich herauspicken, die meiner Meinung nach Aufmerksamkeit verdienen.

Gerade frisch vorgestellt wurde der neue Nissan Leaf in der 2018er-Version. Dort wird es ab € 32.000,– Listenpreis ein vollwertiges Auto mit 40 kWh Batterie geben, gut für vmtl. etwa 200 km (Winter) bis 285 km (Sommer) realistische Reichweite (378 km NEFZ). Dazu noch diverse Assistenten, wie sie heute ab der Mittelklasse üblich sind, knapp Golfgröße … wenn wir jetzt noch die Förderung abziehen und hoffen, dass Nissan weiterhin € 3.000,– statt nur € 2.000,– Rabatt gibt, kommen wir bei € 27.000,– heraus.
Ein Golf Diesel mit ähnlicher Ausstattung kostet auch nicht weniger.
Das wird ein sehr interessantes Gesamtpaket – und angeblich soll der neue Leaf auch schon ab Januar in Deutschland ausgeliefert werden. Da hat Nissan wieder einmal Vorsprung, und diesmal auch mit einem wirklich interessanten Auto, das im Gegensatz zu seinem Vorgänger sogar ganz hübsch ist. Bei Nissans Erfahrung mit Elektroautos ist auch keine Hyundai-ähnlicher Lieferengpass zu erwarten, auch wenn die nach Deutschland gelieferten Stückzahlen natürlich erst einmal begrenzt sein werden.
Im nächsten Jahr soll es dann noch eine Variante mit größerem Akku um 60 kWh geben.
Klingt gut!

Hyundai seinerseits legt nächstes Jahr den KONA EV nach. Das Mini-SUV (ca. Polo-Größe) erscheint im Herbst als Verbrenner und soll dann nächstes Jahr auch in einer Elektrovariante zu haben sein. Wahrscheinlich mit einem Akku von 40-45 kWh, oder optional mit ca. 60 kWh. Das Interesse in Elektrogemeinde ist groß, hat Hyundai doch mit dem Ioniq bewiesen, dass sie richtig gute Elektroautos bauen können. Wie interessant das Auto für mich persönlich wird, hängt nicht zuletzt vom Preis ab. Regionen um oder gar unter € 25.000,– nach Förderung wären genial (aber leider wohl eher unwahrscheinlich), ab € 30.000,– aufwärts ist es dann halt wieder etwas wenig Auto für das viele Geld.
Es gibt bereits mindestens zwei Möglichkeiten, das Auto vorzubestellen, obwohl eigentlich noch viel zu wenig bekannt ist. Macht aber durchaus Sinn, denn: Die von Hyundai geplanten Produktionszahlen wirken schon wieder viel zu klein. Wer 2018 noch ein KONA EV fahren will, wird vermutlich vorbestellen müssen, ohne das Auto (zumindest in der Elektroversion) je gesehen zu haben.

Eine Erwähnung verdient auch der e.GO Life aus Aachen. Nachdem die ursprünglichen Design-Entwürfe klobig und wenig ansprechend aussahen, ist jetzt ein richtig hübscher Kleinstwagen draus geworden – eine echte Rennsemmel. Wert gelegt wurde nämlich auf Spritzigkeit, flotte Beschleunigung und entsprechendes Äußeres: So breite „Schlappen“ habe ich noch an keinem kleinen Elektroauto gesehen.
Das ist für mich persönlich auch der größte Kritikpunkt: Ich will keinen Mini-Porsche, sondern ein effizientes Fahrzeug, mit dem ich mit möglichst wenig Verbrauch von A nach B komme.
Der e.GO Life ist aber voll auf Spaßmobil in der Stadt getrimmt: Klein, wendig, gute Beschleunigung, aber eine Endgeschwindigkeit von nur 104 km/h und nur 130 km bzw. 170 km NEFZ-Reichweite? Das ist nicht autobahntauglich und zumindest für mich nicht ausreichend. Selbst die große Variante dürfte real nur ca. 90 km (Winter) bis 130 km (Sommer) Reichweite zu bieten haben.
Trotzdem: Ein geniales Stadtmobil, entwickelt von den Vätern der Streetscooter-Transporter, die mittlerweile überall als Auslieferfahrzeuge der Post zu bewundern sind. Hat was, wenn die Daten für den persönlichen Einsatzzweck ausreichen.
Preislich ebenfalls interessant: Die kleine Variante soll bei Listenpreis knapp € 16.000,– liegen, die große bei knapp € 18.000,–. Wenn hier die staatliche Förderung greift, sind wir mit € 12.000/14.000 tatsächlich im gehobenen Kleinstwagensegment zu Hause, also durchaus machbar.
Wenn. Denn: Nach aktueller Rechtslage läuft die staatliche Förderung Mitte 2019 aus. Ich hoffe sehr, dass das Programm verlängert, am besten ausgebaut werden wird, aber ich bin mir alles andere als sicher, ob das wirklich passiert. 2018 sollen nur 1.000 e.GOs ausgeliefert werden – wenn man jetzt erst vorbestellt, wird man da wohl nicht mehr dabei sein. Ab 2019 dann bis zu 10.000 Stück im Jahr – könnte verdammt knapp werden, mit der Förderung.

Das gleiche Problem droht auch dem Sion von Sono Motors, ein weiteres Startup mit großen Plänen. Hier soll die Serienproduktion erst im dritten Quartal 2019 starten – definitiv zu spät für die staatliche Förderung, sollte sie nicht verlängert werden.
Abgesehen davon ist dieses Projekt aber richtig cool: Ein familientaugliches Auto für fünf Personen, etwa so groß wie ein Touran mit kürzerem Kofferraum. Optisch ähnlich langweilig, aber darum geht es ja nicht.
Sehr genial sind vor allem die rund um das Auto herum angebrachten Solarzellen, die für bis zu 30 km Reichweite an einem sonnigen Sommertag gut sein sollen. Im Winter und bei Bewölkung natürlich viel weniger, aber man rechnet bei Sono Motors mit ca. 5.000 komplett kostenfreien Kilometern pro Jahr, die durch die Solarzellen beigesteuert werden. In meinem Fall wäre das mehr als ein Drittel der Gesamtfahrleistung.
Dazu eine Batterie von vmtl. etwa 35 kWh, die für 250 km „echte Reichweite“ gut sein soll. Im Sommer, vermutlich, sonst wird das bei dem cW-Wert mit Sicherheit verdammt schwierig. Und unter Hinzunahme der Solarreichweite. Wenn die Kapazität so bleibt, rechne ich mit kaum mehr als 150 km im Winter.
Aber das reicht: Das ist genau in dem Bereich, in dem ein Elektroauto auch für den Landbewohner sinnvoll wird.
Weitere Highlights: CCS-Ladung, AC-Ladung mit mindestens 11 kW (viele aktuelle Autos bieten hier nur 6,7 kW), Möglichkeit, den Strom der Batterie zu nutzen, via Steckdose am Auto und via Typ-2-Dose zum Laden anderer Elektroautos, Anhängerkupplung, eingebaute Carsharing-Möglichkeit via App usw.
Das ganze ist ansonsten recht spartanisch gehalten, etwa kein großes Infotainment-System, statt dessen ein Display und die Möglichkeit, Android Auto und Apple CarPlay zu nutzen.
Preislich soll das Auto dann bei € 16.000,– liegen, was für die gebotene Leistung wirklich genial wäre. Die Batterie kommt aber noch dazu: Angeboten werden soll ein Mietmodell mit noch unbekannten Konditionen oder ein Kaufakku, der nach aktuellem Stand € 4.000,– kosten würde, bis 2019 aber hoffentlich noch billiger wird.
Wenn 5.000 Vorbestellungen vorliegen, kann es weitergehen. Schon Ende August, als ich den Prototypen in Nürnberg probefuhr, lagen 1.800 Vorbestellungen vor, so dass ich keinen Zweifel habe, dass das klappen wird.
Aktuell ist ein Team mit den beiden Prototypen unterwegs und bietet in vielen Städten Deutschlands (sehr) kurze Probefahrten an, die allerdings größtenteils bereits ausgebucht sind. Das Auto ist allerdings eher ein Proof Of Concept als ein Prototyp, da wird sich noch einiges ändern.
Die weitere Planung sieht vor, dass 2018 die Vorserienmodelle entwickelt und homologiert werden sollen, dabei natürlich auch die endgültige Festlegung auf die Zulieferer, auch für die Batterie. In Q3/Q4 2019 sollen dann die 5.000 Vorbestellungen produziert werden, danach hoffentlich noch viele weitere Fahrzeuge.
Ich bin mir immer noch nicht ganz sicher, ob ich dieser jungen Firma zutrauen soll, das Projekt bis zum Ende zu stemmen. Aber ich hoffe, dass sie es schaffen, und habe selbst auch mit einer Vorbestellung das meine dazu beigetragen.
Die Frage wird auch sein, wie es mit der Förderung weitergeht. Wenn absehbar ist, dass sie Mitte 2019 tatsächlich ausläuft, würde ich dann schon ins Grübeln kommen: Soll ich mir nicht lieber rechtzeitig vorher für € 27.000,– einen neuen Leaf mit Vollausstattung und der Sicherheit eines Großkonzerns kaufen, statt € 20.000,– für ein spartanisches Mobil auszugeben, das im Betrieb zwar wahrscheinlich sparsamer sein wird, dessen Hersteller aber vielleicht schon in wenigen Jahren pleite ist? Von der fehlenden Erfahrung bei Sono Motors ganz zu schweigen.
Andererseits wird es beim Sion Ersatzteile im Online-Shop geben, ein frei verfügbares Werkstatthandbuch und Video-Tutorials zum Selbermachen – nie wieder Werkstattbesuch, zumindest, solange nichts ernsthaft kaputt ist? Das wäre schon echt super und würde noch zusätzlich Geld sparen.
Der Sion ist auf alle Fälle ein hochinteressantes Projekt. Ich bin sehr gespannt, wie es da weitergeht.

Endlich kann es konkret werden


Seit ich damals meine mia verkaufte, wünsche ich mir sehnlich, wieder ein Elektroauto zu fahren. 2019 wird es nun endlich Realität werden: 2018 wird unsere Familienkutsche abbezahlt sein, so dass monatlich Geld frei wird, dass dann bis 2019 noch angespart werden kann.
In 2019 wird dann klar sein, wie weit Sono Motors gekommen ist, ob ich tatsächlich die Option habe, bis Ende 2019 einen Sion zu bekommen. Auch wenn ja werde ich mich dann auch auf dem Gebrauchtmarkt umsehen – bis dahin werden hoffentlich einige Ioniqs, neue Leafs und vielleicht sogar schon Konas zu haben sein, die dann evtl. schon in ähnlichen Preisregionen spielen.
Ich bin gespannt, wofür ich mich letztlich entscheiden werde.

#Elektroautos

Zottels Zeug
  zuletzt bearbeitet: Wed, 06 Sep 2017 16:43:43 +0200  
Das frage ich mich immer wieder: Was muss ein Elektroauto eigentlich können, damit es für den täglichen Einsatz sinnvoll ist?
Zunächst einmal muss es natürlich die notwendigen Reichweiten bieten, das ist sicher der wichtigste Punkt. Und hier stoßen wir schon auf das größte Problem zumindest der bisherigen Generation: Realistische Reichweiten von 100-150 km, im Winter zum Teil gar nur 70-80 km, sind einfach nicht genug.
Klar: Die meisten der am Tag zurückgelegten Strecken von heutigen Verbrennern bleiben weit unter diesem Wert. Aber man muss sich auch die realen Möglichkeiten von Autobesitzern ansehen, speziell die Lademöglichkeiten – und dann wird das Szenario ganz schnell sehr unrealistisch.

Wer kann ein Elektroauto fahren?
Es macht wenig Sinn, ein Elektroauto zu besitzen, wenn man nicht die Möglichkeit hat, es über Nacht aufzuladen. Wer kann das? Hausbesitzer und einige wenige Wohnungsmieter, die das Glück haben, an ihrem Tiefgaragenstellplatz über eine Steckdose zu verfügen.
Folglich gibt es auf dem Land sehr viel mehr Menschen, die überhaupt in der Lage wären, sich ein Elektroauto anzuschaffen, als in Städten.
Gleichzeitig werden Elektroautos, vor allem kleine, aber gerne als „Stadtflitzer“ angepriesen und mit Reichweiten ausgestattet, die auch nur in der Stadt wirklich sinnvoll sind. Denn: Die völlig unrealistischen Reichweitenangaben nach NEFZ muss man fast durch zwei teilen, wenn man wissen will, wie weit so ein Auto bei kräftigem Frost mit aktivierter Heizung noch kommt.
Ein Auto mit weniger als hundert Kilometern Winterreichweite für einen Landbewohner, der oft täglich 60-100 km zurücklegt, macht aber keinen Sinn, zumal ja die Reichweite mit der Batteriealterung weiter abnimmt. Und: Elektroautos zeigen zwar in der Stadt Top-Verbräuche, büßen aber bei höheren Geschwindigkeiten, vor allem auf der Autobahn, nochmals Reichweite ein.

Was muss ein Elektroauto können?
Die bislang angebotenen Fahrzeuge haben also nicht ohne Grund keine weite Verbreitung gefunden:
Städter, für die die gebotenen Reichweiten ausreichen würden, haben selten Lademöglichkeiten. Für die meisten Landbewohner sind die Reichweiten nicht groß genug. Und dann ist da noch der Preis.
Anders gesagt: Das meist angepriesene Eldorado des Elektroautos, die Stadt, ist nur in geringem Maße ein Markt, solange die Politik nicht dafür sorgt, dass es an jedem Parkplatz eine Steckdose gibt.
Bleibt das Land.
Hier kann man sagen: Ein konkurrenzfähiges Elektroauto
  • muss im Winter mit Heizung bei >= 90 km/h mindestens 100 km, besser 150 km realistische Reichweite aufweisen, also mindestens 200-300 km nach NEFZ.
  • darf nach staatlicher Förderung höchstens 25% mehr kosten als ein vergleichbarer Verbrenner, sonst wird es nicht angenommen.
  • ist (abgesehen vom Luxussegment) nur als Zweitwagen geeignet und sollte deshalb preislich auch in entsprechenden Bereichen zu finden sein.

Die Realität
… wird besser. Langsam gelangen wir in Regionen, wo diese Forderungen Wirklichkeit werden.
So sind Pegeout iOn und Citroen C-Zero nach staatlicher Förderung mittlerweile für € 14.000,– zu haben – immer noch nicht billig für dieses relativ spartanische Fahrzeug, aber immerhin auch preislich halbwegs im Kleinwagenbereich angekommen. Gebraucht für unter € 8.000,– zu haben. Das ist ok, aber das Auto erfüllt nicht ganz die oben geforderten Reichweiten.
Die Zoe von Renault wird bald mit 40-kWh-Akku zu haben sein (und endlich auch mit Kaufbatterie!) und erfüllt selbst in ihrer jetzigen Version die Reichweiten-Anforderungen – allerdings zu Preisen, die der Autogröße nicht gerecht werden.
Vom kommenden Opel Ampera-e sind immer noch keine Preise bekannt. Die Spekulationen gehen mittlerweile von etwa € 37.000,– bis € 42.000,– aus. Für ein Auto dieser Größe definitiv zu viel, aber der Akku ist wirklich riesig – vielleicht ist das dann trotzdem ein Kaufargument.
Seit letztem Jahr schon spielt der Kia Soul EV mit einem recht guten Preis-/Leistungsverhältnis in der Liga der sinnvolleren Elektroautos mit.
Ein besonders interessanter Vertreter ist für mich aber der Hyundai Ioniq in seiner Elektrovariante: Ein Mittelklassewagen mit Top-Ausstattung, bei gutem Angebot selbst in der Premium-Variante für gut € 30.000,– nach staatlicher Förderung zu haben. Extrem gute Verbrauchswerte, realistische Reichweite > 200 km, im Winter um 150 km, 8 Jahre Garantie auf die Batterie. Das macht Sinn, das ist ein wirklich tolles Auto – nicht zuletzt deshalb, weil er wohl zu den effizientesten Elektroautos auf dem Markt gehören wird, sofern sich die Herstellerangaben und Gerüchte bewahrheiten: So wenig Stromverbrauch bietet sonst nur der um ein bis zwei Klassen kleinere e-Up.

Fazit
Es ist nicht verwunderlich, dass die bislang angebotenen Elektroautos wenig Zuspruch fanden: Sie waren einfach wenig geeignet für die Zielgruppe, die solche Autos überhaupt nutzen kann, oder viel zu teuer.
Zumindest auf der Angebotsseite tut sich jetzt etwas. Ich bin gespannt auf die Nachfrage.

#Elektroautos
Klaus
  
Ich erinnere mich noch immer fassungslos daran als ich im Frühjahr das mit dem Up realisiert habe. Nicht, dass er als Familienkarre geeignet gewesen wäre, aber der Aufpreis war schon ernüchternd. Mit Verbrennungsantrieb gibt es den für unter €10 000, als e-Up ist man bei knapp unter €30 000. Dann habe ich den Sion gesehen für €12 000, allerdings noch ohne Batterien und fand diesen sehr interessant und bin gespannt wie der sich weiter entwickelt.

Die Veränderungen an der Infrastruktur werden bestimmt auch noch sehr spannend, aber darüber wurde bisher sehr wenig berichtet finde ich. Tankstellen werden wohl nur noch ein paar als "Service"-Stationen übrig bleiben. Wenn ich diese Schnellladeverfahren sehe werden wohl Restaurants, Supermärkte, Einkaufszentren die Versorgung eher übernehmen können. Hätte auch den Vorteil, dass Strom aus Photovoltaik direkt verarbeitet werden könnte und nicht für die Nacht gespeichert werden muss wenn man die Autos zu Hause auflädt. Ob aber überall dafür überhaupt die Leitungskapazitäten ausreichend sind wird bestimmt auch noch spannend.
zottel
  
Ich hab mich jetzt auch endlich dazu entschlossen, Sono Motors/Sion zu supporten. Bin sehr gespannt auf die Probefahrt. :-) Bevor die stattgefunden hat, wird bei uns sowieso kein Geld für ein neues Auto da sein. Sie haben ja den ursprünglichen Zeitrahmen schon verschoben (Probefahrt jetzt wohl eher frühestens Mitte 2017 statt Anfang 2017), und ich bin immer noch skeptisch, ob das was werden kann. Aber anscheinend haben sie viel Interesse von Zulieferern bekommen, die haben sich also selbst bei Sono Motors gemeldet, was schon viel besser ist als ich erwartet hätte. :-)

Zum e-Up: Ganz so schlimm ist es nicht, aber trotzdem sehr schauerlich. Den e-Up gibt es ja gar nicht in Minimalausstattung; wenn man ähnlich ausgestattete Fahrzeuge vergleicht, liegt der Benziner, wenn ich mich recht erinnere, bei etwa € 12.000,– Listenpreis, die E-Variante bei € 26.900,–, minus Förderung, macht € 22.900,–.

Das ist aber zum einen immer noch fast das Doppelte, also weiterhin indiskutabel, zum anderen wird man auf den Benziner deutlich mehr Rabatt auf den Listenpreis bekommen. Weil die Händler da mehr Spielraum haben, und weil der geförderte Preis ja bereits einen Hersteller-Rabatt von € 2.000,– beinhaltet.

Richtig gut ist bei VW eigentlich nur die Effizienz – beide VWs brauchen wirklich wenig Strom. Das haben sie richtig gut gemacht. Den Preis sind die Autos aber trotzdem nicht wert.

Bei Hyundai sieht es da zumindest ein bisschen netter aus. Ich vergleiche mal die Style-Varianten miteinander, weil da die IMHO zwingend notwendige Ausstattungsmerkmale Wärmepumpe und Sitz-/Lenkradheizung drin sind. Da haben wir beim Hybrid € 27.250,– (reinen Benziner gibts gar nicht), beim Elektro € 35.500,–. Das sind schon ohne Förderung „nur“ 31% mehr. Mit Förderung sind wir dann 16% Aufpreis oder € 4.125,– absolut für das Elektroauto, und das ist dann m.E. in Ordnung.

Oder, um einen ganz fairen Vergleich zu haben, also unrabattiert gegen unrabattiert nach Förderung, da wären das € 27.250,– gegen € 33.500,–, macht 23% Aufpreis.

Und dann gibts da noch einen engagierten Händler in Landsberg am Lech (Daten gern auf Anfrage), der verkauft den Ioniq Elektro Style inkl. Überführung für € 28.500,– (nach Förderung). Ausgegangen von € 700,– Überführungskosten sind das € 5.700,– oder 16% Rabatt! Bei Elektroautos wirklich selten.

Klar gibts beim Hybrid auch noch Nachlässe, aber so wird einem die Elektro-Entscheidung wirklich leicht gemacht. :-) Schade, dass solche Autohändler, die gern und aus Überzeugung Elektroautos verkaufen, sich gut damit auskennen und den Verkauf durch gute Rabatte fördern, sehr, sehr rar gesät sind. Tatsächlich ist das überhaupt der erste, von dem ich gehört habe. Noch ein Grund für einen Hyundai.

Zottels Zeug
  zuletzt bearbeitet: Tue, 24 May 2016 01:40:48 +0200  
Für die kommenden 1-2 Jahre ist eine neue Generation Elektroautos angekündigt, die mit etwas Glück zu einer besseren Akzeptanz der Elektromobilität führen könnte: In der Mittelklasse angesiedelt, sollen sie zu Preisen um € 30.000,– realistische Reichweiten von über 300 km bieten.

Technik
Die hauptsächliche Änderung betrifft die Batteriekapazität, die für solche Reichweiten nötig ist. Bei den angekündigten Modellen liegt sie bei etwa 60 kWh. Solche Kapazitäten waren bisher Oberklasse-Fahrzeugen wie den bisherigen Tesla-Modellen vorbehalten, weil so große Akkus eben sehr teuer sind. Erstmals sollen solche Werte dann in der Mittelklasse verfügbar sein – und damit Autos, die für mehr als nur den Weg zur Arbeit oder zum Einkaufen geeignet sind, zu Preisen, die zwar nicht günstig, aber immerhin für einen größeren Teil der Bevölkerung als bisher bezahlbar sind.

Modelle
Die erste Ankündigung, die in dieser Richtung erfolgte, kam von Tesla Motors, dem großen Innovator der Branche. Schon Anfang 2015 kamen die ersten Gerüchte über ein neues Modell auf, das in der Mittelklasse angesiedelt sein und (für Elektroverhältnisse) große Reichweiten ermöglichen sollte. Mit der momentan im Bau befindlichen Batteriefabrik will Tesla in der Lage sein, große Batterien zu akzeptablen Preisen anzubieten.
Offiziell vorgestellt und mit etwas mehr Details versehen wurde das Model 3 dann Ende März diesen Jahres. Tesla verspricht eine Reichweite von 215 Meilen (knapp 350 km) und einen Preis ab $ 35.000,–.
Die tatsächliche Kapazität der Batterie ist bislang nicht bekannt, aber da bei so großen Autos realistisch von einem Verbrauch um die 18-20 kWh/100 km ausgegangen werden muss (was bei 350 km Reichweite einer Kapazität von bis zu 70 kWh entsprechen würde), kann man mit einer Kapazität von mindestens 55-60 kWh rechnen, sofern Tesla nicht das Blaue vom Himmel versprechen und extrem unrealistische Reichweiten angeben will.
Das Model 3 soll ab Ende 2017 ausgeliefert werden.

Für mich völlig unerwartet kündigte Mitte letzten Jahres dann auch General Motors einen Model-3-Konkurrenten an: Den Chevrolet Bolt, etwas kleiner als das Model 3, eher in der Golfklasse angesiedelt. Er soll mit einem 60-kWh-Akku mehr als 200 Meilen (ca. 320 km) weit fahren. Das entspricht einem durchaus realistischen Verbrauch von etwa 18 kWh/100 km.
Er soll schon Ende 2016 auf den Markt kommen und in den USA für $ 37.500,– erhältlich sein. Teurer als das Model 3 also, für ein etwas kleineres Auto – aber ein Jahr früher.
In Deutschland soll das Auto ab 2017 als Opel Ampera-e erhältlich sein. Einen offiziellen Preis gibt es noch nicht, in der Presse wird über knapp € 30.000,– spekuliert.
Nicht billig für ein Fahrzeug der Golfklasse, aber: Verglichen mit dem e-Golf ist das ein toller Preis – dort bekommt man ab € 35.000,– lediglich 24,2 kWh Batterie. Im Spritmonitor-Durchschnitt verbraucht der Golf knapp 17,5 kWh auf 100 km, was also einer realistischen Reichweite von unter 150 km entspricht.

Ein bisschen außer Konkurrenz spielt noch der Hyundai Ionic mit: Er soll ab Ende 2016 wahlweise als Hybrid, reines Elektrofahrzeug oder (etwas später) Plugin-Hybridmodell verfügbar sein. Außer Konkurrenz deshalb, weil die reine Elektrovariante „nur“ 28 kWh Batteriekapazität bietet.
Ein Preis steht auch hier noch nicht fest; in einschlägigen Foren wird über eine Region um € 25.000,– spekuliert.
Was mir an diesem Auto sehr gefällt ist, dass es nach Herstellerangaben konsequent auf niedrigen Verbrauch getrimmt wurde. Also Leichtbauweise und ein sehr guter cw-Wert kombiniert mit einer kleinen Stirnfläche. Hyundai will damit einen Durchschnittsverbrauch von nur 12,5 kWh/100 km erreicht haben – wenn das NEFZ ist (und somit z.B. ohne Heizung oder Winterverluste gerechnet) sollten realiter 16-18 kWh/100 km herauskommen, somit eine realistische Reichweite von etwa 170 km.

Fazit
Mit den angekündigten neuen Modellen rückt die Elektromobilität auch jenseits des Luxus-Sektors in eine Region, wo sie auch für „normale“ Autofahrer interessant wird. Zwar liegen die Anschaffungskosten weiterhin deutlich über vergleichbaren Verbrennern, die massiv reduzierten Betriebskosten können das aber wieder wettmachen:
Mit Ökostrom für 25 ct/kWh zahlt man bei einem Verbrauch von 18 kWh/100 km nur € 4,50 für 100 km Fahrt. Zwar müsste man, verglichen mit realistischen 6 l/100km Diesel bei einem Golf und € 1,05 für den Liter Diesel, über 550.000 km fahren, um € 10.000,– Preisunterschied hereinzubekommen, aber da sind die Steuervorteile (ca. € 2.500,– in zehn Jahren) und die weit günstigeren Wartungskosten noch nicht eingerechnet.
Beim Benziner-Golf, der im Spritmonitor-Durchschnitt (ohne GTI) bei ca. 7,5 l/100 km liegt, hätte man € 10.000,– Aufpreis (die hier aber zugegebenermaßen vielleicht nicht ganz reichen) „schon“ nach weniger als 200.000 km eingespart, was in etwa in dem Bereich liegt, den man heute einer E-Auto-Batterie als Lebensdauer problemlos zutrauen kann, zumal wenn sie so groß ist, was auch zu einer geringeren Beanspruchung bei der Beschleunigung führt.
Zieht man dann noch die geplante Förderprämie vom Kaufpreis ab, kommen wir in Regionen, wo das Fahren eines Elektroautos nicht mehr zwingend teurer ist als das eines Verbrenners – abhängig von der tatsächlichen Nutzungssituation.
Ich bin gespannt, wie sich das auf die Verbreitung von Elektroautos in Deutschland auswirken wird.

#Elektroautos

Zottels Zeug
  zuletzt bearbeitet: Tue, 22 Mar 2016 02:42:06 +0100  
As this is a post intended for a worldwide audience, I'll write it in English, not in German like the rest of my blog.

So my 2008 iMac broke down last weekend, and this was the time to get rid of the last piece of Apple hardware in my household and return back to Linux.
I had backups, of course, done with Time Machine. "No problem!" I thought. I had looked at the files in OS X often and thought it was just a matter of copying back the files from the latest backup to Linux after mounting the HD. I thought wrong.
When I browsed through the files, I found that in many cases, where there should have been directories, I only found files with a size of 0 bytes instead. Huh? What's going on?

Hard links for directories
Some searching on the net revealed this hint from the former macosxhints site (which was always excellent!) that nowadays belongs to Macworld.
Bottom line: HFS+ supports hard links for directories, but this is unsupported under Linux.
But boy, what do they do with those hard-linked directories?! It's really absolutely ridiculous.
In the root directory of the disk, there is a directory called ".HFS+ Private Directory Data\r". And yes, that's a carriage return at the end of this directory name. You'll never see this directory on a Mac, it's hidden even if you choose to see hidden files. It contains large numbers of directories, all named dir_xxx, where xxx is a number.
Now, if you do an ls -l on a directory where directories have mysteriously turned into files, you'll see something like this:
drwxr-xr-x        1  503      503  26 23. Jun 2012  nicole
-r--r--r-- 17909650 root 20523400   0 28. Aug 2010  rozottel
-r--r--r-- 19911125 root 20523401   0 28. Aug 2010  Shared
drwxr-xr-x        1  501      501 114 18. Dez 02:22 zottel

rozottel and Shared should be directories, they aren't. But the number you see after the permission is the number of dir_xxx you'll find at the ".HFS+ Private Directory Data\r" directory. Example: The contents of rozottel above can be found in ".HFS+ Private Directory Data^M/dir_17909650". Of course, subdirectories there can contain other directories crippled in the same way.
Gah! Trying to restore even a few directories manually would take ages!

A script to solve the problem
So I wrote a short Perl script to solve the problem.
BTW, that number from above is actually a number that would normally represent the number of hard links that point to the file. It doesn't make sense at all to use this value for names in this private directory, and so, of course, it doesn't mean what it should mean. I'm not sure if this is Linux not supporting all aspects of HFS+ or Apple abusing the specs of that file system in completely braindead ways, but either way, I'm not sure if such a Time Machine backup would survive a file system check with repair under Linux, so better not try that. (The same probably happens with other HFS+ disks where someone has used hard links for directories, but as nobody in their right mind normally does that, it's only a problem for Time Machine backup media.)
The script takes a directory on the Time Machine file system as first parameter, and a directory where you want to copy the backup directory to as second parameter.
Side note: It assumes that your current working directory is a directory on the backup disk. It won't work if you are somewhere else and use absolute paths.
Example:
time_machine.pl foo/ /home/bar/
In this example, foo/ will be created under /home/bar/, and all the contents of foo/ will be recursively copied.
If you omit the second parameter, time_machine.pl will just traverse all files in all subdirectories and show you the complete size of what would be copied. (I needed this because, of course, a simple du won't work on such structures.)
Files that already exist at the destination are not overwritten. Thus, you can cancel the job by pressing Ctrl-C and resume later. Just be sure to delete the last file the script was working on (it shows them all on the console) at the destination after pressing Ctrl-C, because it has probably not been copied completely.
You'll find time_machine.pl as an attachment to this post (click on the paper clip at the end of this post).
It's by no means done well or sophisticatedly, it's just a quick hack I did to solve the problem for myself. Edit it to your needs if you want it to do something else.
And, of course, use it at your own risk.
 Linux

Zottels Zeug
  
Aus aktuellem Anlass (dem letzten Post) hier wieder einmal ein Artikel aus meinem alten Blog vom 7. 2. 2011, diesmal weitgehend ohne Überarbeitung – deshalb ist dort noch von meinem Nexus One und meinen damaligen Profilen die Rede. Sonst stimmt aber noch alles, nur wie gut Setting Profiles (das zuletzt 2012 aktualisiert wurde) heute ist, kann ich nicht sagen.

Bis vor kurzem hatte ich Setting Profiles im Einsatz, um damit automatisch verschiedene Settings bei meinem Nexus One einzustellen. Setting Profiles kann viel, aber es hat ein paar Bugs, die mich teils auch betreffen, und die Entwicklung wurde anscheinend weitgehend eingestellt – die Entwickler antworten im Support-Forum fast überhaupt nicht mehr, und die letzte Beta ist von Anfang Januar.
Also habe ich mich nach Alternativen umgesehen – und Tasker gefunden (kostenpflichtig, hier gibt es eine 7-Tage-Test-Version). Ich hatte schon irgendwann einmal davon gehört, das damals aber nicht groß weitervefolgt. Jetzt habe ich es mir angesehen.
Um es kurz zu machen: Tasker ist der helle Wahnsinn! Es kann schlicht alles. ;-) Also alles, was auf einen ungerooteten Telefon möglich ist, mit Root auch mehr.
Einfach ist es nicht, und für Leute, die wenig Bezug zu Computern und Technik haben, ist Tasker wahrscheinlich beinahe unbenutzbar.
Wer sich aber auskennt, findet mit Tasker das reine Paradies an automatischen Abläufen.
Hier eine kurze Beschreibung dessen, was ich bisher mit Tasker realisiert habe:

  • WLAN ist nur zu Hause an (per Cell IDs im groben Umkreis)
  • Zu bestimmten Zeiten (wochentags und Wochenende unterschiedlich) und wenn ich in der Arbeit bin (wiederum nach Cell IDs) ist der Klingelton leise, um nicht so zu stören.
  • Nachts im Dock ist alles lautlos und außerdem der Flugmodus aktiviert. (Flugmodus geht heutzutage nur noch mit Root.)
  • Unter 30% Akku wird das Display relativ dunkel geschalten
  • Unter 15% geht zudem das WLAN ganz aus

Bis hierher wäre ich auch noch mit Setting Profiles gekommen, und so ähnlich war es auch aufgesetzt. Jetzt zwei coole neue Automatismen, die ich mit Tasker gebaut habe:

  • Ist das Telefon in Benutzung (d.h. wenn das Display an ist), wird die Klingeltonlautstärke ebenfalls heruntergeregelt. Da will ich nicht mit maximaler Lautstärke angebrüllt werden.
  • Wenn eine ungelesene SMS auf mich wartet oder ein Anruf nicht angenommen wurde, wird immer wieder der Benachrichtigungston abgespielt, um mich darauf hinzuweisen – zum ersten Mal nach sieben Minuten, dann 14 Minuten später, dann wiederum 21 Minuten später usw.

Sachen wie der letztere Ablauf sind natürlich nur machbar, weil Tasker auch Variablen bietet und mit ihnen rechnen kann. Das eröffnet ungeheure Möglichkeiten.
Mit diesen paar Szenarien ist Tasker selbstverständlich alles andere als ausgereizt. Eine total unvollständige Liste weiterer Möglichkeiten beinhaltet z.B. das automatische Versenden von SMS und E-Mail, das Starten von Apps oder Scripts bis hin zum Ausführen von Java-Code, das Einfügen von Kalender-Einträgen, das Setzen beliebiger Systemeinstellungen (teils nur mit Root) und ohne Übertreibung hunderte weitere Möglichkeiten, basierend auf Daten wie Zeit (auch wiederholt all x Minuten zwischen zwei Uhrzeiten), aktuellen Kalendereinträgen (z.B. „Meeting“), Gesten beim Fuchteln mit dem Handy, selbst definierten Variablen oder Systemvariablen, Ort (anhand von Cell IDs, Netzwerkstandort oder GPS), angeschlossenem Ladekabel, Docking State, ungelesener SMS (auf Wunsch mit bestimmtem Inhalt), Anruf (auf Wunsch einer bestimmten Person/von einer bestimmten Nummer) uswusf.
Dabei können Profile auch von anderen Profilen aktiv- und ausgeschaltet werden.
Zusätzlich können "Scenes" erstellt werden, also Dialoge, die aufgerufen werden können, und mit Zoom, einem weiteren Tool des gleichen Entwicklers, auch eigene Widgets. Einfache Widgets, etwa zum Ausführen bestimmter Aufgaben per Touch, können auch mit Tasker selbst erstellt werden.
Dem fortgeschrittenen User wird auch der Aufruf beliebiger Intents angeboten – so ist es mit entsprechendem Knowhow teils möglich, auch Einstellungen von Custom ROMs zu setzen, die in Standard-Android-Systemen entweder nicht vorhanden sind oder nicht von Drittanbieter-Software gesetzt werden können, und natürlich beliebige Funktionen von Apps zu starten, die als Intent angeboten werden. Dabei können auch Daten aus eigenen Variablen übergeben werden – dem Erfindungsgeist sind kaum Grenzen gesetzt.
Anbieter anderer Software können auch Plugins für Tasker mitbringen; Locale-Plugins funktionieren auch in Tasker. Das scheint allerdings nicht allzu weit verbreitet zu sein; von den bei mir installierten Apps bietet ausschließlich Newsrob ein Plugin – heute Kaiten Mail (geht auch mit K9). Aber immerhin – es ist möglich.
Ich muss sagen, ich bin restlos begeistert! Ich habe nur einen Tag lang getestet und dann gekauft.
Um es noch einmal zu betonen: Diese App ist für weniger computeraffine Zeitgenossen eher nicht zu empfehlen! Zwar ist sie insgesamt sehr gut dokumentiert, verlangt aber einige Einarbeitung und ein Grundverständnis für prozedurale Abläufe (einfache „Programmierung“); zudem verhindert sie auch schwere Fehlkonfigurationen nicht, die ggfs. zu massivem Akkuverbrauch führen können – die entsprechenden Warnungen in den Hilfetexten und manche Kommentare im Market singen ein Lied davon.
Mit meinen Einstellungen taucht die App in der Liste der Akkuverbraucher jedoch nicht einmal auf.

Fazit: Ein Traum für Geeks, unbedingt sofort testen! Zeitgenossen mit wenig Ahnung von Technik sollten aber lieber die Finger davon lassen.
Welle
  
Einer von Vielen
  
Schau auch mal hier vorbei.CyanogenMod | Android Community Operating System
CyanogenMod is a free, community built distribution of Android which greatly extends the capabilities of your device.


Dort kommt auch das Rooten für de jeweiligen Modelle vor.

Ich selbst habe CM auf drei Handys in der Familie "ausgerollt" und bin sehr zufrieden. Die Google-Apps habe ich nicht installiert. Komme sehr gut mit den Apps von F-Droid klar.
Welle
  

Zottels Zeug
  zuletzt bearbeitet: Sat, 25 Jul 2015 00:51:13 +0200  
Über einen Post in meiner Matrix wurde ich darauf aufmerksam, dass erste Geschäfte (zumindest in England) Wifi-Tracking benutzen, um die Kundenströme zu analysieren: Über deren Wifi-Signale werden die Handys der Kunden ständig geortet, so wird klar, wer wann wohin gegangen ist.
Das rief in mir die Frage hervor, warum das überhaupt möglich ist. Welchen Sinn macht es, wenn WLAN-Clients, die gerade nicht mit einem Netzwerk verbunden sind, ständig Signale nach draußen senden? Sie könnten doch auch einfach passiv scannen, ob bekannte oder offene WLANs in der Nähe sind? Es stellt sich heraus: Das könnten sie durchaus, machen sie aber nicht.

WLAN-Grundlagen


Um sich mit einem WLAN zu verbinden, muss der Client einen sogenannten Probe Request senden. Der Access Point antwortet dann, und die beiden können sich miteinander verbinden. Da so ein WLAN sich auf unterschiedlichen Kanälen befinden kann, sendet der Client Probe Requests auf allen Kanälen, die er beherrscht, bis er eine Antwort bekommt.
Wenn man die SSID des eigenen Netzwerks nicht versteckt hat, sendet außerdem der Access Point zehnmal pro Sekunde sogenannte Beacons aus. Das sind kleine Pakete, die die SSID und Informationen zum Netzwerk enthalten, etwa unterstützte Übertragungsraten und Verschlüsselungsalgorithmen.
Das sollte ja eigentlich reichen, um ein WLAN zu finden. Tut es auch. Trotzdem senden offenbar alle gängigen Client-Implementationen ständig Probe Requests in die Welt, in der Hoffnung, von irgendeinem Netz Antwort zu erhalten. Anscheinend geht es dadurch ein wenig schneller.

Wifi-Tracking


Diese Probe Requests enthalten die MAC-Adresse des Wifi-Clients, also die eindeutige Hardware-Adresse des Netzwerk-Interfaces. Das macht das Tracking erst möglich, denn so kann man die einzelnen Handys voneinander unterscheiden. Gängige Android-Implementationen senden ca. alle 15 Sekunden Probe Requests in die Welt und sind so mit geeigneter Ausrüstung (mindestens drei WLAN-Receiver im Empfangsbereich und die nötige Software) nachverfolgbar.

Versteckte SSIDs


Manch sicherheitsbewegter WLAN-Betreiber nutzt gern die Option seines WLAN-Routers, die SSID zu verstecken. Das führt dazu, dass der Router keine Beacons mehr sendet. Klingt erstmal gut: Wenn sich jemand in der Nähe die verfügbaren Wifi-Netze auflisten lässt, ist meines nicht dabei. Also wird es bestimmt auch weniger wahrscheinlich, dass sich ein Hacker an meinem Netz versucht, oder?
Leider führt dieser Schritt nicht zu mehr, sondern zu weniger Sicherheit, oder besser: Die Sicherheitslage verändert sich nicht, aber die Privatsphäre-Situation verschlechtert sich.
Denn: Jetzt ist das Aussenden von Probe Requests wirklich die einzige Möglichkeit, sich mit diesem WLAN zu verbinden. Und damit ein Probe Request jetzt noch vom Access Point beantwortet wird, muss er die SSID enthalten, nicht nur, wie bei den sonst üblichen Anfragen, ein allgemeines „Hallo, ist da wer?“
Wenn mein Handy ein oder mehrere WLANs in seiner Liste der bekannten Netzwerke hat, bei denen die SSID versteckt ist, sendet es mit jedem Probe Request diese SSIDs mit in die Welt. Jeder, der zuhören möchte, sei es im Geschäft oder in der U-Bahn, erhält so eine Liste der WLANs mit versteckten SSIDs, mit denen ich mich gerne verbinde. Bei ungewöhnlichen SSIDs kann dadurch auch die Ortung meiner bevorzugten Netze möglich sein.
Dabei habe ich zu Hause aber keine Sicherheit gewonnen: Sobald mindestens ein Client im Netzwerk eingebucht ist (er muss nicht einmal auf Daten im Netzwerk zugreifen), gehen ständig Daten hin und her. Mit entsprechenden Sniffer-Tools kann das leicht detektiert werden, und die „versteckte“ SSID bekommt man bei der Gelegenheit auch gleich geliefert.
Natürlich – das Netz taucht nicht auf, wenn man mit einem normalen Client danach sucht. Das Finden von WLANs mit einem Sniffer sollte aber wesentlich schneller und effizienter sein als die normale Discovery, deshalb gehe ich davon aus, dass Leute, die den Plan haben, sich in ein WLAN einzuhacken, eher solche Tools benutzen als die Standard-Discovery – zumal speziell für diesen Zweck entwickelte Werkzeuge es auch leicht machen dürften, angreifbare WLAN-Router ausfindig zu machen.
Wenn nicht den größten Teil des Tages kein einziger Client eingeloggt ist, ist der Sicherheitsgewinn durch eine versteckte SSID also genau null. Dafür handelt man sich aber einen Privatsphäreverlust ein.

Gegenmaßnahmen


Grundsätzlich ist es sinnvoll, wenn WLAN am Handy immer dann aus ist, wenn es nicht benötigt wird. Der einfachste Schritt in diese Richtung ist die Einstellung, dass WLAN ausgeschaltet sein soll, wenn das Handy gerade nicht benutzt wird. Oder natürlich, WLAN manuell auszuschalten, wenn man aus dem Haus geht. Das spart auch sehr viel Akku.
Mit entsprechenden Tools kann man das auch automatisieren. Tasker unter Android kann etwa bestimmte Funktionen ausführen, wenn man in Reichweite bestimmter Funkmasten ist – unter anderem WLAN ein- und ausschalten. Etwas einfacher zu konfigurieren sind entsprechende Tools, die genau für den WLAN-Zweck geschaffen sind und das gleiche tun. Da ich selbst Tasker nutze, kann ich hier keine Empfehlungen abgeben – für entsprechende Kommentare bin ich dankbar.
Die beste Lösung ist ein Patch für den Android-Kernel, den ich bei den xda-developers gefunden habe: Dadurch wird die WLAN Discovery komplett passiv: Das Handy lauscht nur den Beacons, die ihm über den Weg laufen, und meldet sich, wenn die SSID zu einem bekannten Netz passt. Hat man aber versteckte SSIDs in der Liste der bekannten Netzwerke, bleibt trotzdem alles beim alten: Hier ist ohne das ständige Aussenden von Probe Requests ja gar keine Verbindung zum Netz möglich.
Natürlich sollte man auch darauf achten, dass die eigene SSID nicht gerade „Netgear“ oder ähnlich ist – dann gibt es doch zu viele Netze da draußen, von denen das Handy glaubt, sie zu kennen, und entsprechend sein Schweigen bricht und versucht, sich anzumelden.
Ich weiß nicht, wie verbreitet dieser Patch in aktuellen Custom ROMs ist – ich habe schon lange keines mehr verwendet.
Wird wohl Zeit, das wieder einmal zu tun.
Einer von Vielen
  
Vielen Dank!

Zottels Zeug
  zuletzt bearbeitet: Sat, 25 Jul 2015 01:26:26 +0200  
Es fing so schön an, damals, Mitte der Neunziger:
Meine ersten Erfahrungen mit Vernetzung machte ich im deutschen Z-Netz, einem Mailboxnetz. Das bedeutete, dass entsprechend begeisterte Technikliebhaber, heute würde man sie Nerds nennen, auf eigene Kosten Rechner betrieben, an denen Modems hingen, über die man sich einwählen konnte. Meist irgendwann nachts verbanden sich diese Rechner mit anderen des gleichen Netzes und tauschten miteinander Nachrichten aus, private Nachrichten unter Nutzern des Netzes, aber auch öffentliche in „Brettern“ (Z-Netz-Jargon), also dem, was im Usenet Newsgroups hieß – dem Vorläufer heutiger Foren.
Niemand machte sich auch nur die geringsten Gedanken über Privatsphäre. Es war üblich, bei privaten Nachrichten (dem Äquivalent von E-Mails) die eigene Privatadresse samt Telefonnummer in der Signatur anzugeben – auch in Mails an Leute, die man überhaupt nicht kannte.
Es waren Zeiten der Unschuld. Ich weiß noch, dass ich, der ich das Internet von ständig miteinander verbundenen Computern noch nicht kannte, mich wunderte, warum normale Post in Abgrenzung zur E-Mail als „Snailmail“ bezeichnet wurde – brauchten E-Mails in Mailboxnetzen doch oft mehr als zwei Tage, um ihre Empfänger zu erreichen, wenn sie über entsprechend viele Hops weitergeleitet wurden, die sich nur einmal täglich miteinander verbanden.
Alles war offen, alles war frei, niemand sorgte sich um Überwachung, die aufgrund mangelnder technischer Möglichkeiten mit ziemlicher Sicherheit auch höchstens punktuell stattfand.
Ich machte meine ersten Erfahrungen mit dem Internet, ermöglicht durch einen lokalen Verein, der das Privatpersonen über ein Abkommen mit der Erlanger Uni schon zur Verfügung stellen konnte, lange bevor „Internet“ abseits von Universitäten ein Begriff war.
Microsoft war der erste „Gegner“: Windows 3.1 blieb so weit hinter den Möglichkeiten der damaligen Computer zurück, dass ich erst auf OS/2 umschwenkte und dann, als sich die aktuellste Version nicht mehr auf meinem neuen Computer installieren ließ, Linux entdeckte.
Als einschränkend wurde damals allenfalls das Betriebssystem empfunden, und evtl. mangelnde Rechenleistung des eigenen Computers – bei Computern war es in den 90ern wie in den 2000ern mit Handys und später Smartphones: Es lohnte sich für Technikbegeisterte, sich alle zwei Jahre einen neuen Rechner zu kaufen, weil dadurch sehr viel neues möglich wurde, was vorher nicht ging.
Nach und nach geschah im Internet Spannendes: Netscape war noch Shareware und eigentlich kostenpflichtig, zunächst geliebt, später gehasst und gern als Netrape bezeichnet, aber es gab nicht wirklich Alternativen. Java wurde entwickelt, zu Anfang als extrem spannende Möglichkeit gesehen, dynamisch mit dem Web zu interagieren (JavaScript gab es noch nicht).

Spulen wir vor zu den 2000er-Jahren.
Google ist schon lange „die“ Suchmaschine, die alten Konkurrenten wie Webcrawler, Lycos und vor allem Altavista benutzt keiner mehr. Und: Google ist toll. „Do no evil“ ist damals noch ernst gemeint, das sind total coole Geeks die total coole Sachen machen.
Apple hat seine beste Zeit: Seit einiger Zeit ist das alte MacOS Geschichte, das immer für sein rein kooperatives Multitasking verspottet worden war. BSD mit einem Mach-Kernel ist die Grundlage für Mac OS X – und spätestens ab Version 10.3 ist es auch nutzbar. In den 90ern hatte mir die damals noch notwendige ewige Bastelei an Linux noch Spaß gemacht, jetzt habe ich keine Zeit mehr dafür.
Da ist der Mac perfekt. Teuer, zwar, aber bietet genau das, was ich will: Sehr gutes UI, zwar bei weitem nicht so frei konfigurierbar wie unter Linux, aber wohldurchdacht und wirklich gut gemacht. Dazu BSD Userland: Alle gewohnten Unix-Tools auf der Shell zur Verfügung, einen X-Server gab es auch, und fast alles, was man an alten Linux-Sachen so haben wollte, grafisch oder nicht, gab es auch für den Mac. Ein stabiles System, und als großer Vorteil gegenüber Linux: Hochprofessionelle (wenn auch kostenpflichtige) Software im Bereich Grafik und Publishing. Perfekt. Ich war begeisterter Apple-Jünger.

Dann kam das erste iPhone heraus, und Apples Niedergang begann. In etwa dem gleichen Zeitraum begann für mich die Zeit, in der ich begann, mir Gedanken über Privatsphäre zu machen und über Daten, die ich vielleicht lieber für mich behalten würde. Noch alles andere als dominierend, damals, aber eben erste Gedanken.
Das erste iPhone war eine herbe Enttäuschung. Smartphones waren damals noch in den Kinderschuhen, das UI war allgemein kacke, um es mal so zu formulieren, und da Apple auf dem ganzen Computermarkt das einzige Unternehmen war, das offensichtlich wirklich und sehr viel Augenmerk auf UI legte, hatte ich viel Hoffnung in das iPhone gesetzt.
Indes, es war kein Smartphone: Man konnte keine eigenen Programme installieren. Blergh. Und nichtmal UMTS gab es. Aber das UI war wirklich gut.
Mit dem iPhone 3G kam dann das erste echte Smartphone von Apple, und ich kaufte es und fand es toll, weil es seinerzeit nichts auch nur annähernd vergleichbares auf dem Markt gab. Aber es war auch die Erfindung der Gängelei im Computerbereich: Nur mit SIM-Lock und Telekom-Vertrag. Apps nur aus dem Appstore. Damals noch kein Multitasking. Keine Möglichkeit, einen anderen Browser als Safari zu nutzen (Browser waren im Appstore verboten): Das schluckte ich nur, weil es keine Alternative gab. Und Apples Stern begann zu sinken.
Um es kurz zu machen: Das iPhone 3G blieb mein einziges Apple-Smartphone. Wenig später hatte Google aufgeholt, und ich stieg mit fliegenden Fahnen um.
Denn Google war immer noch cool: Ein Unternehmen, das jetzt auch den Smartphone-Markt für sich entdeckte, grundsätzlich aber weiterhin irgendwie geekig war und dem man zutraute, dass es zwar Geld verdienen wollte und musste, das aber tolle Sachen zu entwickeln schien, um tolle Sachen zu machen, und erst in zweiter Linie, um damit Geld zu verdienen. Wie man sich das als Geek halt so vorstellt.
Zu dieser Zeit kam aber auch ein weniger angenehmer Trend auf: Immer mehr kommerzielle Software „telefonierte nach Hause“, wie man damals sagte, das heißt: Nahm, sofern eine Internetverbindung bestand, Kontakt zu Servern des Herstellers auf. Meist, um Softwarepiraterie zu verhindern, aber in zunehmendem Maße auch, um Nutzungsdaten zu erfassen, d.h. welche Daten wie mit welchen Funktionen der Software verarbeitet werden.
Inzwischen munkelt es viel unter Verschwörungstheoretikern. Angeblich wird das ganze Internet überwacht, zumindest der unverschlüsselte Verkehr. Experten halten das für Unsinn: Da das Internet inzwischen allgegenwärtig ist, gilt es als unmöglich, diese massiven Datenmengen auch nur annähernd vollständig zu überwachen. Allenfalls eine Stichwortsuche innerhalb eines Bruchteils des Gesamtverkehrs wird für möglich gehalten.

Spulen wir wieder vor zur heutigen Situation.
Und da wird es sehr, sehr dunkel. Jegliche Unschuld ist lange verlorengegangen. Die Snowden-Enthüllungen haben klargemacht, dass die Verschwörungstheoretiker die ganze Zeit Recht hatten, und: Man kann keinem großen Unternehmen mehr trauen.
Microsoft, der große Gegner von früher, erschien in den letzten Jahren kundenorientierter als Apple. Bei beiden muss damit gerechnet werden, dass im Auftrag der NSA Hintertüren eingebaut wurden.
Extrem wichtige Open-Source-Software zur Verschlüsselung, die weltweit auf Millionen Servern eingesetzt wird, offenbart eklatante Lücken, die zum Teil durchaus nach Absicht aussehen.
Es darf als gesichert gelten, dass zumindest auf Ebene der Metadaten jeglicher Internetverkehr von Geheimdiensten gespeichert wird. Für die Inhalte gilt das zumindest für begrenzte Zeit. Niemand weiß, welche Verschlüsselungsalgorithmen vielleicht von Geheimdiensten schon komplett geknackt wurden oder zumindest so angreifbar sind, dass sie bei der Überwachung eines einzelnen Bürgers unter Aufwand massiver Rechenleistung zu brechen sind.
Alle Unternehmen, die im Internet präsent sind, vor allem die ganz großen wie Google, Facebook und Amazon, sammeln so viele Daten über ihre Benutzer, wie sie nur können. Sie bilden Profile und nutzen Big-Data-Algorithmen – das kann so weit gehen, dass sie wissen, dass der Nutzer bald ein neues Auto kaufen wird, bevor es ihm selbst klar wird.

Das ist furchtbar. Aus dem unschuldigen Spiel, dem Spaß und der Faszination der Anfangszeiten des Internet ist ein widerlicher Schlamm aus kommerziellen Interessen, Datensammelwut und Überwachung geworden.
Das macht keinen Spaß mehr. Immer surft das ungute Gefühl mit, dass man mit dem Konsum dieses Mediums den Interessen anderer viel mehr dient als den eigenen.
Deshalb ist es wichtig, sich zu wehren. Neben politischer Aktivität ist die einzige Option, so viel zu verschlüsseln wie möglich – und am besten nicht nur via SSL.
Und natürlich, nicht bei den Großen zu kaufen – wobei die Nutzung etwa von Google als Suchmaschine natürlich als Kauf gelten muss, egal, ob man die Werbung ausblendet oder nicht. Daten sammeln kann Google auch ohne Werbung.

Fazit:
Es gab Zeiten, da war die Nutzung von Computern mit und ohne Internet ein unbeschwertes Unterfangen. Das ist heute nicht mehr so. Ich weiß nicht, ob wir uns das zurückerobern können – aber wenn, dann geht das nur über starke Verschlüsselung, immer und überall, auch für die unwichtigsten Dinge.
Holger
  
Hubzilla @ sasiflo
  
Trashcan ... oh what beautiful times that were :-)

Vor dem Z-Netz begann es mit FIDO-Mailboxen. ONLINE :-) Per Telefon eingewählt mit einem Terminalprogramm. Und nach den ersten unbezahlbaren Telefonrechnungen dann das Leben offline entdeckt. Mit dem Amiga und MicroDot, dem PC unter OS/2 mit CrossPoint und schließlich Linux auch mit CrossPoint und per UUCP. Ah, wie wunderbar war das, damals Ende der 80er. Vieles davon hat meine Zukunft geprägt und meinen beruflichen Werdegang erst ermöglicht.

Und meine Weltsicht.

Welche Kurzsichtigkeit damals. Ich war Verfechter der Klarnamen in allen Posts! Und ja, auch ich hatte Kontaktdaten im Footer ... oh Du große Güte. Es hat eine Weile gedauert, diese ganzen Informationen im Internet der 2000er wieder unsichtbar werden zu lassen. Nur unsichtbar. Alles ist noch da, wenn man genau weiß, wonach man suchen muss. Die Querverbindungen sind nur schwach, so dass ich hoffe, dass auch Google und Konsorten es nicht schaffen, meine heutigen Spuren im Netz mit diesen alten Spuren zu verknüpfen. Das ergäbe ein grandioses Profil ... und würde mit Sicherheit sehr viel über mich und meine Gewohnheiten und Verhaltensweisen verraten. Ich wäre furchtbar gläsern.

... ich muss weg, mir wird übel :-(
Hubzilla @ sasiflo
  
Da ich weiß, wonach ich suchen muss, kann ich genau bestätigen: Was einmal im Internet ist, verschwindet niemals wieder von dort!

Schlimmer noch: Auch was nie im Internet (heutiger Art) war, findet sich dort. Und verschwindet auch nie wieder. Eine ganz laxe Suche mit dem Wissen, wonach ich zu suchen habe, fördert Diskussionen von 1989 zu Tage. Geführt in einer FIDO-Mailbox. ONLINE per Telefonleitung und Terminalprogramm!

Zottels Zeug
  zuletzt bearbeitet: Sat, 11 Jul 2015 02:18:26 +0200  
Dieser Artikel ist ursprünglich 2011 in meinem alten Blog erschienen – wie üblich jetzt leicht überarbeitet.

Man liest es immer wieder: Die Akkus sind die Achillesferse aller aktuellen Elektroautos.
Sie sind schwer, nehmen Platz weg, und vor allem: Sie sind sehr, sehr teuer. Bei vielen Elektroautos ist die Batterie für mindestens ein Drittel des Kaufpreises verantwortlich, teils ist es sogar die Hälfte.
In diesem Artikel soll es um verschiedene Batterietechnologien und ihre Vor- und Nachteile gehen, außerdem um Finanzierungskonzepte, die die Autohersteller ersonnen haben.

Grundwissen


Hier zunächst einige wichtige Fachbegriffe und Grundlagen rund um das Thema Akkumulatoren:
Die Energiedichte beschreibt, wie viel Kapazität pro Masse in einem Akku untergebracht werden kann. Sie gibt also einen Vergleichswert an, der besagt, wie schwer Akkus bei gleicher Kapazität sind.
Unter Leistungsdichte versteht man die Energie, die pro kg Batteriegewicht gleichzeitig abgerufen werden kann. Starke Elektromotoren benötigen beim Beschleunigen recht viel Energie auf einmal, was bei älteren Akkutypen dazu führt, dass mehr Akkus eingebaut werden müssen, um sie beim Beschleunigen nicht zu überlasten.
Zu beachten ist, dass manche Batterietypen bei starker Beanspruchung unerwünscht reagieren: Der Innenwiderstand des Akkus erhöht sich. Dadurch wird die Batterie noch heißer, als sie bei der hohen Leistungsabgabe ohnehin schon würde, und der Energieverlust erhöht sich, d. h. die Batterie kann weniger von ihrer eigentlichen Kapazität an den Motor abgeben, die Reichweite verringert sich.
Ladezyklen sind die Anzahl der kompletten Ladungen (von komplett leer auf ganz voll), die bei einem Akku durchgeführt werden können, bis seine Kapazität auf einen bestimmten Wert abgesunken ist. Sie beschreiben also (zum Teil) die zu erwartende Lebensdauer des Akkus.
Leider ist der Bezugswert nicht immer einheitlich; teils wird von 75% der ursprünglichen Kapazität ausgegangen, teils von 80%. Der 80%-Wert scheint weiter verbreitet zu sein; häufig fehlt aber jegliche Angabe, auf was sich die Ladezyklen eigentlich beziehen.
Dabei ist zu beachten, dass ein Ladezyklus eine komplette Ladung beschreibt. Wird die Batterie also an einem Tag zur Hälfte leergefahren, dann wieder aufgeladen, und am nächsten Tag wieder, dann entspricht das insgesamt einem Ladezyklus, nicht zweien. Es geht nicht um die Frage „Wie oft kann ich den Akku ans Ladegerät hängen?“, sondern um die Frage „Wie oft kann der Akku komplett geladen werden?“
Da heutige Batteriekonzepte nicht mehr mit dem Memory-Effekt zu kämpfen haben, ist es auch kein Problem, die Batterien immer wieder nur zum Teil aufzuladen.
Hier eine Beispielrechnung dazu, was Ladezyklen in der Praxis bedeuten (ohne Berücksichtigung der zyklenunabhängigen Alterung, siehe weiter unten):
Angenommen, mein Elektroauto hat mit der eingebauten Batterie eine (tatsächliche) Reichweite von etwa 80 km. Ich fahre täglich damit zur Arbeit, hin und zurück insgesamt 40 km. Wenn ich nicht arbeite, nutze ich das Auto nur wenig. Die Batterie soll laut Herstellerangabe 1000 Ladezyklen überstehen, bevor sie unter eine Kapazität von 80% fällt.
Das bedeutet: Pro Arbeitstag fällt etwa ein halber Ladezyklus an. Bei einer Fünf-Tage-Woche, 30 Tagen Urlaub im Jahr, Feiertage weggerechnet, bleiben etwa 220-225 Tage, an denen tatsächlich gearbeitet wird – und da sind Krankheitstage noch nicht mitgerechnet. Runden wir das trotzdem auf 240 auf, um die (geringe) Nutzung an Nicht-Arbeitstagen mit einzubeziehen.
Damit ergeben sich 120 Ladezyklen im Jahr, die theoretische Lebensdauer der Batterie würde also bei über acht Jahren (mehr als 70.000 km) liegen. Um auf der sicheren Seite zu sein (auch weil die Reichweite im Winter mit Heizung sicher geringer ist und am Tag mehr als ein halber Ladezyklus anfällt), reduzieren wir unsere Erwartung auf fünf Jahre. Das entspricht bei dieser Rechnung dann 48.000 km.
Kaputt ist die Batterie dann aber keineswegs, die Kapazität hat sich lediglich auf 80% reduziert. Sofern mir die reduzierte Reichweite genügt (auch im Winter mit Heizung), kann ich noch eine ganze Weile mit der gleichen Batterie weiterfahren.
Zu beachten ist dabei aber weiterhin, dass Batterien auch ohne Nutzung altern und mit der Zeit an Kapazität verlieren. Momentan kann man wohl davon ausgehen, dass mit mindestens 5 Jahren Nutzungsdauer gerechnet werden kann.
Bei diversen Batterietypen ist es wichtig, dass sie niemals tiefentladen und/oder überladen werden, da sie sonst kaputtgehen oder im Extremfall sogar explodieren/verbrennen würden. Entsprechend verfügen Elektroautos normalerweise über eine Lade-/Entladeelektronik, die den Ladezustand ständig überwacht und unerwünschte Situationen vermeidet.

Blei-Akkus


Prinzipiell entspricht dieser Batterietyp der Starterbatterie eines Autos, auch wenn es hier sehr unterschiedliche Ausführungen auf dem Markt gibt.
Starterbatterien selbst sind als Antriebsbatterien nicht geeignet, da sie meist nur bis zu 50 Ladezyklen überstehen, bis die Kapazität unter 75% abgesunken ist.
Verschiedene Hersteller bieten daher sogenannte Traktionsbatterien an, die länger halten. Trotzdem werden selten mehr als 500 Ladezyklen geboten, teils ist schon nach 300 Ladezyklen Schluss.
Blei-Akkus finden sich vor allem in sehr günstigen Elektroautos kleiner Hersteller.
Sie haben einige gravierende Nachteile, speziell ihre vergleichsweise niedrige Energiedichte von etwa 30 Wh/kg: Sie sind also sehr schwer.
Außerdem bedeutet die geringe Anzahl der Ladezyklen, dass die Batterien recht schnell ausgetauscht werden müssen.
Zum Verhalten bei niedrigen Temperaturen habe ich wenig gefunden. Grundsätzlich lassen sich Bleiakkus wohl zwischen -10 °C und 60 °C betreiben, allerdings scheint die Kapazität bei niedrigen Temperaturen auch abzusinken.
Im Gegensatz zu Lithium-Akkus werden Blei-Akkus schon heute fast vollständig recycelt (für Lithium-Akkus ist das bislang nur geplant).
Aber immerhin: Sie sind wesentlich günstiger als ihre Pendants mit Lithium, der Einstiegspreis in die Elektromobilität kann dadurch wesentlich geringer gehalten werden. Durch ihre negativen Auswirkungen auf das Gewicht (und somit auf den Verbrauch) und die geringe Lebensdauer sind sie in der Gesamtbetrachtung aber nicht wirklich günstiger.

Lithium-Ionen-Akkus


Lithium-Ionen-Akkus gibt es in verschiedenen Formen, die Zum Teil deutlich unterschiedliche Eigenschaften aufweisen. Leider sind die Angaben zu neuen Elektroautos an dieser Stelle oft nicht sehr aussagekräftig, wie überhaupt die Batterie als eines der eigentlich wichtigsten Elemente des Elektroautos kaum erwähnt und näher beschrieben wird.
Allgemein bestechen Lithium-Ionen-Akkus mit einer sehr hohen Energiedichte, die je nach Bauform bei etwa  95-190 Wh/kg liegt (die höchsten Energiedichten sind bei Lithium-Polymer-Akkus zu finden) – mithin sind sie mindestens dreimal so leicht wie Blei-Akkus, meist noch deutlich leichter. Auch in der Leistungsdichte liegen Lithium-Ionen-Akkus mit 300-1500 W/kg besser als Blei-Akkus.
Lithium-Ionen-Akkus können ein Sicherheitsrisiko darstellen: Überladung und zu starke Beanspruchung des Akkus können zu Überhitzung und im Extremfall zum Brand des Akkus führen. Das wird im Normalbetrieb durch die Elektronik verhindert.
Durch mechanische Beschädigungen an den Batterien bei einem Unfall kann es aber etwa zu einem Kurzschluss innerhalb der Batterie kommen, die dann überhitzen und Feuer fangen kann. Lithium-Brände können nicht mit Wasser gelöscht werden, werden von Wasser sogar angefacht!
Es gibt Neuentwicklungen, die dieses Verhalten durch verschiedene Maßnahmen verhindern können. Da sich die Hersteller über Machart und Herkunft Ihrer Akkumulatoren aber meist ausschweigen, ist ohne dedizierte Nachfrage kaum festzustellen, inwiefern die Batterien über solche Techniken verfügen oder nicht.
Bei klassischen Lithium-Ionen-Akkus sinkt die abgebbare Leistung mit der Temperatur teils drastisch. Als Betriebstemperaturen sind oft Werte von 0-40 °C angegeben. Optimal sind etwa 18-25 °C.
Lithium-Ionen-Akkus sind deshalb in Elektroautos zuweilen mit Heizung und/oder Kühlung versehen, um bei jedem Wetter und jeder Belastung sicheren und möglichst optimalen Betrieb gewährleisten zu können.
Mit speziellen Elektrolyten ist aber auch der Betrieb bei weit niedrigeren Temperaturen möglich.
Grundsätzlich wäre bei klassischen Lithiumbatterien (Lithium-Cobalt) mit etwa 500 Ladezyklen zu rechnen, bis nur noch 80% der ursprünglichen Kapazität zur Verfügung stehen. Das gilt aber nur, wenn man die Entladeströme auf 0,2 C beschränkt, was im Elektroauto nicht realistisch ist. Indem von der Elektronik aber nicht die volle Kapazität genutzt wird, sondern zum Beispiel nur bis zu einem Stand von 30% der Kapazität entladen und bis 80% der Kapazität geladen wird, lässt sich die Anzahl der Ladezyklen stark erhöhen.
Lithium-Polymer-Akkus zeichnen sich vor allem durch eine nochmals höhere Energiedichte aus. Typische Werte liegen heute jenseits der 140 Wh/kg.
Lithium-Eisen-Phosphat-Akkus sind für den Einsatz im Elektroauto beinahe ideal: Sie sind deutlich temperaturstabiler und sind herstellerseitig z.B. mit Betriebstemperaturen von -20 - +45 °C (mia) angegeben und somit wintertauglich. Einziger Nachteil: Ihre Energiedichte reicht mit 90-120 Wh/kg nicht an das heran, was mit anderen Lithium-Akkus möglich ist, ist aber natürlich trotzdem im sehr guten Bereich anzusiedeln.
Sie können sehr höhe Ströme liefern (viel höher als für den normalen Betrieb eines Elektroautos notwendig) und auch mit sehr hohen Strömen geladen werden – theoretisch wäre eine komplette Ladung in 15 Minuten problemlos möglich.
So hohe Beanspruchung wirkt sich aber natürlich auch nachteilig auf die Lebensdauer des Akkus aus. Würde er nur mit 1 C entladen und geladen, wäre selbst nach 4000 Ladezyklen kaum eine Änderung der Kapazität zu erwarten, selbst bei vollständiger Entladung (die einen klassischen Lithium-Ionen-Akku schnell zerstören würde) mit 10 C ist noch mit 1000 Zyklen zu rechnen (Quelle war Wikipedia, dort ist im aktuellen Artikel (Stand 7/2015) ohne Angabe des Entlade- und Ladestroms von 1.000 bis über 10.000 Zyklen bei vollständiger Entladung die Rede).
Die Praxis liegt dazwischen: Nehmen wir das Beispiel der mia von mia electric: Sie verfügte (in der Basisversion) über eine Lithium-Eisen-Phosphat-Batterie mit einer Kapazität von 8 kWh. Eine volle Ladung sollte 3,5 h dauern, geladen wurde also nur mit 1/3,5 C = knapp 0,29 C. Der Motor hatte eine Spitzenleistung von 18 kW. Bei Beschleunigen werden dem Akku also mehr als 2 C abverlangt – nicht 1 C also, aber auch weit entfernt von 10 C.
Vermutlich wird man an diesen Batterien mindestens 3000 Ladezyklen lang seine Freude haben. In der Praxis wird das von der konkreten Beanspruchung abhängig sein, und auch die Ladezyklen-unabhängige Alterung der Batterie spielt dann natürlich mit hinein.

Zukunftsmusik


Natürlich ist die Batterie-Entwicklung noch lange nicht an ihrem Ende angelangt. Lithium-Luft-Akkumulatoren etwa versprechen extreme Energiedichten (ein mehrfaches der aktuell besten Lithium-Akkus!), sind aber momentan noch nicht serienreif.
Ich vermute, dass auch manch großer Autohersteller in seinen Entwicklungslaboren sein eigenes Süppchen kocht – schon heute lässt die allgemeine Bezeichnung „Lithium-Ionen-Akku“ nur vermuten, was genau in den Fahrzeugen verbaut ist.
In den nächsten Jahren ist mit Sicherheit mit einer weiteren Verbesserung der Energiedichte, vor allem aber auch mit einer deutlichen Verringerung der Preise zu rechnen.

Finanzierung


Wie schon angemerkt ist die Batterie meist das mit Abstand teuerste Einzelteil in einem Elektroauto. Einige Autohersteller – zum Beispiel Renault und Mercedes – wollen daher ihre Autos ohne Batterie verkaufen. Der Anschaffungspreis des Elektroautos selbst wird dadurch wesentlich attraktiver. Die Batterien müssen dann gemietet/geleast werden. Bei Renault gibt es die Batteriemiete bei langjährigem Mietvertrag im Twizy schon ab € 30,–/Monat – allerdings bei lediglich 2.500 km Fahrleistung pro Jahr. Bei den maximal möglichen 10.000 km/Jahr und nur 12 Monaten Vertragslaufzeit sind schon € 70,–/Monat fällig. Im Zoé sind es € 49,–/Monat (1.250 km/Quartal bzw. 5.000 km/Jahr ab 3 Jahren Laufzeit) bis € 162,–/Monat (30.00km/Jahr bei 12 Monaten Laufzeit). Stand: Juli 2015. Dafür hat man garantiert immer eine Batterie mit mindestens 75% der ursprünglichen Kapazität im Auto.
Für mich war das damals ein sehr interessantes Angebot. Es reduziert den Anschaffungspreis und gibt beim Unsicherheitsfaktor Akku Sicherheit. Bei Vergleichsrechnungen mit Verbrennern kann man diesen Wert gewissermaßen als „Verbrauch“ mit ansetzen, ohne zu sehr ins Blaue spekulieren zu müssen. (Wichtig dann natürlich, die Inspektionen und Verschleißteile beim Verbrenner ebenso mitzurechnen, was nicht ganz einfach ist.)
Heute denke ich, dass mittlerweile klarer ist, wie gut die Batterien halten, und dass man normalerweise – wenn man nicht gerade das Pech hat, mit einem Batterieschaden konfrontiert zu sein – günstiger fährt, wenn man die Batterie kauft. Sofern das überhaupt angeboten wird.
Ein Zoé würde mich ab 36 Monaten Laufzeit bei 12.500 km/Jahr € 79,– Batteriemiete pro Monat kosten, während mein Peugeot 107 für die gleiche Strecke Benzin für etwa € 71,– verfährt. Die € 8,– Unterschied lassen sich durch geringere Wartungskosten vielleicht noch ausgleichen, aber der Zoé braucht ja auch noch Strom, der hier noch nicht eingerechnet ist. Mit einer gekauften Batterie ist es viel leichter, in Bereiche zu kommen, wo sich die Betriebskosten tatsächlich amortisieren.

Fazit


Die Batterien sind nicht nur eine der größten Schwierigkeiten bei der Entwicklung von Elektrofahrzeugen und ein großer Preisfaktor – für mich stellen sie auch das größte Fragezeichen beim Kauf eines Elektroautos dar.
Unverständlicherweise geben die meisten Hersteller kaum Daten zu ihren Batterien an und lassen den Kunden so im Ungewissen.
Teils fehlen sämtliche Angaben, oder es ist nicht einmal eine Kapazität angegeben. Die Anzahl der Ladezyklen gibt praktisch niemand an.
Ich verstehe schon, dass das natürlich auch für die Hersteller problematisch ist. Schließlich gibt es noch wenige Vergleichswerte aus dem massenhaften Einsatz solcher Fahrzeuge, und wie soll man die Lebensdauer sinnvoll angeben, wenn sowohl viele Ladungen als auch schlichtes Alter eine Rolle spielen?
mia electrics zum Beispiel gab drei Jahre oder 50.000 km Garantie auf die Batterie, sagte aber nirgends, was „Garantie“ eigentlich heißt: Ersatz nur, wenn gar nichts mehr geht oder auch wenn die Kapazität unter 80% sinkt?
Und überhaupt, was sind schon drei Jahre? Ich hätte schon gerne die Sicherheit, dass ich innerhalb der nächsten fünf Jahre nach Kauf eines Neuwagens nicht plötzlich über € 5.000,– investieren muss, um weiterhin die 40 km zur Arbeit bewältigen zu können – auch im Winter mit zwei Mitfahrern.
Und selbstverständlich blieb bei mia (wie auch bei den meisten anderen) völlig unklar, was der Ersatz der Batterie überhaupt kosten würde. (Heute mag das klarer sein, das habe ich zur Wiederveröffentlichung des Artikels nicht neu recherchiert.)
Das gefällt mir gar nicht – wahrscheinlich deutlich mehr als ein Viertel des Wagenwertes ist ein Verschleißteil, und keiner sagt mir, wie lange es halten wird.
Deshalb fand ich die Miet-/Leasingmodelle damals so attraktiv. Natürlich müsste man sich die Konditionen sehr genau durchlesen, um herauszufinden, ob man damit nicht noch mehr über den Tisch gezogen wird – zum Beispiel bei vorzeitiger Kündigung wegen Fahrzeugverkaufs oder bei den Bedingungen zum tatsächlichen Austausch der Batterie.
Heute denke ich, dass man mit einer Kaufbatterie meist besser bedient ist.
zottel
  
Wenn Du Dich da richtig gut auskennst, wäre ich für ein bisschen Input dankbar. :-) Was ich weiß ist im Prinzip alles „mal gelesen“, ohne viel Hintergrundwissen. Wie sieht es denn bei Ethanol-Brennstoffzellen mit dem Wirkungsgrad aus? Wenn ich das richtig in Erinnerung habe, lässt sich Ethanol ja auch halbwegs sinnvoll mit Hilfe von überschüssigem Strom synthetisieren. Und natürlich aus Pflanzenabfällen. Das wäre zwar vom Gesamtwirkungsgrad her wahrscheinlich auch nicht gerade toll, aber für Langstrecken bestimmt eine tolle Sache.

Wenn Du da Plan hast, erzähl mal ein bisschen!
Wirrlicht
  
Ethanol ist im Prinizp Ok, wobei halt immer die Diskussion (wie ja auch beim E10-Benzin gesehen) nicht nur der Wirkungsgrad das Problem ist, sondern halt auch, das
1.) Natürlich CO_2 freigesetzt wird
2.) Das Ethanol normalerweise aus Intensiver Landwirtschaft stammt. Und ob das dann Bio-mäßig der letzte Schrei Ist - Fraglich.

Ist aber schon eine weile her das "richtig gut auskennst" auf mich zugetroffen hätte. Ich such mal was :)

http://www.conrad.de/ce/de/product/1272763
Wirrlicht
  zuletzt bearbeitet: Tue, 14 Jul 2015 11:31:26 +0200  
Linde Mainz : http://bit.ly/1HsIuHO
BMW/Toyota : http://bit.ly/1HZXalF
Lithium/Graphen/Graphitoxid : http://bit.ly/1dXU2ul
Abfall-Wasserstoffkonversion : http://bit.ly/1O3eExy

Im großen und ganzen siehts so aus, das wenn man mir Ethanol fahren will, die Brennstoffzelle (keinen / keinen großen ) Vorteil gegenüber der herkömmlichen Verbrennung hat, wie gesagt, CO_2 wird ja so oder so frei. Durch geeignetere Materialien (Membrenen, Elektroden...) mag das irgendwann so sein, im Moment ist das aber nicht der Fall. Aber es gibt ein paar Papers darüber, das man mit einer Ethanol-Brennstoffzelle wohl ganz gut seinen Laptop betreiben können wird. Find ich allerdings auch nicht so prickelnd, meistens geht das ja schon mit einer anständigen Solarzelle.

Zottels Zeug
  zuletzt bearbeitet: Fri, 24 Apr 2015 05:02:01 +0200  
Wie wird der Autoverkehr in etwas fernerer Zukunft aussehen? Sagen wir, in 20 oder 30 Jahren? Bis dahin sollten selbstfahrende Autos kein Problem mehr darstellen, und das eröffnet riesige Möglichkeiten – abgesehen vom Datenschutz.

Ein Szenario


Ich wohne etwas außerhalb eines Ballungsgebietes – „auf dem Land“ wäre zuviel gesagt, hier gibt es Bahnanbindung in die City, Busse fahren auch, aber doch weit entfernt von U- und S-Bahn. Meine Arbeitsstelle liegt ungefähr genausoweit draußen am Rand einer anderen Stadt des gleichen Ballungsraumes. Das bedeutet: Es gibt keine direkten öffentlichen Verbindungen zwischen meinem Wohnort und meiner Arbeitsstelle. Öffentlich müsste ich von zu Hause mit dem Zug in die eine Stadt fahren, von dort mit der S-Bahn in die andere Stadt und von dort wiederum mit dem Bus zu meiner Arbeitsstelle.
Mit dem Auto dauert das etwa 35 Minuten, öffentlich etwa anderthalb Stunden – und auch das nur, wenn ich alle Anschlüsse erwische, sonst kommt je nach Uhrzeit noch eine halbe bis eine Stunde obendrauf.
Grundsätzlich bin ich begeisterter Benutzer öffentlicher Verkehrsmittel, aber das ist dann doch zuviel. Taxifahren verbietet sich bei dieser Fahrzeit natürlich von selbst, und es wäre, ökologisch gesehen, natürlich sowieso noch viel schlechter als der Kleinwagen, den ich für den Weg zur Arbeit benutze.
Spulen wir mal 30 Jahre vor, oder, wie ich sehr hoffe, vielleicht auch nur 15 oder 20 Jahre?
Wir besitzen kein Auto mehr. Beim Frühstück bestelle ich mir via App ein Auto für den Weg zur Arbeit. Da ich ihn oft fahre, habe ich das Ziel fest eingespeichert, ein Klick genügt. Ich frühstücke fertig, ziehe mich an, gehe vor die Tür.
Dort wartet ein winziges Elektroauto auf mich. Es ist kleiner als ein Smart, kaum zwei Meter lang. Eine Sitzbank für 2-3 Personen, ein kleiner Kofferraum, mehr nicht.
Ich setze mich rein und schließe die Tür. Anschnallen muss ich mich nicht.
Während das Auto losfährt, nehme ich ein Buch aus der Tasche und beginne zu lesen. Zwischendurch schaue ich aus dem Fenster. Wenn ich wollte, könnte ich dank des Netzanschlusses auch schon mit der Arbeit beginnen, aber ich genieße lieber die Zeit der Entspannung vor der Arbeit.
Als wir auf der größeren Landstraße angekommen sind, verbindet sich mein Auto mit vier anderen zu einem Zug. Auf dem Weg Richtung Arbeit scheren immer wieder Autos aus und neue kommen hinzu. Obwohl die Straße nicht mehrspurig ist, bedeutet das keine starken Abbrems- oder Beschleunigungsmanöver. Wer zuerst wieder abbiegt, wurde von vorneherein hinten angehängt, so dass der Rest des Zuges nicht ineffizient bremsen muss.
Ich stelle fest, dass ich heute eine andere Strecke fahre als sonst. Klar, Urlaubszeit, der kurze Autobahnabschnitt der Strecke ist wahrscheinlich ziemlich voll.
An meinem Arbeitsort angekommen steige ich aus. „Mein“ Auto fährt sofort wieder los und wendet sich anderen Kunden zu.
Nachdem ich einige vorbereitende Arbeiten erledigt habe, mache ich mich auf den Weg zu einem Kunden in 300 km Entfernung. Das Auto dafür habe ich schon vor ein paar Tagen bestellt. Indem ich in der Zeitplanung um eine Stunde hin oder her flexibel war, konnte ich den billigen Langzugtarif nutzen. Ich muss mich etwas beeilen, denn wenn ich nicht rechtzeitig in den vor der Tür stehenden Shuttle einsteige, verfällt meine Buchung. Er steht aber schon seit fast zehn Minuten hier, also selber schuld.
Der Shuttle ist sehr eckig, sieht aus wie ein Hochhaus auf Rädern. Er kann sich in einen Langzug einhängen, dann ist das ganze Gebilde sehr stromlinienförmig. Er fährt mich zur nächsten Autobahn und wird dort Teil eines auf die Sekunde getimten Langzuges. Im Gegensatz zu dem Zug auf dem Weg zur Arbeit wird hier physisch gekoppelt. Die Kraft zur Fortbewegung kommt von der Lokomotive. Wenige Minuten später sause ich mit 250 Sachen über die Autobahn. Langsamer werden wir nur dort, wo die Kurven zu eng sind.

Schöne neue Welt


Das ist in vielerlei Hinsicht eine richtig tolle Aussicht:
  • Stauvermeidung: Die Zentrale weiß immer über alle Autos Bescheid – nicht nur darüber, wo sie gerade sind, sondern auch darüber, wohin sie gerade fahren. Dadurch kann der gesamte Verkehr ideal ausgelegt werden. Wenn sich die Überlastung einer Strecke abzeichnet, können einige Autos auf andere Strecken geleitet werden. Wer es nicht so eilig hat, könnte dann die langsamere Variante sogar billiger bekommen.
  • Umweltschutz: Durch die komplette Kenntnis des gesamten Verkehrs können Beschleunigungs- und Bremsvorgänge ideal so gestaltet werden, dass der Energieverbrauch minimiert wird. Dadurch ließe sich der Energieverbrauch um Größenordnungen verringern.
    Wegen der besseren Sicherheit (siehe unten) kann auf die Sicherheitsvorkehrungen weitgehend verzichtet werden, die Autos heute immer schwerer machen.
  • Kostenersparnis: Nicht nur die Kosten für die Energie werden minimiert, auch die fürs Auto. Die meisten Autos werden heute maximal eine Stunde pro Tag bewegt und stehen ansonsten sinnlos in der Gegend herum. Das bedeutet natürlich nicht, dass man mit 1/24 der Autos auskommen könnte, denn die Anzahl der Autos muss ja für die Stoßzeiten, also den Berufsverkehr, ausreichen. Trotzdem ergibt sich hier massives Einsparpotenzial.
  • Flexibilität: Wer heute mit öffentlichen Verkehrsmitteln fährt, ist auf den Fahrplan angewiesen. Wenn zum benötigten Zeitpunkt nichts fährt, schaut man in die Röhre. Das ist vor allem auf dem Land relevant, wo die Frequenz öffentlicher Verkehrsmittel eben nicht alle zehn Minuten, sondern alle halbe Stunde, jede Stunde oder noch seltener ist – wenn überhaupt eine Haltestelle in der Nähe ist. Natürlich wird ein selbstfahrendes Auto auch eine Weile brauchen, um entlegene Gebiete zu erreichen, aber immerhin kann man es zum benötigten Zeitpunkt bestellen.
    Außerdem kann ein System, das Position und Ziel aller Verkehrsteilnehmer kennt, flexibel auf Störungen reagieren und zeitkritische Systeme wie die von mir imaginierten „Langzüge“ gegebenenfalls ideal so umstellen, dass für alle Beteiligten der kleinstmögliche Zeitverlust in Bezug zum kleinstmöglichen Energieverlust entsteht.
  • Sicherheit: Selbstfahrende Autos können miteinander kommunizieren. Sie können sich gegenseitig vor Verkehrsstörungen warnen, lange bevor das betreffende Auto sie erreicht hat. In akuten Gefahrensituationen können Autos „miteinander ausmachen“, wer wohin ausweicht.
    Sensoren können die Umgebung weit besser im Auge haben, als ein Mensch es je könnte. Fest installierte Streckenüberwachungshardware auf Schnellfahrstrecken kann Hindernisse indentifizieren, bevor die Autos überhaupt in ihre Nähe kommen.

Aber?


Das klingt alles toll, oder? Wo sind die Nachteile?
  • Selber fahren wird verboten: Klingt extrem, und ganz so wird es so schnell auch nicht kommen. Aber doch: Das perfekte System, wie im Szenario oben beschrieben, funktioniert nur, wenn niemand mehr selbst steuert. Letztlich wird es vermutlich darauf hinauslaufen, dass das Selbstfahren nur noch auf kleinen Straßen, zum Beispiel bis hin zum Landstraßen-Level erlaubt ist. Zugang zu höheren Straßen wie Bundesstraßen und Autobahnen wird physisch verhindert, weil manche der dort verkehrenden selbstfahrenden Autos nicht mehr über die nötigen Sensoren verfügen, um Selbstfahrern auszuweichen. Blockade von Shuttles, die zum Nicht-Erreichen des Langzugs führt, wird mit Geldstrafen geahndet.
    Radfahren auf allen Straßen ab Landstraßenlevel ist grundsätzlich verboten. Dafür werden eigene Radfernwege geschaffen.
  • Fehlende Beziehung zum Auto: Persönlich ist mir das herzlich egal, aber es gibt Leute, die lieben ihr Auto. Die werden Widerstand leisten. Letztlich wird es eine kleine Gemeinde von Selbstfahrern geben, etwa wie Oldtimer-Liebhaber heute. Sie werden den anderen ziemlich auf die Nerven gehen.
  • Überwachung: Das ist der zentrale und schlimmste Punkt dieses Szenarios: Die zentrale Verkehrsüberwachung weiß immer, wo jedes Auto ist. Über die ohnehin vorhandenen Kameras jedes Roboter-Autos die Selbstfahrer zu erfassen ist kein Problem. Und: Weil jeder sein Auto immer bestellen muss, weiß die Verkehrsüberwachung auch immer, wer wann wohin fährt. Technisch wäre es durchaus so lösbar, dass nicht klar ist, wer in einem Auto von A nach B fährt, aber es ist nicht zu erwarten, dass solche Datenschutzstandards tatsächlich eingeführt werden.
    Natürlich: Zumindest auf Autobahnen ist durch die Mautbrücken mit ihrem Nummernschild-Scannenden Equipment so ein Szenario heute schon gegeben. Und es wird jetzt auf Bundesstraßen ausgeweitet. Trotzdem wäre das noch ein deutlich weiterer Schritt hin zum gläsernen Bürger.

Fazit


Schöne neue Welt?
Ich vermute, dass die Datenschutzproblematik bis dahin kein „Problem“ mehr darstellt, weil durch andere Methoden dieselben Möglichkeiten ohnehin gegeben sind. Und da ich mein Auto als Gebrauchsgegenstand ansehe und nur das gemütliche Cruisen in einem Wohnmobil wirklich genießen kann, finde ich es auch nicht weiter schlimm, wenn einem das in Zukunft abgenommen wird.
Also ja: Schöne neue Welt! Ich freu mich drauf.

#Umweltschutz #Verkehr
Klaus
  
Interessante Ideen und die Vorteile sprechen alle dafür, aber welchen Politiker siehst du denn in 15-20 Jahren, der sich an dem Liebling der Deutschen so vergehen wird?!?
zottel
  
Ich denke, dass sich das letztlich von selbst entwickeln wird. Mag aber sein, dass es länger dauert.

Es hängt letztlich davon ab, wie schnell komplett selbst fahrende Autos auf den Markt kommen, und wie schnell sie sich durchsetzen.

Sobald ein Großteil der Autos nicht mehr von einem Fahrer gesteuert werden, werden die menschgesteuerten zu einem Sicherheitsrisiko. Einige größere Unfälle, die mit selbstfahrenden Autos vermeidbar gewesen wären, schön in den Medien breitgetreten, dazu vielleicht eine große, weithin bekannte Kampagne, um die Verkehrstoten auf nahe Null zu reduzieren – da kann das ganz schnell gehen.

Ich stelle mir das ungefähr so vor:

Innerhalb der nächsten fünf Jahre: Einige Autobahnstrecken werden mit zusätzlicher Hardware ausgestattet, die das automatische Fahren auf diesen Strecken erlaubt. Wichtigste Punkte: Zuverlässige digitale Informationen sind abrufbar, etwa über Geschwindigkeitsbegrenzungen und Baustellen, visuelle Elemente wie Seitenstreifen zur zuverlässigen Spurfindung sind vorhanden.
Oberklasse-Autos können für viel Geld mit einem entsprechenden Assistenzsystem geordert werden. Zunächst ist der Fahrer selbst weiter verantwortlich und muss die Strecke im Blick haben, später darf sich der Fahrer auch anderweitig beschäftigen. Da sie viel Abstand halten und nicht sehr schnell fahren, werden selbstfahrende Autos zunächst als Hindernis wahrgenommen.

Innerhalb der nächsten zehn Jahre: Alle Autobahnen sind für automatisches Fahren ausgerüstet, die Bundesstraßen zum Teil auch. Mittlerweile sind Assistenzsysteme auf dem Markt, die unabhängig von Voraussetzungen wie zuverlässig vorhandenen Seitenstreifen auf allen Strecken sicher fahren können. Außerhalb von freigegeben Strecken muss der Fahrer das Auto aber noch überwachen. Die entsprechenden Systeme sind immer noch teuer, werden inzwischen aber viel gekauft und sind auch in der Mittelklasse und bei gehobenen Kleinwagen zu haben.
Erste Pilotversuche mit „selbstfahrenden Taxis“ laufen an. Die teilnehmenden Städte rüsten dafür einen Teil ihres Straßennetzes mit entsprechender Technik aus. Die Fahrzeuge können vom Fahrgast nicht mehr manuell gesteuert werden (abgesehen von einer Notbremse), Fahrten außerhalb der freigegeben Gebiete werden nicht angeboten.

Innerhalb der nächsten fünfzehn Jahre: In den meisten Städten jenseits der 100.000 Einwohner werden selbstfahrende Taxis angeboten, oder ein solches System ist gerade im Aufbau. Kleinere Städte und Gemeinden ziehen nach, die Lücken im System werden nach und nach geschlossen. Inzwischen gibt es Assistenzsysteme, die für nicht-überwachtes Fahren auch außerhalb der ausgerüsteten Gebiete freigegeben sind. Erste Privatautos ohne manuelle Steuerung sind auf dem Markt zu haben.
Viele Autofahrer besitzen noch ein eigenes Auto, aber die selbstfahrenden Taxis werden immer billiger. Zumindest, wenn man in einem gut ausgebauten Gebiet wohnt, macht es eigentlich keinen Sinn mehr, sich ein eigenes Auto zu kaufen – finanziell schon lange nicht mehr, jedenfalls im Vergleich zu einem Neuwagen. Alte Gebrauchte in der Gesamtbetrachtung noch billiger, aber auch hier schlägt das Pendel langsam Richtung Taxi – auch, weil es immer schwieriger wird, noch einen angemessenen Preis für einen Gebrauchtwagen zu erzielen.
Klassische öffentliche Verkehrsmittel wie Busse und Bahnen sind im Niedergang begriffen. Es wird versucht, sie auf intelligente Weise mit den Taxis zu verbinden – zum Beispiel, indem die Taxis direkt auf Fernverkehrsbahnsteige fahren, wo gewissermaßen von Tür zu Tür umgestiegen werden kann. Schwer zu sagen, wie gut das gelingen kann.

Innerhalb der nächsten zwanzig Jahre: Privatautos werden mehr und mehr zum Spielzeug der Reichen. Sie sind zwar noch normaler Teil des Straßenverkehrs, werden aber unübersehbar immer weniger. Das große Tankstellensterben geht weiter – zwar fahren die Taxis zum Teil weiterhin mit Verbrennungsmotoren, aber sie tanken an den eigenen, automatischen Tankstellen der Betreibernetze. Inzwischen ist es überhaupt kein Problem mehr, innerhalb Deutschlands von jedem beliebigen Punkt zu jedem anderen zu gelangen.
Das Image von Selbstfahrern wird immer schlechter – sie haben den Ruf, aus Egomanie die anderen Verkehrsteilnehmer zu gefährden, die Umwelt zu verpesten und allgemein den Verkehrsfluss zu stören. Erste Strecken werden für Selbstfahrer gesperrt.
Dort finden auch erste Pilotversuche mit schnell fahrenden Zügen statt, die sich on demand bilden und wieder trennen.

So etwa wird es, glaube ich, ablaufen. Möglicherweise sind die Zeitrahmen etwas optimistisch. :-) Ich kann mir aber durchaus vorstellen, dass das auch innerhalb dieser Zeit so kommen kann.
zottel
  
Und zu den negativen Aspekten:

Um Vandalismus zu vermeiden und für Regressforderungen zu dokumentieren, sind die selbstfahrenden Taxis von Anfang videoüberwacht. Wer Verschmutzungen verursacht, etwa indem er unterwegs „unsauber“ isst und trinkt, muss die ungeplante Heimfahrt zur Zentrale und die Reinigung bezahlen; weil das Verzögerungen in der Verplanung der Fahrzeuge bedeutet, langen die Anbieter da kräftig hin. Evtl. wird auf Kurzstrecken Essen und Trinken ganz verboten.

Wer häufig die Fahrzeuge verschmutzt, etwa öfter mal sturzbetrunken den Heimweg antritt und ins Auto kotzt, wird von den Anbietern zunächst ganz ausgeschlossen. Später, wenn es kaum noch andere Fortbewegungsmittel gibt, gilt die Nutzung evtl. als Grundrecht und darf nicht mehr verweigert werden – auf dem Weg zu so einem Gesetz bleiben aber viele höchst unangenehm auf der Strecke.

Vielleicht gibt es irgendwann eine Hatz auf „Verschmutzer“, die in dem Versuch gipfelt, Verschmutzungen über die Überwachungskamera automatisch festzustellen und den Fahrgast nicht aus dem Fahrzeug zu lassen, bevor er die Reinigung bezahlt hat. Inklusive der Kollateralschäden bei fehlerhafter Erkennung einer Verschmutzung.

Unüberwachte Fortbewegung mit einem motorisierten Fahrzeug (egal ob eigenes oder Taxi) wird letztlich fast vollständig unmöglich.

Zottels Zeug
  zuletzt bearbeitet: Sat, 28 Mar 2015 03:44:30 +0100  
Seit ich die Möglichkeiten von rsync kennengelernt habe, mag ich Incremental Backups nicht mehr. Sie sind mir vergleichsweise zu eingeschränkt: Es wird immer ein Full Backup, also ein komplettes Backup aller Daten, benötigt, auf das sich die Incremental Backups beziehen, und ein Incremental Backup baut auf dem vorherigen auf.
Für ein Restore muss also immer eine Reihe von korrekten Incremental Backups vorhanden sein, und das Full Backup, auf das sie sich beziehen, muss ebenfalls ok sein, sonst ist man verloren. Mit anderen Worten: Man sollte mindestens einmal pro Woche ein Full Backup ziehen, sonst wird das ganze zu unsicher.
Und: Mit allen Backup-Lösungen, die Incremental Backups nutzen und normalerweise komprimierte Backup-Archive abspeichern, ist es relativ kompliziert, einzelne Dateien aus dem Backup wiederherzustellen.

Rsync-Backups mit Hardlinks


Ein Rsync-Backup mir Hardlinks ist da viel schöner: Alle zu speichernden Verzeichnisbäume werden einfach so, wie sie sind, auf dem Backup-Server repliziert. Ein Restore einer Datei beschränkt sich also darauf, diese Datei per scp vom Backup-Server auf den Hauptserver zurückzukopieren.
Und jetzt kommt das wirklich geniale:
Über entsprechende Kommandozeilen-Optionen kann man rsync anweisen, die neue Kopie der Verzeichnisbäume beim Backup als Hardlinks anzulegen, sofern die Dateien sich nicht geändert haben.

Hardlinks


Das zu erklären erfordert einen kleinen Exkurs: Was sind eigentlich Hardlinks?
Zur Abgrenzung seien zunächst Softlinks erklärt: Das ist ähnlich dem, was Windows mit .lnk-Dateien tut: Ein Softlink enthält den Pfad zu einer anderen Datei (oder einem anderen Verzeichnis), auf die er verweist. Wird ein Softlink geöffnet, folgt das Betriebssystem dem angegebenen Pfad und öffnet dann diese Datei. Ist die Datei nicht mehr vorhanden, zeigt der Link ins Leere („dangling softlink“), und ein File not Found Error wird erzeugt.
Softlinks funktionieren auch über Filesystem-Grenzen hinweg, d.h. ein Softlink auf einer Festplatte kann auf eine Datei auf einer anderen Festplatte zeigen.
Anders Hardlinks.
Hardlinks kann es nur auf dem gleichen Filesystem geben, denn es sind mehrere Verzeichniseinträge, die auf die gleichen Daten verweisen.
Das können verschiedene Namen innerhalb des gleichen Verzeichnisses sein (so gibt es viele Kommandozeilen-Tools unter Linux, die sich, je nachdem, mit welchem Namen sie aufgerufen werden, unterschiedlich verhalten), aber auch Verzeichniseinträge in ganz unterschiedlichen Verzeichnissen.
Mit dem Befehl ln lassen sich sowohl Hard- wie auch Softlinks erzeugen. Ohne Parameter außer Quell- und Zieldatei werden Hardlinks erzeugt, mit dem Parameter -s Softlinks.
Das Windows-Filesystem NTFS unterstützt grundsätzlich Hardlinks, es gibt aber in der Windows-Oberfläche wie auch auf der Kommandozeile keine Möglichkeit, sie auch zu nutzen.
Wenn es mehrere Hardlinks auf die gleichen Daten gibt und eine dieser „Dateien“ wird gelöscht, löscht das Dateisystem nur diesen Verzeichniseintrag – die Daten selbst bleiben auf der Platte erhalten, und über die anderen Hardlinks kann noch auf sie zugegriffen werden. Erst wenn der letzte Hardlink gelöscht wird, werden die Daten auf der Platte als frei markiert und können durch andere Dateien überschrieben werden.

Rsync und Hardlinks


Genau dieses Verhalten kann sich rsync zunutze machen: Beim ersten Backup-Lauf werden einfach alle Dateien auf den Zielserver kopiert. Beim zweiten Backup-Lauf werden alle Dateien, die sich nicht geändert haben, auf dem Zielserver als Hardlinks zum ersten Backup erstellt und brauchen dadurch keinen zusätzlichen Plattenplatz. Nur die Dateien, die sich tatsächlich geändert haben oder neu erstellt wurden, werden auf den Zielserver kopiert und brauchen dort zusätzlichen Platz.
Wird eine Datei auf dem Hauptserver gelöscht, findet sie keinen Eingang mehr ins neue Backup. Sie ist aber beispielsweise noch in sieben alten Backups vorhanden – alles Hardlinks auf die gleichen Daten.
Wird das erste Backup gelöscht, weil es zu alt geworden ist, zeigen noch sechs Hardlinks auf die Daten – und so weiter, bis das siebte Backup gelöscht wird und damit dann tatsächlich der Plattenplatz freigegeben wird.
Rsync ist sehr effizient in der Erkennung von geänderten Dateien und überträgt nur die Differenz zwischen alter und neuer Version einer Datei über das Netzwerk. Dadurch ist es – nachdem das erste, komplette Backup einmal erstellt wurde – sehr schnell.
Auf diese Weise erhält man Backups, die sehr viel besser sind als das, was die üblichen Backup-Tools so anbieten: Zwar ist das Backup nicht komprimiert, da aber nur Änderungen tatsächlich Platz brauchen, kann man sehr viele Backups des gleichen Servers unterbringen, ohne groß zusätzlichen Plattenplatz zu benötigen.
Die Backups sind direkt ohne Entpacken lesbar, und eine Datei, die man wiederherstellen will, kann man einfach per scp auf den Hauptserver zurückkopieren. Mit entsprechenden Skripten kann man zum Beispiel 5 tägliche Backups behalten, zwei wöchentliche und ein monatliches. Alles andere wird gelöscht. Das ist übrigens genau das, was auch Time Machine, das Backup-System von Mac OS X, tut.

Rsync und Backupninja


Das alles geht – aber es ist nicht ganz einfach, sich rsync selbst per Cronjob so zu konfigurieren, dass es all das tut. Rsync glänzt mit extrem vielen Optionen, es tut per Default nicht das, was wir hier wollen, und es muss um zusätzliche Skripte ergänzt werden, um nicht mehr benötigte Backups zu löschen.
Da kommt Backupninja gerade recht. Backupninja ist eine Sammlung von Skripten, die Backups von verschiedenen Quellen (z.B. Dateisysteme, Datenbanken) mit einfachen Config-Files ermöglicht, ohne dass man sich Gedanken darum machen muss, welche Einstellungen bei den verschiedenen genutzten Backup-Tools sinnvoll sind.
Backupninja kann mit vielen Tools zusammenarbeiten, hier soll es aber ausschließlich um rsync gehen.

Backupninja fixen


Nach der Installation von Backupninja kann man im Verzeichnis /etc/backup.d/ Dateien anlegen, die die verschiedenen Backups steuern, die man nutzen will. Die Dateierweiterung bestimmt dabei jeweils, welches Tool genutzt werden soll.
Für rsync ist, wie könnte es anders sein, die Erweiterung .rsync vorgesehen.
Da gibt es aber ein Problem:
Die aktuelle Version von Backupninja, die bei Debian und Ubuntu LTS mitgeliefert wird, hat ein Problem mit dem su -c Befehl, der auf dem Zielserver ausgeführt wird, und funktioniert somit nicht korrekt.
Das wurde in Backupninja 1.0.2 bereits gefixt (siehe hier), aber bei beiden Distributionen wird aktuell noch 1.0.1 ausgliefert. Wir müssen das also selbst fixen.
Dazu gehen wir nach /usr/share/backupninja/ (als root) und kopieren die Datei rsync (die für alle Dateien in /etc/backup.d/ mit der Endung .rsync zuständig ist), zum Beispiel nach rsyncf (wie rsync fixed).
Dort ersetzen wir die Zeilen
  debug $nice $rsync ${rsync_options[@]} $filelist_flag $excludes $batch_option $orig $dest_path
  set_pipefail
  $nice su -c "$rsync ${rsync_options[@]} --delete-excluded $filelist_flag $excludes $batch_option $orig $dest_path" | tee -a $log


durch

  command="$rsync ${rsync_options[@]} --delete-excluded $filelist_flag $excludes $batch_option $orig $dest_path"
  debug $nice su -c "$command"
  set_pipefail
  $nice su -c "$command" | tee -a $log


Jetzt können wir in /etc/backup.d/ eine Datei mit der Erweiterung .rsyncf anlegen, die unser gefixtes rsync-Skript für Backupninja benutzt.

Die Datei in /etc/backup.d/


Für alle anderen Backup-Möglichkeiten in Backupninja (zumindest die, die ich mir angesehen habe) gilt: Schau Dir die Datei in /usr/share/backupninja an, das ist in den Kommentaren gut dokumentiert, da ist das Erstellen einer entsprechenden Backup-Anweisung Pipifax.
Nicht ganz so bei rsync, leider.
Hier die wichtigen Optionen:

Ganz oben ohne Abschnitt:
when: Ausführungszeit, z.B. „everyday at 05“ (täglich um 5:00 Uhr)

Abschnitt [general]:
mountpoint: Backup-Verzeichnis auf dem Remote-Server
backupdir: Verzeichnis auf dem Remote-Server unter mountpoint, in dem die Backups für diesen Server gespeichert werden sollen
format: short = Eine Anzahl von täglichen Backups behalten, long = eine Anzahl von täglichen, wöchentlichen und monatlichen Backups behalten (s.u.), mirror = gar keine Backups behalten, nur spiegeln
days: für format = short: so viele tägliche Backups behalten (Default 7)
keepdaily: für format = long: so viele tägliche Backups behalten (Default 5)
keepweekly: für format = long: so viele wöchentliche Backups behalten (Default 3)
keepmonthly: für format = long: so viele monatliche Backups behalten (Default 1)

Abschnitt [source]:
include: Kann mehrmals vorkommen; Verzeichnisse, die gesichert werden sollen
exclude: Kann mehrmals vorkommen; Verzeichnisse, die nicht gesichert werden sollen
rsync_options: Optionen für rsync (Default -av --delete --recursive. Ich habe -avzHAXS --delete gesetzt, damit mit allen möglichen Dateien korrekt umgegangen wird, speziell mit dem großen sparse file auf meinem Zimbra- Server. --recursive is nicht nötig, weil -a das impliziert.)

Abschnitt [dest]:
dest: local oder remote, hier remote
host: Server, auf den kopiert werden soll
user: User auf dem Zielsystem
id_file: SSH-Keyfile für die Authentifizierung. Der Default ist hier $HOME/.ssh/id_dsa, heutzutage braucht man aber normalerweise $HOME/.ssh/id_rsa
Nebenbemerkung: Remote rsync läuft heutzutage via ssh. Damit das automatisiert funktionieren kann, muss natürlich eine passwortlose Authentifizierung am Zielrechner mit entsprechenden Schlüsseln möglich sein. Wie man das konfiguriert beschreibe ich hier nicht, gebe aber auf Nachfrage gerne Hilfestellung.

Hier eine Beispiel-Konfiguration, wie ich sie verwende (/etc/backup.d/20-rsync.rsyncf):
when = everyday at 05

[general]
format = long
mountpoint = /
backupdir = var/backups/main

[source]
include = /
exclude = /dev
exclude = /proc
exclude = /run
exclude = /sys
exclude = /tmp

[dest]
dest = remote
host = foobar.backupserver.com
user = root
id_file = /root/.ssh/id_rsa


Allgemeine Überlegungen


Meiner Meinung nach ist diese Art von Backup allen anderen überlegen. Das Problem: Backup-Space, den man vom VPS-Provider bekommt, ist meist nur per FTP erreichbar, nicht per ssh/rsync.
Ich habe deshalb die Entscheidung getroffen, mir statt dessen einen eigenen VPS nur für Backups zu mieten. Das kostet bei meinem Hoster € 8,– im Monat und beinhaltet 500 GB Plattenplatz. Damit mache ich Backups von meinen zwei Servern, und ich habe vor, in Zukunft auch von zu Hause aus per rsync Backups auf diesen Server zu machen.

#Administration #Linux
Klaus
  
Sehr interessant, werde ich mir mal genauer ansehen.
Hatte sehr lange mit BackupPC gearbeitet. Verwendet auch rsync und hat dateibasierte Deduplizierung mit Hardlinks, macht auch inkrementelle und differentielle Backups, kann diese aber zu vollen Backups direkt zusammensetzen.

Zottels Zeug
  zuletzt bearbeitet: Wed, 18 Feb 2015 15:42:58 +0100  
Als um Weihnachten herum die Werbespots für das Tealounge-System im Fernsehen liefen, war ich hin- und hergerissen: „Yaaay! Endlich mal eine Teemaschine, nicht nur Gadgets für Kaffeetrinker! Will ich haben, will ich haben!“ – „Uh, aber ich trinke doch normalerweise nur offenen Tee aus dem Teeladen. Kann dieser Industrietee überhaupt schmecken? Will ich wirklich so viel Abfall produzieren? Und extrem teuer sind die Kapseln auch …“
Der Gadgeteer in mir hat schließlich gewonnen; seit Ende Dezember haben wir so ein Gerät zu Hause. Hier meine Erfahrungen.

Teekanne oder Nestlé?


Das war erst einmal die Grundfrage. Es gibt ja schon seit längerer Zeit (ohne, dass ich vorher etwas davon mitbekommen hätte) die Special.T-Maschine von Nestlé – ebenfalls eine Tee-Kapselmaschine.
Ich versuchte, über beide Systeme im Internet etwas herauszufinden. Zur Special.T habe ich relativ wenig gefunden, darunter viele eher negative Kommentare. Zum Tealounge-System dagegen gab es relativ viel zu lesen, und fast nur Positives – was sicher auch daran liegt, dass Teekanne das schlau eingefädelt hat, indem sie diversen Bloggern und „Heimtestern“ kostenlos Maschinen zur Verfügung gestellt haben.
Da die Ergebnisse insgesamt aber wenig aussagekräftig waren, haben dann eher andere Punkte den Ausschlag gegeben:
Wenn ich schon viel Abfall produziere, muss es ja nicht auch noch das sehr energieintensive Aluminium sein. Die Special.T-Kapseln gibt es überhaupt nicht im Handel, nicht einmal in Nespresso-Läden, während Tealounge-Kapseln immerhin bei Media Markt, Saturn, expert, EP, Medimax und Euronics zu haben sind. (Ich hoffe immer noch, dass das noch auf Supermärkte im allgemeinen ausgedehnt wird.) Internet-Shops bieten natürlich beide Unternehmen, aber es ist doch angenehmer, wenn man auch vor Ort Einkaufsmöglichkeiten hat.
Und schließlich ist mir der Nestlé-Konzern an sich sehr unsympathisch. Dann doch lieber Teekanne.

Packungsinhalt und Maschine


Im Vergleich zu mancher Kaffekapselmaschine ist die Tealounge-Maschine relativ schmal, lässt sich also auch in einer vollgestellten Küche noch ganz gut unterbringen. Es gibt sie in verschiedenen Farben; wir haben „Brilliant Silver“ gewählt.
Der Wassertank fasst einen Liter Wasser, mit Wasserfilter weniger.
An der Oberseite befindet sich der große Hebel, mit dem die Kapselkammer geöffnet und verschlossen wird, und der Ein-/Aus-Knopf.
An der Vorderseite finden sich neben dem Hahn, aus dem der Tee kommt, die Knöpfe für Heißwasser/Reinigung, schwarzen Tee, grünen Tee, Kräuter-/Früchtetee und Chai-Kapseln. Je nachdem, welche Taste man drückt, werden passende Ziehzeiten und Wassertemperaturen für die jeweilige Teesorte genutzt, und im Falle von Chai (wo zwei Kapseln pro Taste zum Einsatz kommen) wird nur die halbe Wassermenge ausgespuckt – das dürfte dem Kaffeeprogramm normaler Maschinen aus dem K-fee-System entsprechen, so dass man theoretisch auch Kaffee mit der Maschine machen könnte. Wahrscheinlich wird aber kein Teeliebhaber seine Maschine derart entweihen, und es führt auch zum Garantieverlust: Laut den Garantiebestimmungen dürfen nur Kapseln aus dem K-fee-System, die Tee oder Milch enthalten, genutzt werden.
Die Wassermenge pro Tasse ist konfigurierbar. Da das aber nur die Menge Wasser beeinflusst, die nach dem Ziehen noch zusätzlich durch die Kapsel fließt, ist damit auch eine Änderung der Teestärke verbunden. Letztlich handelt es sich ja um eine Art Samowar-System: Beim Ziehen wird sehr starker Tee erzeugt, der dann durch nachfließendes Wasser wieder verdünnt wird.
Die Kapseln haben jeweils die Farbe derjenigen Taste, die man zur Zubereitung drücken muss, so dass man eigentlich nicht viel falsch machen kann.
Wenn man den Hebel der Maschine nach der Zubereitung wieder anhebt, fällt die Kapsel in einen Behälter im Inneren der Maschine, der zu Leerung und Säuberung nach vorne herausgezogen werden kann.
Die abnehmbaren Teile sind Spülmaschinenfest, allerdings soll nur das Eco-Programm der Spülmaschine (45 °C/50 °C) benutzt werden.
Dabei sind auch noch ein Wasserfilter und zwei Reinigungskapseln. Die Maschine kann auch ohne den Wasserfilter benutzt werden. Das ist für Teezubereitung allgemein natürlich weniger empfehlenswert, aber wenn man ohnehin schon einen Wasserfilter zu Hause hat, kann man sich die relativ teuren Filter des Systems sparen.
Außerdem liegt eine Auswahl verschiedener Tees bei. Warum Teekanne allerdings ausgerechnet diese Auswahl getroffen hat, ist mir schleierhaft – dazu gleich mehr.

Die Tees und ihre Qualität


Um es gleich vorauszuschicken: Die Tees sind größtenteils sehr gut. Nichts wirklich Besonderes, ein „Wow!“ werden sie einem Teekenner nicht entlocken. Aber der Standard ist auf jeden Fall auch für regelmäßige Teetrinker mehr als ausreichend.
Ich würde mir wünschen, dass in Zukunft besondere Teesorten hinzukommen, wie etwa ein sehr herber Darjeeling oder ein kräftiger Grüntee.
Mit immerhin 24 Teesorten ist durchaus Auswahl da. Das sollte aber nicht darüber hinwegtäuschen, dass für Liebhaber klassischer Tees, also Schwarz- und Grüntees ohne Aromatisierung, von den 24 gerade noch sechs übrigbleiben.
Klar – Teekanne muss alle Geschmäcker halbwegs abdecken, insofern ist das nicht verwunderlich. Aber „24 Tees!!!“ klingt auf den ersten Blick mehr als es wirklich ist.
An den klassischen Tees setzt auch meine Kritik am Starterset an – sie sind nämlich kaum vertreten. Aus den zehn enthaltenen Sorten sind es genau zwei: Finest Darjeeling für die Schwarztees (nach meinem Geschmack bei weitem nicht der beste Schwarztee im Sortiment) und Pure Sencha für die Grüntees. Drei, wenn man Earl Grey zu den Klassikern zählen möchte. Der Rest sind aromatisierte Tees, Kräuter- und Früchtetees.
Geschmackliche Highlights im Sortiment sind für mich vor allem Morning Sunrise, Dark Assam, Legend 1882 (alles Schwarztees) und der aromatisierte Früchtetee Orange Splash. Alle vier sind, für mich völlig unverständlich, im Starterset nicht enthalten.
Als gut, aber nicht sehr gut empfinde ich The Earl of Grey, Pure Sencha, Finest Oolong, und Sencha Flower (aromatisiert). Die Grüntees dürften für meinen Geschmack alle etwas kräftiger sein.
Meine Frau trinkt gern Sencha Flower, Pai Mu Tan Peach (aromatisierte Grüntees), Blueberry Muffin (aromatisierter Schwarztee), The Earl of Grey und Rooibos Vanilla Cookie (aromatisierter Rooibos-Tee).
Grundsätzlich ok waren für uns beide auch Sweet Apple (aromatisierter Früchtetee), Mint Experience (Pfefferminztee), Camomille Garden (Kamillentee) und Fennel Anise Duo (Fenchel/Anis) – mit dem Gefühl, dass man bei solchen Tees ja eigentlich fast nichts falsch machen kann (finden zumindest wir als seltene Trinker von Kräutertees) und der Preis dann schon arg happig ist.
Wenig begeisternd erschien uns Wild Berry (aromatisierter Früchtetee); die beiliegenden Chai Latte Capetown Style und Ginger Sprizz (aromatisierter Ingwer/Zitronentee) mochten wir überhaupt nicht.
Die Sorten Fresh Lemon (aromatisierter Schwarztee), Golden Green (aromatisierter Grüntee), Mountain Harmony (Kräutertee) und die anderen Chais haben wir (z.T. noch) nicht probiert.
Neuerdings gibt es auch Teekapseln von einem Fremdhersteller – Aldi bietet sie für sein K-fee-System Expressi an. Preislich sind sie sehr interessant, da sie nur die Hälfte der Teekanne-Kapseln kosten. Geschmacklich haben wir sie – bis auf den Früchtetee – leider als unterirdisch empfunden, so dass das keine Option sein wird.
Erhältlich sind die Kapseln in diversen Elektronikmärkten sowie im Internet unter https://www.tealoungesystem.com/ . Als ich zuletzt geschaut habe, war die Auswahl bei Saturn in Fürth und Mediamarkt in Nürnberg-Kleinreuth sehr dürftig, nur wenige Sorten vorhanden, und nicht die guten. Bei TeVi (expert) gleich um die Ecke des genannten Mediamarktes ist dagegen oft sogar das gesamte Sortiment vorrätig – ein Geheimtipp auch insofern, als kurioserweise ausgerechnet dieser Markt nicht online bei Teekanne gelistet ist.

Erfahrungen


Ich war ja zunächst schon skeptisch, ob sich der Kauf lohnen wird, ob die Maschine nicht letztlich, ähnlich wie unsere Tassimo, hauptsächlich in der Ecke stehen wird.
Das hat sich zum Glück nicht so entwickelt. Tatsächlich trinken wir beide jetzt viel mehr Tee als jemals zuvor. Das liegt vor allem daran, dass man sich jederzeit einfach und schnell eine Tasse Tee machen kann.
Früher habe ich Tee vor allem am Wochenende und im Urlaub getrunken, meine Frau trank manchmal mit, manchmal auch nicht. Für eine einzelne Tasse war es mir zu aufwendig, für mehrere Tassen hatte ich sonst nicht die Muße.
Jetzt trinken wir beide 2-4 Tassen täglich, und das mit großem Genuss. Die „kleine Auszeit zwischendurch“.
Das ist sehr angenehm, und ich möchte meine Tealounge-Maschine nicht mehr missen.
Aber natürlich ist nicht alles perfekt.

Nachteile und Unpraktisches


Als allererstes sind hier natürlich Preis und Müll zu nennen.
Eine Packung mit acht Kapseln kostet € 2,79. Eine Tasse Tee aus der Tealounge-Maschine liegt somit bei knapp 35 ct, mit Zubehör (Reinigungskapseln, Wasserfilter, Entkalker etc.) vielleicht knapp 40 ct. Das ist wirklich sehr üppig. Letztlich kommt man auf einen 100g-Preis von etwa 18-25 Euro – da muss man im Teeladen schon sehr exquisite Ware kaufen, um auf ähnliche Werte zu kommen.
Grundsätzlich ist es auch möglich, die Kapseln aufzuschneiden und selbst mit Tee zu bestücken – Plastikfolie oben aufschneiden (abziehen geht nicht), alten Tee raus, neuen Tee rein, Alufolie drüberspannen, fertig – ich habs ausprobiert. Das soll kein Tipp sein; ich kann mir durchaus vorstellen, dass das mit dem Druck mal nicht so gut funktioniert wie die Maschine das erwartet, und ob man danach noch auf Garantie hoffen kann, ist fraglich. In der Praxis mache ich das aber eh nicht, denn der Vorteil des Geräts ist ja gerade die schnelle Zubereitung mal eben nebenbei.
Und der Müll – ja. Wie bei allen Kapselmaschinen, eben. Da frage ich mich schon manchmal, ob das wirklich sein muss. Ob nicht das allein Grund genug wäre, wieder auf manuelle Teebereitung umzusteigen. Ein schlechtes Gewissen ist auf jeden Fall immer dabei. Es wäre sehr schön, wenn hier verrottbare Kunststoffe eingesetzt werden könnten, so dass man die ganze Kapsel in die Biotonne werfen könnte. Die Frage ist natürlich, ob es die in der nötigen Aromadichtheit, Lebensmittelechtheit und Temperaturresistenz überhaupt gibt.
Ein gewisses Ärgernis ist außerdem, dass die Maschine nicht mitbekommt, wenn zu wenig oder sogar gar kein Wasser mehr im Tank ist. Dann fängt sie an, komische Geräusche zu machen und bricht die Zubereitung ab – je nachdem, wie viel Tee bis dahin schon in die Tasse geflossen ist, kann man den und die Kapsel dann oft wegwerfen. Das müsste eigentlich nicht sein.
Der Tank selbst ist außerdem etwas klein geraten. Mit Wasserfilter reicht er gerade einmal für drei Tassen. Man hat also viele Chancen, das Auffüllen zu vergessen …

Fazit


Für Leute, die lieber Tee als Kaffee trinken und gerne den gleichen Komfort hätten wie die Kaffeekollegen mit ihren Automaten ist die Tealounge-Maschine sicher eine gute Anschaffung. Der Geschmack der Tees ist gut, die Auswahl ausreichend, und eine schnelle Tasse Tee am Abend ist einfach etwas schönes.
Wie bei allen Kapselmaschinen ist natürlich der Preis des Tees exorbitant hoch, und der entstehende Abfall wäre durchaus ein guter Grund, lieber auf das System zu verzichten.
Insgesamt bin ich aber sehr glücklich mit dem Gerät und kann es jedem Teetrinker empfehlen – solange die Ansprüche an die Teequalität nicht extrem hoch liegen.

#Gadgets #Tee
 Gadgets  Tee

Zottels Zeug
  zuletzt bearbeitet: Fri, 28 Nov 2014 21:45:53 +0100  
Eine Fußbodenheizung kann im Vergleich zu traditionellen Heizkörpern Energie sparen, weil sie eine deutlich geringere Vorlauftemperatur benötigt. Um ihr volles Potential auszuschöpfen, muss sie aber auch richtig eingestellt werden – und das ist nicht so ganz einfach.
Einiges aus dem folgenden Artikel lässt sich auch auf Heizungsanlagen mit Heizkörpern übertragen, mein Fokus liegt aber auf der Fußboden- bzw. Wandheizung.

Grundlagen


Die Thermostate in den Räumen funktionieren nicht so wie bei Heizkörpern, regeln also nicht stufenlos. Sie machen einfach nur die Leitung auf oder zu, nur 0 und 1.
Das Ziel bei der Einstellung der Heizung ist eine möglichst große Spreizung zwischen Vor- und Rücklauftemperatur, d.h. im theoretischen Ideal ist das heiße Wasser, das in den Heizkreislauf eingespeist wird (= Vorlauf), auf Zimmertemperatur abgekühlt, wenn es wieder zur Therme zurückkommt (= Rücklauf). Mit anderen Worten: Es wird nur so viel Wärme erzeugt, wie wirklich gebraucht wird, kein bisschen mehr. Ganz so ist das natürlich nicht erreichbar. Und: Zumindest unsere Therme zeigt die Rücklauftemperatur auch nicht an, eigentlich auch nicht richtig den Vorlauf, nur die Temperatur, die das Wasser in der Heizung gerade hat – wenn der Brenner aus ist, entspricht das also dem Rücklauf, wenn er an ist dem Vorlauf.
Alle modernen Heizungen sind „außentemperaturgeführt“, d.h. sie haben einen Temperaturfühler an der Außenwand des Hauses und regeln die Vorlauftemperatur in Bezug zur Außentemperatur. Weil die benötigten Wärmemengen natürlich nicht in jedem Haus gleich sind, gibt es die „Heizkurve“. In der Anleitung zur Therme (meist nur in der Version, die für den Heizungsbauer bestimmt ist, aber zumindest wir haben die bekommen) sind die Heizkurven in einer Grafik dargestellt; man kann anhand einer Zahl in der Konfiguration der Heizung eine auswählen. In der Grafik kann man sehen, welche Außentemperaturen zu welchen Vorlauftemperaturen führen. Sie unterscheiden sich in der Steigung, d.h. ein Grad weniger Außentemperatur führt zu einem halben Grad mehr Vorlauftemperatur, oder eben zu 0,7 Grad oder 0,3 Grad etc.
Zusätzlich kann man die Kurve nach oben oder unten verschieben, um die gleiche Steigung zu haben, aber eine niedrigere oder höhere Vorlauftemperatur bei einer bestimmten Außentemperatur zu erzielen. Damit wird der sogenannte „Fußpunkt“ eingestellt. Für mich wenig einleuchtend ist das je nach Fabrikat dadurch zu erreichen, dass man die gewünschte „Zimmertemperatur“ verändert. So ist bei uns, wenn ich mich recht erinnere, eine Zimmertemperatur von 23°C eingestellt, obwohl die tatsächlich erreichte Temperatur nur bei um die 21°C liegt. Einige Systeme bieten auch die Möglichkeit, anhand einer tatsächlich gemessenen Zimmertemperatur zu regeln, die dann aber nur in einem Raum gemessen wird.
Neben den Thermostaten können die einzelnen Heizkreisläufe der Fußbodenheizung für die Zimmer (teils mehrere Zimmer, z.B. Flur + Klo + Hauswirtschaftsraum bei uns) an Ventilen geregelt werden, die sich meist irgendwo in einem Kasten in der Wand befinden. Hier wird die tatsächliche Durchflussmenge bestimmt, wenn der jeweilige Kreislauf gerade offen ist. Das wird auch als „hydraulischer Abgleich“ bezeichnet.

Einstellung der Fußbodenheizung


Jetzt wird es kompliziert und zeitaufwendig:
Die Heizung ist dann am effizientesten, wenn sie über den hydraulischen Abgleich so eingestellt ist, dass für jedes Zimmer genau die benötigte Wärmemenge zur Verfügung gestellt wird. Das bedeutet:
Man dreht alle Raumthermostate auf die maximale Temperatur, damit sie die Kreise alle aufmachen. Das Ventil für den wärmsten Raum (meist Bad) dreht man komplett auf, die anderen je nach geschätzter Charakteristik vielleicht ein bisschen weiter zu oder auch nicht. Dann regelt man tage- bis wochenlang am Fußpunkt und vielleicht auch schon an der Heizkurve herum, bis man einen Wert erreicht hat, wo es im wärmsten Raum nicht zu heiß und auch nicht zu kalt wird. Derweil regelt man auch die Ventile für die anderen Räume ein, wenn es dort zu heiß oder zu kalt wird.
Das dauert, auch deshalb, weil so eine Fußbodenheizung ja furchtbar träge ist und man letztlich erst am nächsten Tag beurteilen kann, ob die neue Einstellung jetzt passt.
Dann wartet man auf anderes Wetter. Ob die Steigung der Heizkurve passt, kann man ja erst feststellen, wenn es kälter oder wärmer wird. Wenn man merkt, dass es bei kaltem Wetter zu kalt ist (bei wärmerem Wetter aber richtig), muss die Heizkurve steiler werden. Ist es bei wärmerem Wetter zu warm (bei kaltem aber richtig), kann man die Kurve flacher machen. Dabei muss man aber evtl. den Fußpunkt wieder ein Stück nach oben/unten schieben, damit bei kaltem bzw. warmem Wetter wieder die gleiche Vorlauftemperatur gefahren wird wie bisher.
Letztlich muss man fast eine ganze Heizperiode lang basteln (irgendwann dann natürlich mit wieder aktivierten Raumthermostaten, sonst bekommt man Akzeptanzprobleme in der Familie). Wenn die Raumthermostate wieder auf die gewünschten Temperaturen eingestellt sind, kann man nur noch „zu kalt“ feststellen, d.h. man macht die Kurve flacher, bis es bei Kälte zu kalt wird, und macht sie dann wieder etwas steiler, und man versucht auf ähnliche Weise, den idealen Fußpunkt zu finden.
Theoretisch ist der hydraulische Abgleich Aufgabe des Heizungsbauers, aber wie anhand des Aufwands klar wird: Zumindest ideal wird es sicher kein Heizungsbauer einstellen. Bei unserem Haus wurde nur Pi mal Daumen irgendwas eingestellt, keine weiteren Besuche für Nachregelungen, und natürlich mit viel zu hoher Vorlauftemperatur – so kann man nichts falsch machen, die Raumthermostate machen ja dann zu. Nur lässt sich natürlich einiges einsparen, wenn man es richtig macht.
Folgt man der reinen Theorie, sollte man die Raumthermostate immer auf 30°C+ eingestellt lassen – wenn die Heizung perfekt konfiguriert ist, passt die Temperatur dann ja. In der Praxis kommt aber die Sonneneinstrahlung hinzu: An sonnigen Tagen sorgt sie für sehr kräftige zusätzliche Aufheizung der Räume – und der Außentemperaturfühler der Heizung bekommt das nicht mit, weil er sinnvollerweise normalerweise an der Nordseite des Hauses angebracht wird. Dadurch würde es viel zu warm werden.
An sonnigen Tagen ist es also erwünscht, dass das Raumthermostat den Heizkreis des Zimmers schließt. Dass die Heizung dann evtl. warmes Wasser an allen Kreisen vorbei pumpt (weil sie geschlossen sind) und es sinnlos auf z.B. 32°C hält, ist nicht zu verhindern.
Was sich aber verhindern lässt, ist eine viel zu hohe Einstellung der Vorlauftemperatur, die unnötig Energie verschwendet. Was unser Heizungsbauer hinterlassen hat, hätte je nach Außentemperatur häufig zu Vorlauftemperaturen jenseits der 50°C geführt – die einzelnen Kreise hätten also immer mal für eine Weile aufgemacht, dann wieder geschlossen, und die Heizung hätte völlig unnötig das Wasser ständig auf dieser hohen Temperatur gehalten.
Das muss nicht sein.
Zum Schluss bleibt noch die „Heizgrenztemperatur“ zu erwähnen: Das ist die Außentemperatur, unterhalb der die Heizung überhaupt erst aktiviert wird. Wie schon erwähnt habe ich sie für unser Haus auf 12°C eingestellt.
Auch hier sollte man aber nicht alles der Automatik überlassen: In der Übergangszeit zwischen Sommer und Herbst liegen die Temperaturen am frühen Morgen oft unterhalb dieses Wertes, so dass die Heizung aktiviert werden würde. Weil es tagsüber aber wesentlich wärmer wird, ist das noch nicht nötig.
Während der Sommermonate schalte ich die Heizung deshalb auf reinen Warmwasserbetrieb, so dass die Heizkreise für die Erwärmung des Hauses gar nicht beschickt werden. Erst wenn es so kalt wird, dass gefühlt eine Beheizung des Hauses notwendig wird, aktiviere ich die Heizung wieder.

#Energiesparen
Kai
Kai
 
Das ist mal ein interessanter Artikel...werd ich mal testen

Zottels Zeug
  zuletzt bearbeitet: Fri, 28 Nov 2014 21:56:11 +0100  
Im Zuge unseres Neubaus vor zwei Jahren, und zuvor schon in dem Reihenhaus, das wir zur Miete bewohnt haben, habe ich mich sehr intensiv mit verschiedenen technischen Möglichkeiten zum Energiesparen beschäftigt. Hier ein Überblick über meine Ergebnisse.

Heizungssteuerung/-absenkung


Wenn man traditionelle Heizkörper sein eigen nennt, auch als Mieter in einer Wohnung, hat man mittlerweile eine große Auswahl an Systemen, die bei Abwesenheit die Raumtemperaturen absenken können. Statt des traditionellen Thermostats montiert man dazu einen elektronischen Regler auf die Heizung, funkgesteuert durch ein Raumthermostat oder auch direkt am Heizkörper selbst geregelt. Auch die Heizungsanlage selbst kann so eingestellt werden, dass sie nachts oder, wo sinnvoll, auch tagsüber, die Raumtemperatur absenkt.
Grundsätzlich ist das eine sehr sinnvolle Möglichkeit, Heizkosten zu sparen. Die Einsparpotentiale werden allerdings oft überschätzt.
„Ich heize acht Stunden lang nicht, das ist ein Drittel des Tages, also müsste ich etwa 33% einsparen.“ Mitnichten.
Die Energie, die beim Abkühlen des Raumes eingespart wird, muss später wieder hineingesteckt werden, um ihn wieder auf die ursprüngliche Temperatur zu bringen – das ist ein Nullsummenspiel.
Die Einsparung ergibt sich ausschließlich dadurch, dass bei einem abgekühlten Raum die Differenz zur Außentemperatur geringer wird. Je größer sie ist, desto mehr Wärmeenergie geht nach draußen verloren. Deshalb lässt sich mit erkalteten Räumen Energie sparen.
Am besten funktioniert das natürlich bei schlecht gedämmten Häusern. Da viel Energie nach außen verloren geht, kühlt sich der nicht mehr geheizte Raum schnell ab, und somit reduziert sich der Energieverlust.
In sehr gut gedämmten Häusern reduziert sich die Temperatur über Nacht kaum – entsprechend gering ist das Einsparpotential. Was nicht heißt, dass man darauf verzichten sollte, jedes eingesparte Kilowatt ist gut. Insofern schadet es auch nicht, bei der Heizung eine Nachtabsenkung zu programmieren, selbst wenn man in einem Passivhaus wohnt. Und wenn es nicht ums Geld geht, sondern ums Energiesparen aus Prinzip, kann man nichts falsch machen.
Wenn man aber mit dem Ziel der Kosteneinsparung entsprechende Technik anschafft, muss man schon überlegen, ob die Anschaffungskosten je hereingeholt werden können.
Grob kann man sagen: Im Altbau sicher ja, im Neubau wahrscheinlich nicht, dazwischen muss man abwägen.

Wärmepumpen


Diese Anschaffung hatte ich für unseren Neubau überlegt, dann aber verworfen. Eine Luft-Wasser-Wärmepumpe wäre halbwegs bezahlbar gewesen, ist aber wohl (wie ich aus Berichten verschiedener Leute, die hoffentlich wirklich mehr wissen als ich, herausgelesen habe) nicht so effizient wie sie oft beworben wird. Sie muss ja aus einer Temperaturdifferenz Energie ziehen, und das tut sie mit der Außenluft, ergo wird das immer schwieriger, je kälter es draußen ist.
Mit anderen Worten: Dann, wenn man am meisten Wärme braucht, ist die Wärmepumpe am ineffizientesten. An kalten Wintertagen hat man eigentlich nichts besseres als einen klassischen Heizstab zur Verfügung. Außerdem tun sich Wärmepumpen recht schwer, höhere Temperaturen zu erzeugen, wie sie für die Warmwasserversorgung nötig sind. Anders gesagt: Genug Wärme für Fußbodenheizung, die ja in einem gut isolierten Haus nur wenig jenseits 30°C Vorlauf braucht, ist kein Problem und schön effizient. Aber die 50°C+ für Warmwasser klappen nicht so gut.
Oder auch für klassische Heizkörper, die je nach Außentemperatur und Dämmung oft mehr als 50°C Vorlauftemperatur benötigen – Luft-Wasser-Wärmepumpen, die für Häuser ohne Fußboden-/Wandheizung verkauft werden (oder auch, meiner Meinung nach unabhängig von der Heizquelle extrem blödsinnig, für Häuser, die sowohl über Fußbodenheizung als auch über Heizkörper geheizt werden, z.B. FBH im EG, aber Heizkörper im OG), halte ich für Nepp.
Ob Luft-Wasser-Wärmepumpen überhaupt richtig sinnvoll sind, ist zumindest diskutabel.
Besser sind Wärmepumpen, die Erdsonden (am besten) oder Schlauchwindungen dicht unter der Erde im Garten nutzen. Aber auch wesentlich teurer. Die Sache mit den Schlauchwindungen ist nicht ganz so teuer. Um einen guten Wärmetausch zu gewährleisten, muss die Erde um die Schläuche aber immer feucht sein. Schwierig in Trockenperioden, und unser Garten wäre für so eine Lösung vmtl. eh zu klein gewesen.
Unser Grundstück war sowieso mit Erdgas versorgt, insofern haben wir uns dann für eine Brennwert-Erdgas-Therme entschieden.
Erdöl ist übrigens immer etwas schwieriger, weil sich Erdöl-Brenner nur schlecht in der Leistung regeln lassen. (Neuerdings gibt es da was, glaube ich, aber neu und teuer.) Das ist insbesondere deshalb problematisch, weil Heizungsbauer (zumindest laut Berichten im Web) dazu tendieren, die Heizungsanlage wesentlich zu groß zu dimensionieren, also eine Anlage zu installieren, die deutlich mehr Heizleistung liefern könnte als das Haus tatsächlich benötigt.

Solarthermie


Ist sinnvoll, und zumindest für die Warmwasserbereitung sollte man das auf jeden Fall in Erwägung ziehen. Natürlich gilt auch hier: Die meiste Wärme steht im Sommer zur Verfügung, wenn man sie gar nicht braucht. Im Winter reicht es meist nicht, um den Warmwasserbedarf zu decken, zumindest nicht, wenn es lange so bewölkt ist wie jetzt. Oft versprechen Firmen, die so etwas verkaufen wollen, das Blaue vom Himmel herunter und rechnen mit Einsparungen, die nie und nimmer zu erzielen sind.
Zumindest bei einem Neubau würde ich das aber auf jeden Fall aufs Dach setzen – und meist ist es eh dabei, weil es sonst relativ schwierig ist, den KfW-vorgeschriebenen Endenergiebedarf einzuhalten.
In unserer Konfiguration (drei Kollektoren) kann im Sommer die Heizung meist ganz ausbleiben, weil der komplette Warmwasserbedarf über Solarthermie gedeckt werden kann.
Empfehlenswert sind Flachkollektoren, evtl. solche von etwas höherer Leistungsklasse (die bei Kälte weniger Wärme an die Umgebung verlieren und auch bei der Energieumsetzung einen hohen Wirkungsgrad haben). Die besten (und teuersten) kommen heute an Vakuum-Röhren-Kollektoren heran.
Vakuum-Röhren-Kollektoren sind teuer, aber sehr effizient. Hauptproblem: Sie sind empfindlich. Im Sommer ist es ganz normal, dass die Kollektoren (ob flach oder Röhre) sich so sehr aufheizen, dass die Wärmegewinnung abgeschaltet wird, um das System nicht zu beschädigen. Röhrenkollektoren können dann explodieren und müssen danach ausgetauscht werden. In solchen Systemen wird somit oft versucht, überschüssige Wärme abzuführen – zum Beispiel im Hochsommer in die Fußbodenheizung. Yay!
Bei der Heizungsunterstützung durch Solarthermie bin ich schon skeptischer. Grundsätzlich gilt: Vom Umweltaspekt her ist das natürlich immer gut. Finanziell rechnen wird es sich in einem energetisch guten neuen Haus aber eher nicht. Die gesamte notwendige Heizenergie ist so gering, dass sich solche Systeme selbst bei einer praktisch unmöglichen hundertprozentigen Einsparung oft nicht rechnen würden. Tatsächlich realistisch sind meist weniger als 30%.
Vielleicht ist es bei einer Luft-Wasser-Wärmepumpe noch anders, wo die Heizenergie im Winter relativ teuer ist. Bei Gas lohnt es sich definitiv nicht.
Anders ist das natürlich bei der Nachrüstung in alten Häusern. Wo viel Energie für Heizung draufgeht, kann mit einer entsprechend dimensionierten Anlage auch viel eingespart werden.
Weiterhin gibt es die Möglichkeit, mit Schichtspeichern die Ausnutzung der Solarthermie zu optimieren. In einem einfachen Speicher verteilt sich das Wasser auf natürliche Weise: Unten kalt, oben warm. Der Wärmetauscher befindet sich meist im Speicher selbst, oben kommt heißes Fluid rein, wendelt sich dann durch bis unten und wird dabei abgekühlt. Dabei bleibt der Speicher nicht ideal geschichtet, d.h. die Wärmeschichten vermischen sich. Es wird quasi in der Mitte unnötig warm und oben unnötig kühl (oben wird das Warmwasser natürlich entnommen).
Schichtladespeicher haben den Wärmetauscher meist außerhalb des Speichers. Je nach Wärme des erwärmten Wassers wird es dann auf unterschiedlicher Höhe des Speichers eingespeist, und die Schichtung bleibt besser erhalten.
Nachteil: Komplizierte Technik, hoher Preis.
Bei Heizungsunterstützung kann das aber durchaus Sinn machen, weil dann gezielt auch kühleres Wasser entnommen werden kann, nicht warm genug für das Warmwasser, aber sehr wohl für die Fußbodenheizung.
Ohne Heizungsunterstützung würde ich zu Schichtspeichern sagen: Jedes eingesparte Kilowatt ist gut; wenn man es sich leisten kann, sollte man das machen. Ich glaube aber nicht, dass sie den Aufpreis reinholen können.
Besonders interessant fand ich in diesem Zusammenhang das System von EFG Sandler, http://www.efg-sandler.com/ . Die Ideen finde ich grundsätzlich sehr einleuchtend, aber es ist mir nie richtig gelungen festzustellen, ob diese Firma wirklich seriös ist, und das Angebot, das ich mir habe erstellen lassen, war preislich jenseits von gut und böse.
Noch ein Stichwort: „Hygienespeicher“. Bedeutung: Bei der Warmwasserbereitung wird hier nicht das Wasser an sich, das später auch an die Wasserhähne „ausgeliefert“ wird, im Tank gespeichert. Statt dessen wird immer Frischwasser benutzt, das durch einen Wärmetauscher im Tank aufgeheizt wird. Vorteil: Keine Legionellengefahr. Nachteil: Zumindest ein bisschen Effizienzverlust, Kosten.

Lüftungsanlage


Das einzige wirklich teure Gadget, das wir uns geleistet haben. Im Fachjargon eine „KWL mit WRG“, also kontrollierte Wohnraum-Lüftung, und zwar mit Wärmerückgewinnung.
Ich halte das für eine sehr sinnvolle Anschaffung. Hier kann wirklich viel Energie eingespart werden. Unser Haus erfüllt „nur“ KfW 70, aber bei Außentemperaturen größer als 12°C müssen wir nicht heizen. Die Wärme, die schlicht durch die Anwesenheit der Familie, durch kochen und duschen etc. eingebracht wird, reicht aus – weil sie zum größten Teil im Haus bleibt. Lüften nicht nötig (aber natürlich möglich).
Durch den hohen Preis ist auch hier fraglich, ob sich das wirklich amortisiert. Sagen wir so: Wenn man nicht die Filter wechseln müsste, würde es sich auf jeden Fall lohnen. Die Filter sind aber relativ teuer (wenn man nicht Ersatzprodukte benutzt) und führen letztlich zumindest in unserem Fall dazu, dass die Amortisierung in 15 Jahren zumindest knapp wird. Wegen des hohen Energie-Einsparpotentials besonders bei sehr gut gedämmten Häusern (lüften muss man schließlich immer, und gerade dann, wenn das Haus sehr dicht ist) halte ich die Investition trotzdem für sinnvoll.
Nachteile: Nachrüstung schwierig bis unmöglich, weil die Rohre in Decken/Wänden verlegt werden müssen. Manche haben Angst vor Schimmel in den Rohren (was ich persönlich aber wegen des ständigen Luftstroms mit trocknender Wirkung für unwahrscheinlich halte). Teuer.

Flächenheizungen


Grundsätzlich gilt: Je größer die Fläche ist, die der Heizkörper hat, und je besser sie im gesamten Raum verteilt ist, desto niedriger kann die Vorlauftemperatur der Heizung sein. Flächenheizungen (Fußboden-/Wandheizungen) haben hier naturgemäß Vorteile. In einem gut gedämmten Haus reicht selbst im tiefsten Winter meist eine Vorlauftemperatur von unter 35°C, um es im Haus mollig warm zu haben. Das spart ebenfalls Kosten (allerdings hauptsächlich deswegen, weil auf dem Weg zum Heizkörper wegen der geringeren Temperatur weniger Energie verlorengeht, und weil sich die Wärme besser im Raum verteilt).
Das bedeutet auch: In gut gedämmten Häusern merkt man kaum etwas von der Fußbodenheizung; es ist nicht wie früher, dass der Boden merklich warm ist, was gerne zu „dicken Füßen“ etc. geführt hat: Die Temperatur des Bodens liegt eigentlich immer unter Körpertemperatur.
Nachteile: Man sollte die Bodenbeläge sorgfältig auswählen. Bei Wandheizungen muss man beim Bohren aufpassen, dass man die Schläuche nicht beschädigt. Sehr träge: Ein kaltes Haus kann im Winter Tage brauchen, bis es wieder auf die gewohnten Temperaturen kommt. Wenn man die Heizung für den Urlaub programmiert, muss man das beachten und sie unbedingt rechtzeitig (d.h. mindestens einen Tag vor der Rückkehr) wieder hochregeln.

#Energiesparen

Zottels Zeug
  
Gestern hat Mike einige Verbesserungen am Zot-Protokoll vorgenommen, über das die einzelnen Server in der RedMatrix miteinander kommunizieren. Dadurch kann es zu Problemen kommen, wenn Server mit der alten Protokollversion sich mit Servern mit der neuen Protokollversion unterhalten.
Konkret kann es in bestimmten Fällen dazu kommen, dass Kommentare nicht zugestellt werden können.
Das ist nicht so furchtbar schlimm – die RedMatrix hat „Selbstheilungskräfte“, es gibt nicht nur diesen einen Weg, wie ein Kommentar bei allen Adressaten ankommen kann: Zum einen wird nicht nur ein Zustellungsversuch unternommen, ähnlich wie ein Mail-Server versucht ein RedMatrix-Server für längere Zeit immer wieder, seine Nachrichten loszuwerden. Zum anderen fragt jeder RedMatrix-Server periodisch die Kontakte aller seiner User ab und lädt dort die letzten Neuigkeiten herunter – eben für den Fall, dass einmal keine Zustellung möglich war.
Dann kommen auch jetzt noch die Kommentare an, die auf anderen Wegen nicht mehr weitergeleitet werden können. Da das Polling, die Abfrage der Kontakte, aber je Kontakt nur einmal in 24 Stunden erfolgt, kann es im Extremfall bis zu 24 Stunden dauern, bis solche Kommentare letztlich zugestellt werden.
Deshalb: Es ist wichtig, dass alle RedMatrix-Serveradministratoren ihre Server so schnell wie möglich auf den aktuellen Stand bringen! So sind wir schnell wieder zurück bei der gewohnten, nahezu in Echtzeit erfolgenden Nachrichtenzustellung.

#Red-Matrix

Zottels Zeug
  zuletzt bearbeitet: Thu, 14 Aug 2014 21:18:12 +0200  
Je länger man die RedMatrix für Kommunikation im Stile sozialer Netzwerke nutzt, desto mehr Verbindungen sammeln sich an. Nicht alle Kontakte liest man gleich gern, und so beginnt man, sich Gedanken zu machen, wie man bei Zeitknappheit alle Beiträge von wichtigen Kontakten mitbekommt, ohne alles lesen zu müssen, was über all die anderen Kontakte hereinkommt.

Der Affinity-Slider
Jeder Verbindung kann ein „Grad der Freundschaft“ zugerodnet werden. Damit legt man fest, wie gut man denjenigen kennt. Wenn man seine persönliche Matrix betrachtet, kann man dann einstellen, welche Beiträge man sehen möchte: Zum Beispiel nur die von sehr engen Kontakten oder alle von eng bis kaum bekannt.
Der Nachteil dabei ist, dass man immer links und rechts am Regler schieben muss, um bestimmte Ausschnitte der eigenen Kontakte zu sehen.
Grundsätzlich ist das Feature toll: Regler verschieben und direkt sehen, welche Posts verschwinden oder auftauchen. Für den täglichen Einsatz ist das aber eher unpraktisch.

Sammlungen
Red bietet die Möglichkeit, einzelne Kontakte Sammlungen oder Gruppen zuzuordnen. Wenn man eine Verbindung editiert (oder auch akzeptiert), findet sich links die Übersicht über die Sammlungen, die bereits vorhanden sind. Per Klick in die Checkbox neben den Sammlungen kann dieser Kontakt zu einer oder mehreren Sammlungen hinzugefügt oder entfernt werden – das gilt auch sofort, ohne dass man den „Senden“-Button klicken muss. Hier kann man auch via Link eine neue Sammlung erzeugen.
Auf diese Weise kann man alle Kontakte eigenen Gruppen zuordnen. Zum Beispiel „Familie“, „Gute Freunde“, „Mag ich“, „Unbekannt“.
Wenn man in den Einstellungen unter „Zusätzliche Funktionen“ „Filter für Sammlung“ aktiviert hat, kann man die Matrix dann auch anhand dieser Gruppen lesen. Links erscheinen dann die definierten Sammlungen, und ein Klick darauf zeigt nur noch Threads, die von Mitgliedern dieser Sammlung gestartet wurden.
So kann man jederzeit die wichtigen Nachrichten zuerst lesen, und weniger wichtige später wenn Zeit ist.
Gerade wenn man viele Kontakte hat kann dieses Werkzeug es ermöglichen, dass man die Nachrichten wichtiger Kontakte nie verpasst, auch zu Zeiten, wo man am Tag nur wenige Minuten für die RedMatrix aufbringen kann.
Und: Man kann diese Sammlungen auch als Empfänger für private Posts nutzen.
Das werde ich in einem späteren Beitrag behandeln.
Einer von Vielen
  
Gut fand ich den Tip von Mike kürzlich.

Wie gehe ich am besten vor, wenn ich vorwiegend private Nachrichten innerhalb meiner Familie schreibe und Familienbilder hochlade?
  • Gruppe anlegen, beispielsweise "Familie"
  • Kontakte dieser Gruppe zuordnen
  • Einstelungen > Kanal-Einstellungen > Standardeinstellung für Beitrags-Zugriffsrecht > drauf klicken > nur Gruppe "Familie" anhaken
  • Ergebnis: Alle neuen selbst erstellten Beiträge sind nur für die Gruppe "Familie" sichtbar. Gleiches gilt für hochgeladene Bilder und Dokumente. Will man Beiträge, Bilder und Dokumente für alle sichtbar machen, dann kann man einfach das "Schloss öffnen".

Zottels Zeug
  zuletzt bearbeitet: Sat, 09 Aug 2014 02:43:22 +0200  
Ein leicht überarbeiteter Artikel aus meinem alten Blog, der dort zuerst im Oktober 2011 erschienen ist.

Ist ein Elektroauto überhaupt umweltfreundlich?
Das ist die große Frage, die sich mir als erstes stellte: Schließlich kommt der Strom zum Teil aus konventionellen Kraftwerken, die ja auch CO2 und andere Schadstoffe ausstoßen. All die folgenden Zahlen beziehen sich natürlich auf den konventionellen Strom-Mix. Mit Ökostrom liegt man immer weit besser als jeder Verbrenner oder Vollhybrid (siehe auch Fazit unten).
Im ursprünglichen Artikel hatte ich hier einen Link zu einer Übersicht zum Kohlendioxid-Ausstoß von Elektrofahrzeugen, der heute leider ins leere geht. Die folgenden Aussagen müsst Ihr mir also leider einfach glauben:
Heute erhältliche Elektroautos (die nicht gerade Sportwagen sind) brauchen zwischen 10 und 25 kWh auf 100km  – Klein- und Kleinstwagen, für die ich mich interessiere, meist unter 15 kWh/100 km NEFZ. Bei den meisten (wenn auch nicht allen) Herstellern hat es sich eingebürgert, den Verbrauch „ab Steckdose“ anzugeben, so dass Verluste durch die Akkus und Ladegeräte bereits inbegriffen sind.
Insofern kann man folgern, dass aktuelle Elektroautos im Strom-Mix in Sachen Kohlendioxid günstiger liegen als ein Toyota Prius.
Etwas vorsichtig muss man die Zahlen aber schon betrachten, denn sie beziehen sich auf das Jahr 2007. Damals gab es einerseits keinen Atomausstieg, andererseits aber auch einen wesentlich geringeren Anteil der erneuerbaren Energien am Strom-Mix. Tatsächlich hat sich der Kohlendioxid-Ausstoß im deutschen Strom-Mix von 605 g pro Kilowattstunde 2007 auf 546 g (2010) reduziert, sich seitdem aber wieder auf 576g erhöht (erste Schätzung für 2012, Quelle).
Außerdem hat der aktuelle Prius (im Gegensatz zu dem im damaligen Link verglichenen älteren Prius) einen Kohlendioxidausstoß von unter 100 g, so dass reine Elektroautos mit einem Stromverbrauch von mehr als 17 kWh/100 km im Strom-Mix schlechter abschneiden als dieses Hybridfahrzeug.
Meinen Diesel-Smart habe ich damals mit durchschnittlich 3,8 l/100 km gefahren, was knapp 100 g CO2/km entspricht, meinen Diesel-Polo mit 4,34 l/100 km, also etwa 114 g/km. Zumindest der Wert des Smart wird nicht von jedem Elektromobil unterboten, das sollte man bedenken.
Beim ADAC gab es zum Zeitpunkt der Erstellung des Originalartikels einen Vergleich zwischen E-Smart, Benziner und Diesel. Die Elektroversion schnitt im tatsächlichen Strom-Mix am besten ab, mit Steinkohle alleine wäre sogar der Benziner umweltfreundlicher gewesen (wenn man ausschließlich das Kohlendioxid betrachtet). Zu beachten: Der ADAC hat den durchschnittlichen Ausstoß pro kWh im Strom-Mix extrem hoch angesetzt (590 g/kWh), der E-Smart schneidet mit korrekten Werten eigentlich besser ab (69 g/km). Vmtl. wird der Wert von 12 kWh/100 km nach NEFZ ebenso unrealistisch sein wie die 3,3 l/100 km, von denen als Dieselverbrauch ausgegangen wird. Immerhin wurden aber beide nach der gleichen Methode erhoben.

Kritiker rechnen aber ganz anders: Sie gehen davon aus, dass Elektroautos zu zusätzlicher Stromnachfrage führen werden, die es unmöglich mache, die Dreckschleudern unter den Kraftwerken abzuschalten.
Insofern müsse für Elektroautos die schmutzigste Variante angenommen werden, weil eben die schmutzigsten Kraftwerke sonst früher abgeschaltet werden könnten – also Stromerzeugung mittels Braunkohle als Vergleichswert.
Ich halte diese Argumentation nicht für realistisch. Die Erfahrung zeigt, dass Kraftwerke mitnichten abgeschaltet werden, wenn Deutschland den Strom nicht benötigt – schließlich hat Deutschland immer Strom in großen Mengen exportiert. Das passiert nur, wenn sie unrentabel werden oder nicht mehr den gesetzlichen Emissionsvorschriften entsprechen und eine Umrüstung zu teuer käme (was wiederum nichts anderes als „unrentabel“ bedeutet).
Theoretisch könnte die Politik versucht sein, die Vorschriften wegen hoher Stromnachfrage weniger schnell zu verschärfen. Ich bezweifle aber, dass das so viel ausmacht, dass ein Ansetzen von Elektroautos mit Braunkohlewerten gerechtfertigt ist.
An einem anderen Punkt werden aber ein Stück weit Äpfel mit Birnen verglichen: Die Leistung aktueller Verbrennungsmotoren ist weit höher als die der Elektromotoren, mit denen sie hier verglichen werden. Häufig sind aktuelle (kleine) E-Autos mit einer Motorleistung von weniger als 20 kW (27,2 PS) ausgestattet, während Verbrennungsmotoren kaum noch unter 50 kW (68 PS) zu haben sind.
Andererseits sind auch die Fahrleistungen von Elektromotoren von ganz anderem Kaliber, speziell das Drehmoment ist sehr hoch und steht quasi ab 0 U/min zur Verfügung. Um eine gute Beschleunigung zu erreichen genügt beim Elektromotor also eine deutlich geringere Leistung. Trotzdem ist die Endgeschwindigkeit des Fahrzeugs mit dem stärkeren Verbrenner natürlich höher.
Aus mittlerweile gewonnener eigener Erfahrung kann ich sagen: Meine mia mit 24 PS hatte bis zu einer Geschwindigkeit von ca. 60-70 km/h gefühlt die gleiche Leistung wie mein jetziger Peugeot 107 mit 68 PS. Darüberhinaus hat der Peugeot aber deutliche Vorteile.
Natürlich muss man aber auch sagen, dass, ähnlich wie beim Verbrennungsmotor, höhere Leistung nicht direkt mit höherem Verbrauch gleichzusetzen ist. Bei konstant 50 km/h wird sich der Verbrauch eines 70-kW-Elektromotors kaum von dem eines Motors mit 18 kW unterscheiden.
Der hauptsächliche Unterschied liegt in der Verführung zu schnellerer Gangart und häufiger Nutzung der Bremse, statt die Motorbremse zu nutzen, die mittels Rekuperation wieder Strom in die Batterie zurückspeisen würde. Und natürlich in höheren Anforderungen an die Batterien, die größere Ströme liefern müssen und ggfs. stärker gekühlt werden müssen und/oder mehr Gewicht mitbringen.
So ist auch 56-kW-Motor des Opel Ampera mit einem Verbrauch von lediglich 12,2-14,08 kWh/100 km angegeben. (Er soll mit den 11 kWh Kapazität seiner Batterie ohne Nutzung des Range Extenders „bis zu“ 90 km weit kommen, was 12,2 kWh/100 km entsprechen würde; andererseits ist „für die ersten 100 km“ ein Verbrauch von 1,6 l/100 km als Benzinäquivalent angegeben, was 14,08 kWh/100 km entsprechen würde.)

Fraglich ist weiterhin, wie die Umweltbilanz der Elektroauto-Produktion aussieht, speziell natürlich bei den Akkus. Dazu habe ich nirgends wirklich belastbare Aussagen finden können.
Die Metallgewinnung für die verschiedenen Zelltypen ist sicher nicht unproblematisch, auch wenn Lithium-Batterien im Gegensatz zu den älteren nickel- und teilweise gar cadmiumhaltigen Vertretern nur relativ wenig giftige Inhaltsstoffe mitbringen.
Der gesamte Aufbau des Antriebsstrangs eines Elektroautos ist wesentlich unkomplizierter als beim Verbrenner, was die Produktion deutlich verschlankt und zu wesentlich geringerem Wartungsaufwand (inkl. Sondermüll z. B. durch Wegfall des Motoröls etc.) führt.
Schlicht ins Blaue vermutet ist meine Arbeitshypothese, dass sich im Gesamtbild keine großen Unterschiede in der Umweltbilanz der Fahrzeugproduktion und -wartung ergeben. Wenn jemand Fakten dazu hat, nehme ich sie gerne.
Interessant wäre außerdem, wie es bei anderen Umweltgiften aussieht – CO2 ist schließlich nicht alles.
Meine (ebenfalls nicht durch Fakten untermauerte) Vermutung ist, dass das Elektroauto im deutschen Strom-Mix in diesem Punkt besser abschneidet als klassische Fahrzeuge, vor allem Diesel. Das gilt sicher nicht, wenn man den Autostrom ausschließlich aus Braunkohlekraftwerken bezieht, aber ganz bestimmt für Erdgaskraftwerke und möglicherweise für moderne Steinkohlekraftwerke. Was Atomkraftwerke betrifft, könnte man natürlich argumentieren, dass der übrig bleibende Müll schlimmer ist als alles, was fossile Energieerzeugung hervorbringen kann. Das hängt dann von der persönlichen Bewertung ab.

Fazit
Insgesamt kann man davon ausgehen, dass ein Elektroauto vom Umweltaspekt her Vorteile gegenüber einem Verbrennungsmotor hat. Der Unterschied ist aber nicht so groß, wie man aus dem Bauch heraus vermuten würde.
Gerade vollhybride Antriebskonzepte stoßen schon heute in ähnliche Regionen der Effizienz vor, wenn auch ein gewisser Abstand durchaus noch zu verzeichnen ist. Ein kleiner, relativ leichter Diesel-Vollhybrid könnte durchaus in der Lage sein, Elektroautos im deutschen Strom-Mix den Rang abzulaufen. Vermutlich wäre das aber noch teurer als aktuelle Elektroautos.
Anmerkung 2014: Bisher gibt es keine Diesel-Hybrid-Fahrzeuge. Zumindest bei seriellem Hybrid (d.h. der Antrieb erfolgt immer über den Elektromotor, der Verbrenner erzeugt wenn nötig Strom) hat der Diesel auch keine Vorteile, weil er bei normalen Verbrennern nur deshalb weniger Sprit verbraucht, weil er im Teillastbereich, also wenn wenig Leistung abgefordert wird, effizienter ist als ein Benziner. Im Volllastbereich gibt es kaum Unterschiede. Im seriellen Hybrid kann der Motor immer im effzientesten Bereich betrieben werden, so dass ein Diesel keine Vorteile mehr bietet. Beim klassischen Hyibridfahrzeug, wo der Verbrenner das Fahrzeug direkt antreibt, könnte ein Diesel aber im Gesamtdurchschnitt noch bessere Werte erzielen als ein Benziner.
Dem reinen E-Auto-Nutzer bleibt aber natürlich immer die Option, Ökostrom zu beziehen. Der ist zwar auch nicht ohne Kohlendioxid-Ausstoß zu erzeugen, die Werte liegen aber um den Faktor 10 bis 20 unter denen des aktuellen Strom-Mixes (Quelle) und damit sehr weit jenseits von allem, was mit Verbrennungsmotoren zu erreichen ist.
#Elektroautos

Zottels Zeug
  zuletzt bearbeitet: Sat, 05 Jul 2014 04:06:07 +0200  
Im Folgenden wieder ein leicht überarbeiterer Artikel aus meinem alten Blog, zuerst dort erschienen im Oktober 2010.

Mittlerweile könnte das Thema Megapixel vielleicht ein wenig aus dem Marketing verschwinden, jedenfalls sah das ein Artikel in Spiegel Online zur CES 2014 so. Zu wünschen wäre es – denn in den meisten Kameras, vor allem im Consumer-Bereich und in Handys, bedeuten mehr Pixel im allgemeinen schlechtere, nicht bessere Qualität. Näher erläutert in folgendem Artikel:

Bei Consumer-Kameras, Handy-Kameras, sogar bei DSLRs wird die Megapixel-Grenze immer höher gepusht, denn die Werbung suggeriert: Je mehr Megapixel, desto besser.
Das Gegenteil ist der Fall, leider, und das führt dazu, dass neue Kameras absurderweise zum Teil schlechtere Bilder liefern als ihre Vorgänger.
Warum sind mehr Megapixel nicht besser? Dafür gibt es zwei Hauptgründe:

Die optische Auflösung
Objektive können keine beliebige optische Auflösung liefern. Die Bildschärfe der Abbildung auf dem Sensor ist begrenzt und nimmt zudem zu den Rändern hin ab.
Bei den üblichen Sensorgrößen für digitale Spiegelreflexkameras aus dem Consumer-Bereich liegt die optische Auflösung bezahlbarer Objektive meist irgendwo im Bereich zwischen 12 und 18 Megapixeln. Zoom-Objektive liegen meist unter 16 Megapixeln, Objektive mit Festbrennweite erreichen durchaus auch einmal 20 Megapixel (jeweils im bezahlbaren Bereich; Profi-Objektive erzielen teils bessere Werte, sind aber auch entsprechend teuer).
Um das mit echten Werten zu untermauern, müssen wir einen Ausflug in die Theorie unternehmen. Ein sehr guter Anlaufpunkt für praktische Messwerte sind die Objektivtests von dpreview:
Angegeben werden LW/PH, also „line widths per picture height“. Eine „line width“ steht dabei etwas missverständlich für ein Paar aus einer weißen und einer schwarzen Linie, was rein theoretisch zwei Pixeln entsprechen würde.
Die theoretische Auflösung eines Sensors in LW/PH wäre also die Anzahl der Pixel in der Bildhöhe geteilt durch zwei.
Tatsächlich kann so ein Bildsensor aber nicht ganz so hoch auflösen (wegen Farbfiltern, Antialiasing und evtl. weiteren Gründen), auch wenn moderne Kameras diesem Wert recht Nahe kommen.
Als Beispiel sei hier die 16MP-Kamera Nikon D5100 genannt. Hier ist die Seite zur Auflösung dieser Kamera bei dpreview zu sehen – um die Verwirrung komplett zu machen, werden hier dann Lines Per Height angegeben; diesen Wert muss man also wieder durch zwei teilen, um ihn mit den Objektiv-Werten vergleichen zu können.
Theoretisch könnte der Sensor in der Bildhöhe 3264 LPH oder 1632 LW/PH auflösen. Tatsächlich gelingen dem Sensor im RAW-Format etwa 2800 LPH oder 1400 LW/PH. Soweit die Fähigkeiten des Sensors.
Diesen Wert können wir jetzt also mit den Tabellen der Objektivtests vergleichen? Nicht ganz. Angegeben sind nämlich MTF50-Werte (d.h. MTF 50%). Das ist der Wert, bei der die Abbildung noch als „scharf“ empfunden wird, darunter sind die Kontrastwerte so niedrig, dass ein unscharfer Eindruck entsteht. Das heißt aber nicht, dass man die Linien dann nicht mehr unterscheiden kann. Als Beispiel kann man sich die zweite Grafik von oben auf Norman Korens MTF-Seite ansehen. Bei 10% saufen die dünnen Linien arg ins Grau ab, sind aber noch erkennbar.
Mit anderen Worten: Es kann schon als Faustregel gelten, dass eine einigermaßen scharfe Abbildung bis hinunter auf die maximale Auflösung des Sensors nur gegeben ist, wenn der MTF50-Wert des Objektivs auch an die maximale Auflösung des Sensors herankommt. Das heißt aber nicht, dass gar nichts mehr zu sehen ist (= eine einfarbige Fläche), wenn das Objektiv das nicht schafft. Die Abbildung wird „lediglich“ immer verwaschener und unschärfer.
Somit könnte man wie folgt rechnen:
Man nehme die vertikale Auflösung eines Sensors (die kleinere Zahl) und multipliziere sie mit 0,4. Das ergibt einen über den Daumen gepeilten Wert für die tatsächliche Auflösung des Sensors in LW/PH (normalerweise wird es etwas mehr sein, aber wir wollen den Objektiven etwas Vorsprung geben).
Dann muss man im Objektivtest noch die richtige Testkamera auswählen; meist gibt es eine mit APS-C und eine mit größerem Sensor (z. B. Vollformat).
Erreicht oder übertrifft ein Objektiv den Wert des Sensors, sind damit „knackscharfe“ Bilder möglich, auch wenn man weit ins Bild hineinzoomt. Wird er unterschritten, kann das Objektiv den Sensor nicht mehr ausreizen. Trotzdem können bei höherer Pixeldichte im Sensor zusätzliche Details sichtbar sein, zusätzliche Megapixel sind also nicht ganz für die Katz. Diese Details werden aber verwaschen und unscharf wirken.
Nimmt man den Wert der D5100 wird klar: Gute Zoom-Objektive geben die benötigte Auflösung für 16 Megapixel auf einem APS-C-Sensor in der Regel her, zumindest innerhalb der idealen Brennweiten und Blendenstufen. Festbrennweiten schaffen auch mehr. Durchschnittliche bis unterirdische Zooms sind dagegen schon mit 10 Megapixeln (ca. 1000 LW/PH) überfordert.
Merke: Wir sprechen hier von großen Spiegelreflex-Objektiven, und zudem von deren maximaler Auflösung, die meist im mittleren Blendenbereich liegt. Nicht umsonst sind Profi-Kameras mit größeren Bildsensoren ausgestattet: Neben den Vorteilen bei der Lichtempfindlichkeit (siehe unten) ist es nur so möglich, 18 Megapixel und mehr wirklich mit Daten zu versehen. Einen APS-C-Sensor dieser Auflösung dürfte kaum ein Zoom schaffen, und auch gute Festbrennweiten stoßen hier langsam an ihre Grenzen.
Jetzt sehen wir uns einmal Kompaktkameras und, noch schlimmer, Handy-Kameras an. Die kleine bis winzige Optik kann natürlich niemals die Auflösung eines Spiegelreflex-Objektivs bieten. Zudem sind die verbauten Sensoren meist noch kleiner als die der Consumer-DSLRs, im Falle von Handy-Kameras sogar sehr viel kleiner.
Das bedeutet, dass die Optik einer Kompaktkamera normalerweise nicht mehr als etwa 6-10 Megapixel echte Auflösung bietet, eher 6 als 10. Bei Handylinsen, die aus Kostengründen häufig aus Plastik gefertigt sind, dürften kaum mehr als als 3 oder 4 Megapixel drin sein, eher weniger – ohne Autofocus sogar viel weniger.
Die restlichen Pixel dienen nur zum Angeben. Weil das Objektiv die Schärfe nicht liefern kann, enthalten sie keine zusätzlichen Informationen. Sie müllen also nur die Speicherkarte zu. Und noch schlimmer: Sie sorgen sogar dafür, dass die Bildqualität schlechter wird:

Die Lichtempfindlichkeit
Je kleiner der einzelne Bildpunkt eines Kamerasensors ist, desto weniger Licht erreicht ihn logischerweise in der Summe.
Jeder Nutzer einer Digitalkamera weiß, dass in dunkler Umgebung die Bilder zum Rauschen tendieren: Statt sehr dunklem, einheitlichem Grau bekommt man farbige Bildpunkte, die die Bildqualität stark beeinträchtigen.
Beim Hochregeln der „Empfindlichkeit“ eines Sensors entstehen diese Artefakte; Ungenauigkeiten in der Digitalisierung des auftreffenden Lichts wirken sich sehr viel massiver aus als bei einem hellen Bild.
Das ist auch leicht nachzuvollziehen: Gehen wir von einem Sensor aus, der für den Rotanteil eines Pixels 256 Werte liefern kann (die meisten können mehr, das ist nur ein Beispiel): Maximale Helligkeit in einem sonnigen Bild wäre 256. Im einem sehr dunklen Bild kommen aber nur Werte von beispielsweise 0 bis 40 vor. Regelt man die jetzt so hoch, dass wieder Werte von 0 bis 256 herauskommen, wirken sich Abweichungen bei der Digitalisierung mehr als sechsmal so drastisch aus.
Je mehr Pixel man auf einen kleinen Sensor quetscht, desto weniger Licht erhält der einzelne Pixel.
Das bedeutet: Je mehr Megapixel bei gleicher Sensorgröße, desto schlechter das Bild, denn je weniger Licht auf den einzelnen Pixel fällt, desto höher muss man den Gain des Sensors einstellen, desto massiver muss man „verstärken“, was sich negativ auf die Bildqualität auswirkt.
Man kann das auch schön beobachten, wenn man ein stark unterbelichtetes Bild im Nachhinein mit einer Bildbearbeitungs-Software aufhellt: Starkes Rauschen tritt auf. Nichts anderes tut die Kamerasoftware bei kleinen, hochaufgelösten Sensoren, die zu wenig Licht erhalten.
Natürlich wird versucht, diesen Effekt zu vertuschen, so gut es geht. Gerade Handy-Kameras arbeiten mit massiver Rauschunterdrückung. Dadurch ist das Rauschen selbst kaum noch zu sehen, dafür erhält man flächige, verwaschene Bilder, die nur auf den ersten Blick „gar nicht so schlecht“ aussehen.
Auch diesen Effekt kann man mit einer Bildbearbeitungssoftware schön nachvollziehen: Man nehme ein deutlich verrauschtes Bild (zum Beispiel eines, das man stark aufgehellt hat) und nutze den Rauschfilter des Programms. Je nach eingestellter Intensität ist das Rauschen danach kaum noch sichtbar, dafür sind aber viele Konturen und Farbübergänge im Bild geopfert worden.

Fazit
Die immer größeren Megapixel-Zahlen sind bei Kompaktkameras und vor allem bei Handy-Kameras reiner Marketing-Humbug. Der Nutzer bezahlt dafür sogar mit schlechterer Bildqualität als der, die er bei gleicher Sensorgröße mit geringerer Megapixel-Zahl bekommen hätte. Ein paar gute Beispiele dazu gibt es unter http://6mpixel.org/.
Selbst bei Consumer-DSLRs sind inzwischen Sensoren verbreitet, die einfach keinen Sinn mehr machen. Es ist also besser, sich in der Megapixel-Zahl eher zu beschränken und lieber auf eine gute Optik zu achten.
Auch wenn die Sensoren und vor allem ihr Rauschverhalten immer besser werden – wer wirklich Wert auf gute Bildqualität legt und es sich leisten kann, ist mit größeren Sensoren, zum Beispiel „Vollformat“-Sensoren im Kleinbild-Format 24mm x 36mm, am besten bedient. Da sind Megapixelzahlen jenseits der 20 dann auch wirklich ausnutzbar.
#Fotografie
Einer von Vielen
  
Ergänzungen, warum mit zunehmender Pixeldichte unscharfe Bilder entstehen:

1. Beugungsunschärfe (diffraction)
http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm

2.Allgemein (weil es so schön dargestellt ist bei cambridgeincolour.com)
http://www.cambridgeincolour.com/tutorials/digital-camera-sensor-size.htm

Zottels Zeug
  zuletzt bearbeitet: Fri, 10 Jul 2015 23:34:29 +0200  
Der folgende Artikel ist zuerst im März 2010 in meinem alten Blog erschienen, ich habe ihn jetzt noch ein wenig überarbeitet. Ich werde nach und nach lesenswerte Artikel umziehen, so dass ich dann die Möglichkeit habe, das alte Blog, das noch bei Google gehostet ist, zu löschen.

Der folgende, recht umfangreiche Artikel behandelt die Energieverluste, die beim Betrieb eines Autos auftreten, und welche Methoden zum Spritsparen deshalb sinnvoll sind.
TL;DR: Um Sprit zu sparen sollte man: Ein kleines, leichtes Auto fahren, so wenig wie möglich bremsen (also vorausschauend und mit viel Abstand zum Vordermann fahren), früh hochschalten und den Motor in einem niedrigen Drehzahlbereich halten, beim Beschleunigen kräftig aufs Gas drücken (aber dabei immer in niedrigen Drehzahlbereichen bleiben!), Auskuppeln, wenn man dahinrollen kann (aber nur dann, wenn man deswegen dann nicht bremsen muss; wenn man langsamer werden muss, sollte immer ein Gang eingelegt sein), auf der Autobahn nicht schneller als 120 km/h fahren.

Physikalische Grundlagen
Beginnen wir also mit den Kräften, die im Auto zu Energieverbrauch führen:
  • Reibung der Reifen und der diversen Lager an Achsen usw. beim Rollen. Wird größer, je breiter die Reifen sind, außerdem wächst die Reibung proprotional zur Geschwindigkeit. Da Räder mit kleinem Durchmesser zu größeren Drehgeschwindigkeiten der Räder führen, steigen die Reibungsverluste an den Lagern außerdem, wenn die Räder kleiner werden.
  • Reibung in Motor und Getriebe. Steigt und sinkt mit der Motordrehzahl.
  • Luftwiderstand. Steigt quadratisch zur Geschwindigkeit und proportional zu Frontfläche und cw-Wert des Autos.
  • Beschleunigungsenergie. Steigt quadratisch zur Geschwindigkeit (zur Beschleunigung von 50 auf 100 km/h ist viel mehr Energie nötig als zur Beschleunigung von 0 auf 50 km/h – bei 1 kg fast 300 J statt knapp 100 J) und proportional zur Masse.
  • Bergauffahrten: Die für die Höhenänderung nötige Energie ist proportional zur Masse und zur Höhe.
  • Verlustleistung des Motors. Als Faustregel kann man sagen: Wenn der Motor bei etwa 90% der Leistung, die er bei der aktuellen Drehzahl bringen kann, gefahren wird, arbeitet er besonders effizient. „Gaspedal streicheln“ beim Beschleunigen ist dagegen keine gute Idee.
    Außerdem ist der Verlust extrem groß, solange der Motor kalt ist. Bei der morgendlichen Fahrt zum Bäcker, die nur ein paar hundert Meter weit führt, sollen Verbräuche um 60 l/100 km keine Seltenheit sein.
  • Absichtliches Abbremsen. (Also nicht Gebremstwerden von Reibung/Luftwiderstand/Berg, sondern Nutzung des Bremspedals.)
  • Andere Verbraucher. Die Klimaanlage schaltet einen meist mechanisch angetriebenen Kompressor mit in den Antriebsstrang, und elektrische Verbraucher wie Sitzheizung, Gebläse oder Licht verlangen mehr Leistung von der Lichtmaschine, die dann ebenfalls stärker bremst.

Teilweise kann man diese Energie aber wieder zurückbekommen, wenn man entsprechend fährt:
  • Die Energie, die man in die Beschleunigung gesteckt hat, verpufft nicht – sie bleibt als kinetische Energie in der Geschwindigkeit vorhanden und wird nur von den Energieverlusten durch Reibungskräfte inkl. Luftwiderstand nach und nach abgebaut (man wird also auf ebener Strecke nur wegen dieser Reibungskräfte langsamer).
    Solange man nicht bremst. Dann wird diese kinetische Energie von den Bremsen komplett in Wärme umgewandelt und verpufft vollkommen ungenutzt.
  • Gleiches gilt für Berge, die man anschließend wieder hinunterfährt. Von zwei gleich langen Wegen zum gleichen Ziel, von denen einer über einen Berg führt und einer im Flachland bleibt, ist nicht zwingend der flache der effizientere. Da beim Bergauffahren möglicherweise der Motor in einem effizienteren Leistungsbereich bewegt wird, kann der Bergweg sogar zu weniger Verbrauch führen. Solange man bergab nicht viel bremsen muss und nicht hochtourig bergauf gefahren ist.


Konkrete Tipps
Die obigen Grundlagen führen zu folgenden Fahrempfehlungen:
  • Nicht bremsen. Ok, sagen wir: So wenig bremsen wie möglich. So lange man rollen kann, nutzt man die Energie, die man vorher in die Beschleunigung oder den Anstieg gesteckt hat. Beim Bremsen wirft man sie weg. Auch wenn das auf den ersten Blick wie ein Raserspruch klingt, bedeutet es genau das Gegenteil: Vorausschauend fahren und viel Abstand halten, um wenig bremsen zu müssen, im Zweifel eher langsamer als schneller fahren.
  • Leerlauf. Auf den ersten Blick könnte man denken, dass es Sinn macht, den Gang beim Rollen drinzulassen, schließlich hat heute jedes Auto eine Schubabschaltung und braucht dann überhaupt keinen Kraftstoff mehr. Tatsächlich hält man damit aber den Motor auf relativ hohen Drehzahlen, was große Reibungsverluste bedeutet.
    Anders gesagt: Kupple ich aus, läuft der Motor mit unter 1.000 Umdrehungen pro Minute und braucht also sehr wenig Kraftstoff. Rolle ich dagegen mit eingekuppeltem Gang, läuft der Motor im Bereich von 1.500 bis 3.000 Umdrehungen pro Minute mit, hat also sehr viel höhere Reibungsverluste, die mein Auto wiederum abbremsen und mir somit die kinetische Energie nehmen, die ich in der Geschwindigkeit noch habe. Diese Energieverluste sind höher als die Energie, die der Motor braucht, um mit Kraftstoffaufwand in der Leerlaufdrehzahl gehalten zu werden.
    Dabei sollte nicht nur die Kupplung getreten, sondern unbedingt auch ausgekuppelt werden, weil sonst im Getriebe zur Synchronisation der Gänge noch so einiges in Bewegung bleibt und Reibungsverluste erzeugt.
    Dieser Tipp muss aber vorsichtig und sehr vorausschauend eingesetzt werden. Es bringt überhaupt nichts, wenn ich bergab auskupple, um dann ständig auf der Bremse zu stehen. Die gewonnene Energie wird dann sofort wieder von den Bremsen in die Luft geblasen; wenn ich mit der Motorbremse dafür sorge, dass der Motor momentan keinen Kraftstoff zugeführt bekommt, ist das viel sinnvoller. Gleiches gilt, wenn ich ausgekuppelt an eine Ampel heranrolle, um am Schluss dann doch noch kräftig zu bremsen. Dann lieber gleich eingekuppelt bleiben.
    Sinn macht dieser Tipp nur, wenn man zum Beispiel weit vorausschauend 200 m vor einem Ortsschild auskuppelt, um dort dann – ohne zwischendurch gebremst zu haben! – mit etwa 50 km/h anzukommen. Oder wenn man bei einem leichtem Gefälle zwischendurch mal mit dem Motor bremst, ansonsten den Wagen rollen lässt, aber die Bremse nie anrührt.
    Zu häufiger Einsatz an der falschen Stelle führt zu mehr Bremsungen und mehr Spritverbrauch, als wenn man den Gang einfach dringelassen hätte.
  • Kräftig beschleunigen. Um den Motor im Bereich seines besten Wirkungsgrades zu betreiben, sollte das Gaspedal beim Beschleunigen zu etwa 90% durchgetreten werden. Dabei natürlich trotzdem frühzeitig hochschalten, um Reibungsverluste durch hohe Drehzahlen zu vermeiden.
    Das bedeutet: Kurz kräftig aufs Gas, dann bei spätestens 2.000 Umdrehung pro Minute in den höheren Gang, wieder kurz kräftig aufs Gas und gleich weiter hochschalten etc.
    Dass im Motor beim anschließenden „Dahingleiten“ ohne weitere Beschleunigung relativ viel der eingesetzten Leistung verpufft (weil er bei der minimalen Last einen schlechten Wirkungsgrad hat), macht nicht viel aus: Relativ viel von ganz wenig ist immer noch ganz wenig. Will sagen: Dass von der wenigen Energie, die zum Halten der Geschwindigkeit benötigt wird, ein großer Prozentsatz verloren geht, ist nicht so schlimm. Beim Beschleunigen wird aber sehr viel Energie benötigt, deshalb sollte es in einem möglichst effizienten Leistungsbereich des Motors vonstatten gehen.

    EDIT: Nach aktuellen Erfahrungen mit meinem Kleinwagen (Peugeot 107) muss ich diese Aussage ein Stück weit korrigieren.
    Weiterhin gilt auf jeden Fall: Kräftig beschleunigen! Bei einem Kleinwagen, vor allem bei einem Benziner, der im niedrigen Drehzahlbereich wenig Drehmoment entwickelt, macht es je nach Situation aber oft keinen Sinn, schon bei 2.000 U/min hochzuschalten.
    Ich kam ins Nachdenken, als ich es einmal auf dem Heimweg von der Arbeit sehr eilig hatte und entgegen meiner sonstigen Gewohnheiten so schnell fuhr wie erlaubt und möglich: Mit sehr hohen Drehzahlen massiv hochbeschleunigt, oft gebremst, bei freier Landstraße nicht mit knapp über 90 km/h, sondern laut Tacho mit fast 120 km/h unterwegs … Und trotzdem erreichte ich laut Bordcomputer zwar keinen sehr guten, aber doch einen besseren Verbrauch als bei „schlechten“ Fahrten (wo der Verkehr zu ungünstigen Manövern führte) mit angeblich spritsparender Fahrweise.
    Der Grund wurde mir schnell klar: Auch bei niedrigen Drehzahlen führt die Beschleunigung mit fast durchgedrücktem Gaspedal zu Verbräuchen jenseits von 10 l/100 km. Bei hohen Drehzahlen sind die Verbräuche noch einmal um geschätzt 30-50% höher – aber für wesentlich kürzere Zeit, da ich über das viel höhere Drehmoment, das der kleine Benziner hier erreicht, meine Zielgeschwindigkeit, bei der ich dann mit wenig Verbrauch „weitersegeln“ kann, viel schneller erreiche.
    Es kann also sinnvoller sein, den Motor weit hochdrehen zu lassen, wenn dadurch die Zielgeschwindigkeit und damit der niedrige Kraftstoffverbrauch deutlich schneller erreicht werden kann.
    Das gilt nicht oder nur teilweise bei Diesel- und modernen Turbomotoren, die schon bei geringen Drehzahlen ein hohes Drehmoment erreichen, und auch bei „normalen“ Benzinern nur dann, wenn die Motorisierung eher klein ausfällt und daher bei niedrigen Drehzahlen der Beschleunigungsvorgang sehr langwierig wird.
    Eine zeitlang habe ich das recht extrem betrieben: Grundsätzlich im zweiten Gang bis 55, im dritten bis knapp 90 km/h (also jeweils ca. 4.000 U/min), bergauf maximal beschleunigt usw. Das führte zwar tatsächlich zu leicht verbesserten Verbrauchswerten gegenüber der niedertourigen Fahrweise, aber nur minimal.
    Ideal ist hier ein Zwischending: Nicht so sehr ins Extrem gehen. Bei etwa 3.000-3.500 U/min hochschalten. Wenn auch niedertourige Fahrweise ausreichende Beschleunigung ergibt, etwa bei leichtem Gefälle, trotzdem früh hochschalten. Und: Wenn die Zielgeschwindigkeit hoch ist, die Strecke bis zur nächsten Ortschaft aber kurz, habe ich oft meine 90+ km/h auf Streckenabschnitten erreicht, wo ich vorher so schnell gar nicht wurde. Das hilft natürlich auch nicht beim Sparen.
    Um es zusammenzufassen: Frühes Hochschalten ist nur dann sinnvoll, wenn es nicht zu einem stark verlängerten Beschleunigungsvorgang führt.
  • Nicht zu schnell fahren. Spätestens jenseits der 100 km/h wird der Luftwiderstand wirklich sehr groß – das kann man wunderbar spüren, wenn man bei diesem Tempo einmal die Hand aus dem Fenster hält. Und er steigt quadratisch zur Geschwindigkeit!
  • Noch wichtiger ist, nicht unnötig zu beschleunigen, wenn man ohnehin gleich wieder bremsen muss – so bläst man ungeheure Energiemengen einfach in die Luft.
  • Drehzahlen niedrig halten. Faustregel: Spätestens bei 2000 Umdrehungen pro Minute in den nächsthöheren Gang schalten – außer, wenn das den Beschleunigungsvorgang stark verlängert, siehe EDIT oben.
    Außerdem: Wenn nicht mehr beschleunigt werden muss, reichen bei vielen Motoren auch deutlich niedrigere Drehzahlen unter 1500 Umdrehungen pro Minute (5. Gang im Stadtverkehr). Das muss man selbst ausprobieren – solange es nicht ruckelt und dröhnt, ist alles in Ordnung. Wenn man wieder beschleunigen muss, ist es dann natürlich meist sinnvoll, wieder zurückzuschalten.
  • Gewicht sparen. Das heißt vor allem: Möglichst ein relativ kleines Auto fahren. Und natürlich nichts unnötig herumkutschieren, was man ohnehin selten braucht; Kofferraum ausräumen.
  • Luftwiderstand sparen. Für den Luftwiderstand ist neben der Geschwindigkeit die Frontfläche und der cw-Wert ausschlaggebend. Beides ist bei einem SUV besonders groß und damit besonders ungünstig – bei solchen Autos kann schon im Stadtverkehr der Luftwiderstand die sonstigen Reibungsverluste übersteigen!
    Und natürlich: Keine Dachträger oder gar Dachboxen herumfahren, wenn man sie gerade nicht benötigt, bei höheren Geschwindigkeiten (außerhalb der Stadt) lieber die Lüftung an- als die Fenster aufmachen.
  • Unnötige Verbraucher abschalten. Das betrifft vor allem die Klimaanlage, die bei manchen Autos fast einen Liter auf hundert Kilometer schlucken kann. Auch die Heckscheibenheizung zieht relativ viel (aber kein Vergleich zur Klimaanlage!). Kleinere Verbraucher wie Sitzheizung, Radio, Außenspiegelheizungen, Lüftung auf hoher Stufe und Licht fallen dagegen weniger ins Gewicht, ihre Auswirkungen sind beim Spritverbrauch kaum zu spüren – höchstens, wenn man sie alle gemeinsam aktiviert oder deaktiviert.
    Unnötigen Verbrauch vermeiden ist natürlich immer sinnvoll, aber es ist extrem unsinnig, etwa in der Dämmerung auf das Abblendlicht zu verzichten, weil man Sprit sparen möchte. Die Auswirkung auf den Spritverbrauch ist nahe Null, die auf die eigene Sicherheit dagegen gravierend. Es sollte sich auch niemand, der kein Tagfahrlicht sein eigen nennt, durchs Spritsparen davon abhalten lassen, auch tagsüber das Abblendlicht einzuschalten.
  • Gute, passende Reifen wählen. Eher schmal als breit, mit möglichst geringem Rollwiderstand. Im Frühjahr nicht zu lange bei Winterreifen bleiben. Aber auch hier gilt natürlich: Sicherheit geht vor. (Konkret: Keinesfalls auf schönes Wetter spekulieren und deshalb verfrüht Sommerreifen aufziehen! Aber eben auch nicht das Reifenwechseln aus Faulheit bis fast in den Sommer hinein aufschieben.)
    Wichtig ist natürlich auch der passende Reifendruck. Zu wenig Druck bedeutet mehr Reibung, mehr Verschleiß und mehr Verbrauch.
  • Keine großen Motoren wählen. Große Motoren haben mehr Reibungsverluste, brauchen mehr Energie, um in Schwung gebracht zu werden und sind schwerer. Und vor allem: Es ist fast unmöglich, mit ihnen bei etwa 90% Leistung effizient zu beschleunigen: Meist sind andere Autofahrer „im Weg“, außerdem sollte man sich manchmal auch um die Nerven der Mitfahrer Gedanken machen.
    Zudem kann man so schnell gar nicht hochschalten, wie ein kraftvoller Motor bei „90% Gaspedal“ schon wieder über die 2.000 Umdrehungen pro Minute hinausgeschossen ist.
    Zu klein sollte der Motor aber auch nicht sein: Wenn man erst ab 2500 Umdrehungen pro Minute überhaupt die Leistung auf die Straße bringt, die einen beim Beschleunigen nicht zum Verkehrshindernis macht, verliert man wieder zuviel Energie durch Reibungsverluste im Motor.
    Ähnliches gilt für Langstreckenfahrer: Ein größerer Motor mit lang übersetztem 6. Gang ist beim Dahingleiten über die Autobahn sparsamer als ein kleines Motörchen jenseits der 3.000 Umdrehungen pro Minute.
    Ein starker Motor verleitet aber natürlich auch immer dazu, unvernünftig zu fahren.
  • Strecken klug auswählen. Wo man die Wahl hat, etwa bei einem längeren Weg zur Arbeit, sollte man sich die möglichen Strecken anhand ihres Spritverbrauchspotentials ansehen. Besonders schlimm sind Strecken, bei denen ständig beschleunigt und abgebremst werden muss, sprich Stadtverkehr. Autobahn kann zwar effizienter sein als Landstraße, aber nur, wenn man sich im Tempo eher an LKWs als an Sportwagen orientiert, und wenn man ständiges Abbremsen und Beschleunigen nach Möglichkeit vermeidet.
    Den Umweg, den Autobahnen gegenüber einem Weg übers Land oft bedeuten, sind sie von der Spitersparnis her meist nicht wert – außer die Landstraßenalternative jagt einen vom einen Dorf direkt ins nächste oder über extrem viele Kurven und Serpentinen, so dass wieder das Problem vieler Bremsungen besteht.
    Gerade, wenn man die Strecke gut kennt und sie nicht allzu befahren ist, kann man auf der Landstraße aber oft die aufgebaute Geschwindigkeit nutzen und ins nächste Dorf hinein ausrollen.
    Trotzdem gilt natürlich: Konstant 90 km/h auf der Autobahn kostet weniger Sprit als häufiges Beschleunigen und Abbremsen auf der Landstraße. Im Zweilfelsfall muss man die verschiedenen Alternativstrecken einfach einen Tank lang testen.
  • Uhrzeiten klug auswählen. Wenn man in Gleitzeit arbeitet und auch familiär die Wahl hat, sollte man den Berufsverkehr unbedingt meiden. Das schont nicht nur die Nerven, sondern auch den Geldbeutel. Eine halbe Stunde hin oder her macht oft extreme Unterschiede im Verkehrsaufkommen aus, und mithin in der Notwendigkeit, viel zu bremsen.
  • Zu mehreren oder mit öffentlichen Verkehrsmitteln fahren. Wer alleine im Auto unterwegs ist, lässt immer unnötig viel Energie auf der Straße, so sparsam Auto und Fahrstil auch sein mögen. Wo immer es möglich ist, sollte man deshalb auf Fahrgemeinschaften oder öffentliche Verkehrsmittel setzen.

Theoretisch wäre es also ideal, sofern die Verkehrssituation es ermöglicht, immer wieder (im höchsten Gang bei fast durchgetretenem Gaspedal) hochzubeschleunigen, dann auszukuppeln, eine Weile zu rollen und wieder hochzubeschleunigen. Außerdem müsste man so fahren, dass man die Bremse nie benötigt und immer rechtzeitig vom Gas geht.
Natürlich ist das unrealistisch. Ich persönlich würde auch ständiges Hochbeschleunigen und Wiederausrollen auf gerader Strecke als sehr unangenehm empfinden. Zumal mit anderen Verkehrsteilnehmern hinter mir – Andere nerven muss ja auch nicht sein.
Aber wo es ohne Verrenkungen möglich ist, macht es auf jeden Fall Sinn, diese Punkte zu beherzigen.

#Energiesparen #Umweltschutz #Verkehr
Einer von Vielen
  
Danke
Zottels Zeug
  
Mit meinem mäßig motorisierten Kleinwagen (Peugeot 107) habe ich mittlerweile die Erfahrung gemacht, dass es in bestimmten Fällen kontraproduktiv ist, früh hochzuschalten; es kann besser sein, den Motor kräftig hochdrehen zu lassen, wenn er dann ein deutlich höheres Drehmoment entwickelt. Näheres dazu habe ich oben in einem EDIT eingefügt.

Zottels Zeug
  zuletzt bearbeitet: Thu, 13 Jul 2017 09:23:18 +0200  
Die mia steht nicht mehr zum Verkauf, ich habe sie letzte Woche verkauft.

Es ist sehr, sehr schade, aber leider wahr: Ich muss meine mia schon wieder verkaufen.
Die Gründe sind einfach:
Erstens hat meine Frau den Arbeitsplatz gewechselt. Die neue Strecke führt größtenteils über die Autobahn, und sie weigert sich, sie in der mia zurückzulegen – weil sie sich unsicher fühlt, und weil ihr 100 km/h Spitze zu wenig sind. Außerdem dürfte es im Winter von der Entfernung her auch knapp werden.
Meine Frau arbeitet oft am Wochenende. Wenn ich dann mit den Kindern zu weiter entfernter Verwandtschaft fahren will, was ich an solchen Wochenenden gerne tue, ist die Reichweite der mia nicht ausreichend – und unser zweites Auto hat dann ja meine Frau in der Arbeit dabei.
Zweitens brauchen wir eine neue Familienkutsche. Um das Geld dafür aufzubringen, muss ich auf ein billigeres Gefährt umsteigen.
Schade – ich habe meine mia wirklich geliebt.
Hier die relevanten Daten:
  • EZ 3/2012, TÜV 3/2015
  • Km-Stand derzeit ca. 11.500 km, erhöht sich aber noch, da täglich in Benutzung
  • sehr guter Zustand, fast wie neu
  • 3-Sitzer: Fahrer sitzt vorne zentral, Mitfahrer links und rechts dahinter, dadurch viel Platz für alle trotz sehr geringer Abmessungen
  • Batterie: Lithium-Eisenphosphat, 12 kWh, 99% Restkapazität lt. Anzeige des Fahrzeugs
  • Batterie ist im Preis inklusive, keine Batteriemiete!
  • Schiebetüren
  • Höchstgeschwindigkeit: 100 km/h
  • Realistische Reichweite: Im Sommer über 100 km, im Winter ca. 80-90 km (Werksangabe: 120 km)
  • Ladung an normaler Steckdose, max. ca. 2,8 kW Leistung benötigt, Ladedauer von ganz leer bis voll ca. 5h (Werksangabe, ich habe die Batterie nie ganz leer gefahren)
  • Realistischer Stromverbrauch ab Steckdose im Gesamtdurchschnitt ca. 15-16 kWh/100 km, die Verbrauchskosten liegen somit selbst mit Ökostrom unter 4 ct/km!
  • Steuerfrei bis 2022
  • Aktuelle Software (Sommer 2013)
  • Radio/CD/MP3/AUX/USB/Bluetooth inkl. Bluetooth-Freisprecheinrichtung und A2DP
  • 8-fach bereift, Winterreifen neu gekauft im Oktober

Standort: Franken
Preisvorstellung: € 12.500,– (aktueller Neupreis in dieser Ausstattung ca. € 20.700,– + Winterräder + Überführung)

Wer Interesse hat, melde sich bitte über eine persönliche Nachricht via Red bei mir oder sende eine E-Mail an blog@zottel.net .

Zottels Zeug
  zuletzt bearbeitet: Thu, 13 Jul 2017 09:26:42 +0200  
Das wollte ich schon lange hier einstellen, hiermit reiche ich es nach:
Mit etwas kreativer Pack-Leistung kann man so einiges in einer mia unterbringen.
Bei dieser Fahrt waren neben mir selbst folgende Gegenstände und Personen in meiner mia:
  • Ein großer Einkochtopf
  • Vier Getränkekästen
  • Ein Christbaum, und nicht zu vergessen:
  • Ein Kind im Kindersitz

Hier der Beweis:

Bild/Foto

Bild/Foto
(Hier ist im Hintergrund ein weiterer, roter Getränkekasten zu sehen.)

Bild/Foto

Damit ist klar: Die mia ist ein vollwertiger Transporter! ;-)

#mia #Elektroautos
Einer von Vielen
  
Danke für die "Doku".
Bei so viel Begeisterung könnten wir ja glatt eine Ich-kaufe-mir-ein-Auto-Redaktion aufmachen, siehe https://friendicared.net/page/einervonvielen/dacialodgy