Zottels Zeug
  last edited: Tue, 24 May 2016 01:40:48 +0200  
Für die kommenden 1-2 Jahre ist eine neue Generation Elektroautos angekündigt, die mit etwas Glück zu einer besseren Akzeptanz der Elektromobilität führen könnte: In der Mittelklasse angesiedelt, sollen sie zu Preisen um € 30.000,– realistische Reichweiten von über 300 km bieten.

Technik
Die hauptsächliche Änderung betrifft die Batteriekapazität, die für solche Reichweiten nötig ist. Bei den angekündigten Modellen liegt sie bei etwa 60 kWh. Solche Kapazitäten waren bisher Oberklasse-Fahrzeugen wie den bisherigen Tesla-Modellen vorbehalten, weil so große Akkus eben sehr teuer sind. Erstmals sollen solche Werte dann in der Mittelklasse verfügbar sein – und damit Autos, die für mehr als nur den Weg zur Arbeit oder zum Einkaufen geeignet sind, zu Preisen, die zwar nicht günstig, aber immerhin für einen größeren Teil der Bevölkerung als bisher bezahlbar sind.

Modelle
Die erste Ankündigung, die in dieser Richtung erfolgte, kam von Tesla Motors, dem großen Innovator der Branche. Schon Anfang 2015 kamen die ersten Gerüchte über ein neues Modell auf, das in der Mittelklasse angesiedelt sein und (für Elektroverhältnisse) große Reichweiten ermöglichen sollte. Mit der momentan im Bau befindlichen Batteriefabrik will Tesla in der Lage sein, große Batterien zu akzeptablen Preisen anzubieten.
Offiziell vorgestellt und mit etwas mehr Details versehen wurde das Model 3 dann Ende März diesen Jahres. Tesla verspricht eine Reichweite von 215 Meilen (knapp 350 km) und einen Preis ab $ 35.000,–.
Die tatsächliche Kapazität der Batterie ist bislang nicht bekannt, aber da bei so großen Autos realistisch von einem Verbrauch um die 18-20 kWh/100 km ausgegangen werden muss (was bei 350 km Reichweite einer Kapazität von bis zu 70 kWh entsprechen würde), kann man mit einer Kapazität von mindestens 55-60 kWh rechnen, sofern Tesla nicht das Blaue vom Himmel versprechen und extrem unrealistische Reichweiten angeben will.
Das Model 3 soll ab Ende 2017 ausgeliefert werden.

Für mich völlig unerwartet kündigte Mitte letzten Jahres dann auch General Motors einen Model-3-Konkurrenten an: Den Chevrolet Bolt, etwas kleiner als das Model 3, eher in der Golfklasse angesiedelt. Er soll mit einem 60-kWh-Akku mehr als 200 Meilen (ca. 320 km) weit fahren. Das entspricht einem durchaus realistischen Verbrauch von etwa 18 kWh/100 km.
Er soll schon Ende 2016 auf den Markt kommen und in den USA für $ 37.500,– erhältlich sein. Teurer als das Model 3 also, für ein etwas kleineres Auto – aber ein Jahr früher.
In Deutschland soll das Auto ab 2017 als Opel Ampera-e erhältlich sein. Einen offiziellen Preis gibt es noch nicht, in der Presse wird über knapp € 30.000,– spekuliert.
Nicht billig für ein Fahrzeug der Golfklasse, aber: Verglichen mit dem e-Golf ist das ein toller Preis – dort bekommt man ab € 35.000,– lediglich 24,2 kWh Batterie. Im Spritmonitor-Durchschnitt verbraucht der Golf knapp 17,5 kWh auf 100 km, was also einer realistischen Reichweite von unter 150 km entspricht.

Ein bisschen außer Konkurrenz spielt noch der Hyundai Ionic mit: Er soll ab Ende 2016 wahlweise als Hybrid, reines Elektrofahrzeug oder (etwas später) Plugin-Hybridmodell verfügbar sein. Außer Konkurrenz deshalb, weil die reine Elektrovariante „nur“ 28 kWh Batteriekapazität bietet.
Ein Preis steht auch hier noch nicht fest; in einschlägigen Foren wird über eine Region um € 25.000,– spekuliert.
Was mir an diesem Auto sehr gefällt ist, dass es nach Herstellerangaben konsequent auf niedrigen Verbrauch getrimmt wurde. Also Leichtbauweise und ein sehr guter cw-Wert kombiniert mit einer kleinen Stirnfläche. Hyundai will damit einen Durchschnittsverbrauch von nur 12,5 kWh/100 km erreicht haben – wenn das NEFZ ist (und somit z.B. ohne Heizung oder Winterverluste gerechnet) sollten realiter 16-18 kWh/100 km herauskommen, somit eine realistische Reichweite von etwa 170 km.

Fazit
Mit den angekündigten neuen Modellen rückt die Elektromobilität auch jenseits des Luxus-Sektors in eine Region, wo sie auch für „normale“ Autofahrer interessant wird. Zwar liegen die Anschaffungskosten weiterhin deutlich über vergleichbaren Verbrennern, die massiv reduzierten Betriebskosten können das aber wieder wettmachen:
Mit Ökostrom für 25 ct/kWh zahlt man bei einem Verbrauch von 18 kWh/100 km nur € 4,50 für 100 km Fahrt. Zwar müsste man, verglichen mit realistischen 6 l/100km Diesel bei einem Golf und € 1,05 für den Liter Diesel, über 550.000 km fahren, um € 10.000,– Preisunterschied hereinzubekommen, aber da sind die Steuervorteile (ca. € 2.500,– in zehn Jahren) und die weit günstigeren Wartungskosten noch nicht eingerechnet.
Beim Benziner-Golf, der im Spritmonitor-Durchschnitt (ohne GTI) bei ca. 7,5 l/100 km liegt, hätte man € 10.000,– Aufpreis (die hier aber zugegebenermaßen vielleicht nicht ganz reichen) „schon“ nach weniger als 200.000 km eingespart, was in etwa in dem Bereich liegt, den man heute einer E-Auto-Batterie als Lebensdauer problemlos zutrauen kann, zumal wenn sie so groß ist, was auch zu einer geringeren Beanspruchung bei der Beschleunigung führt.
Zieht man dann noch die geplante Förderprämie vom Kaufpreis ab, kommen wir in Regionen, wo das Fahren eines Elektroautos nicht mehr zwingend teurer ist als das eines Verbrenners – abhängig von der tatsächlichen Nutzungssituation.
Ich bin gespannt, wie sich das auf die Verbreitung von Elektroautos in Deutschland auswirken wird.

#Elektroautos
Zottels Zeug
  last edited: Tue, 22 Mar 2016 02:42:06 +0100  
As this is a post intended for a worldwide audience, I'll write it in English, not in German like the rest of my blog.

So my 2008 iMac broke down last weekend, and this was the time to get rid of the last piece of Apple hardware in my household and return back to Linux.
I had backups, of course, done with Time Machine. "No problem!" I thought. I had looked at the files in OS X often and thought it was just a matter of copying back the files from the latest backup to Linux after mounting the HD. I thought wrong.
When I browsed through the files, I found that in many cases, where there should have been directories, I only found files with a size of 0 bytes instead. Huh? What's going on?

Hard links for directories
Some searching on the net revealed this hint from the former macosxhints site (which was always excellent!) that nowadays belongs to Macworld.
Bottom line: HFS+ supports hard links for directories, but this is unsupported under Linux.
But boy, what do they do with those hard-linked directories?! It's really absolutely ridiculous.
In the root directory of the disk, there is a directory called ".HFS+ Private Directory Data\r". And yes, that's a carriage return at the end of this directory name. You'll never see this directory on a Mac, it's hidden even if you choose to see hidden files. It contains large numbers of directories, all named dir_xxx, where xxx is a number.
Now, if you do an ls -l on a directory where directories have mysteriously turned into files, you'll see something like this:
drwxr-xr-x        1  503      503  26 23. Jun 2012  nicole
-r--r--r-- 17909650 root 20523400   0 28. Aug 2010  rozottel
-r--r--r-- 19911125 root 20523401   0 28. Aug 2010  Shared
drwxr-xr-x        1  501      501 114 18. Dez 02:22 zottel

rozottel and Shared should be directories, they aren't. But the number you see after the permission is the number of dir_xxx you'll find at the ".HFS+ Private Directory Data\r" directory. Example: The contents of rozottel above can be found in ".HFS+ Private Directory Data^M/dir_17909650". Of course, subdirectories there can contain other directories crippled in the same way.
Gah! Trying to restore even a few directories manually would take ages!

A script to solve the problem
So I wrote a short Perl script to solve the problem.
BTW, that number from above is actually a number that would normally represent the number of hard links that point to the file. It doesn't make sense at all to use this value for names in this private directory, and so, of course, it doesn't mean what it should mean. I'm not sure if this is Linux not supporting all aspects of HFS+ or Apple abusing the specs of that file system in completely braindead ways, but either way, I'm not sure if such a Time Machine backup would survive a file system check with repair under Linux, so better not try that. (The same probably happens with other HFS+ disks where someone has used hard links for directories, but as nobody in their right mind normally does that, it's only a problem for Time Machine backup media.)
The script takes a directory on the Time Machine file system as first parameter, and a directory where you want to copy the backup directory to as second parameter.
Side note: It assumes that your current working directory is a directory on the backup disk. It won't work if you are somewhere else and use absolute paths.
Example:
time_machine.pl foo/ /home/bar/
In this example, foo/ will be created under /home/bar/, and all the contents of foo/ will be recursively copied.
If you omit the second parameter, time_machine.pl will just traverse all files in all subdirectories and show you the complete size of what would be copied. (I needed this because, of course, a simple du won't work on such structures.)
Files that already exist at the destination are not overwritten. Thus, you can cancel the job by pressing Ctrl-C and resume later. Just be sure to delete the last file the script was working on (it shows them all on the console) at the destination after pressing Ctrl-C, because it has probably not been copied completely.
You'll find time_machine.pl as an attachment to this post (click on the paper clip at the end of this post).
It's by no means done well or sophisticatedly, it's just a quick hack I did to solve the problem for myself. Edit it to your needs if you want it to do something else.
And, of course, use it at your own risk.
Aus aktuellem Anlass (dem letzten Post) hier wieder einmal ein Artikel aus meinem alten Blog vom 7. 2. 2011, diesmal weitgehend ohne Überarbeitung – deshalb ist dort noch von meinem Nexus One und meinen damaligen Profilen die Rede. Sonst stimmt aber noch alles, nur wie gut Setting Profiles (das zuletzt 2012 aktualisiert wurde) heute ist, kann ich nicht sagen.

Bis vor kurzem hatte ich Setting Profiles im Einsatz, um damit automatisch verschiedene Settings bei meinem Nexus One einzustellen. Setting Profiles kann viel, aber es hat ein paar Bugs, die mich teils auch betreffen, und die Entwicklung wurde anscheinend weitgehend eingestellt – die Entwickler antworten im Support-Forum fast überhaupt nicht mehr, und die letzte Beta ist von Anfang Januar.
Also habe ich mich nach Alternativen umgesehen – und Tasker gefunden (kostenpflichtig, hier gibt es eine 7-Tage-Test-Version). Ich hatte schon irgendwann einmal davon gehört, das damals aber nicht groß weitervefolgt. Jetzt habe ich es mir angesehen.
Um es kurz zu machen: Tasker ist der helle Wahnsinn! Es kann schlicht alles. ;-) Also alles, was auf einen ungerooteten Telefon möglich ist, mit Root auch mehr.
Einfach ist es nicht, und für Leute, die wenig Bezug zu Computern und Technik haben, ist Tasker wahrscheinlich beinahe unbenutzbar.
Wer sich aber auskennt, findet mit Tasker das reine Paradies an automatischen Abläufen.
Hier eine kurze Beschreibung dessen, was ich bisher mit Tasker realisiert habe:

  • WLAN ist nur zu Hause an (per Cell IDs im groben Umkreis)
  • Zu bestimmten Zeiten (wochentags und Wochenende unterschiedlich) und wenn ich in der Arbeit bin (wiederum nach Cell IDs) ist der Klingelton leise, um nicht so zu stören.
  • Nachts im Dock ist alles lautlos und außerdem der Flugmodus aktiviert. (Flugmodus geht heutzutage nur noch mit Root.)
  • Unter 30% Akku wird das Display relativ dunkel geschalten
  • Unter 15% geht zudem das WLAN ganz aus

Bis hierher wäre ich auch noch mit Setting Profiles gekommen, und so ähnlich war es auch aufgesetzt. Jetzt zwei coole neue Automatismen, die ich mit Tasker gebaut habe:

  • Ist das Telefon in Benutzung (d.h. wenn das Display an ist), wird die Klingeltonlautstärke ebenfalls heruntergeregelt. Da will ich nicht mit maximaler Lautstärke angebrüllt werden.
  • Wenn eine ungelesene SMS auf mich wartet oder ein Anruf nicht angenommen wurde, wird immer wieder der Benachrichtigungston abgespielt, um mich darauf hinzuweisen – zum ersten Mal nach sieben Minuten, dann 14 Minuten später, dann wiederum 21 Minuten später usw.

Sachen wie der letztere Ablauf sind natürlich nur machbar, weil Tasker auch Variablen bietet und mit ihnen rechnen kann. Das eröffnet ungeheure Möglichkeiten.
Mit diesen paar Szenarien ist Tasker selbstverständlich alles andere als ausgereizt. Eine total unvollständige Liste weiterer Möglichkeiten beinhaltet z.B. das automatische Versenden von SMS und E-Mail, das Starten von Apps oder Scripts bis hin zum Ausführen von Java-Code, das Einfügen von Kalender-Einträgen, das Setzen beliebiger Systemeinstellungen (teils nur mit Root) und ohne Übertreibung hunderte weitere Möglichkeiten, basierend auf Daten wie Zeit (auch wiederholt all x Minuten zwischen zwei Uhrzeiten), aktuellen Kalendereinträgen (z.B. „Meeting“), Gesten beim Fuchteln mit dem Handy, selbst definierten Variablen oder Systemvariablen, Ort (anhand von Cell IDs, Netzwerkstandort oder GPS), angeschlossenem Ladekabel, Docking State, ungelesener SMS (auf Wunsch mit bestimmtem Inhalt), Anruf (auf Wunsch einer bestimmten Person/von einer bestimmten Nummer) uswusf.
Dabei können Profile auch von anderen Profilen aktiv- und ausgeschaltet werden.
Zusätzlich können "Scenes" erstellt werden, also Dialoge, die aufgerufen werden können, und mit Zoom, einem weiteren Tool des gleichen Entwicklers, auch eigene Widgets. Einfache Widgets, etwa zum Ausführen bestimmter Aufgaben per Touch, können auch mit Tasker selbst erstellt werden.
Dem fortgeschrittenen User wird auch der Aufruf beliebiger Intents angeboten – so ist es mit entsprechendem Knowhow teils möglich, auch Einstellungen von Custom ROMs zu setzen, die in Standard-Android-Systemen entweder nicht vorhanden sind oder nicht von Drittanbieter-Software gesetzt werden können, und natürlich beliebige Funktionen von Apps zu starten, die als Intent angeboten werden. Dabei können auch Daten aus eigenen Variablen übergeben werden – dem Erfindungsgeist sind kaum Grenzen gesetzt.
Anbieter anderer Software können auch Plugins für Tasker mitbringen; Locale-Plugins funktionieren auch in Tasker. Das scheint allerdings nicht allzu weit verbreitet zu sein; von den bei mir installierten Apps bietet ausschließlich Newsrob ein Plugin – heute Kaiten Mail (geht auch mit K9). Aber immerhin – es ist möglich.
Ich muss sagen, ich bin restlos begeistert! Ich habe nur einen Tag lang getestet und dann gekauft.
Um es noch einmal zu betonen: Diese App ist für weniger computeraffine Zeitgenossen eher nicht zu empfehlen! Zwar ist sie insgesamt sehr gut dokumentiert, verlangt aber einige Einarbeitung und ein Grundverständnis für prozedurale Abläufe (einfache „Programmierung“); zudem verhindert sie auch schwere Fehlkonfigurationen nicht, die ggfs. zu massivem Akkuverbrauch führen können – die entsprechenden Warnungen in den Hilfetexten und manche Kommentare im Market singen ein Lied davon.
Mit meinen Einstellungen taucht die App in der Liste der Akkuverbraucher jedoch nicht einmal auf.

Fazit: Ein Traum für Geeks, unbedingt sofort testen! Zeitgenossen mit wenig Ahnung von Technik sollten aber lieber die Finger davon lassen.
Welle
  
Einer von Vielen
  
Schau auch mal hier vorbei.#^CyanogenMod | Android Community Operating System
CyanogenMod is a free, community built distribution of Android which greatly extends the capabilities of your device.


Dort kommt auch das Rooten für de jeweiligen Modelle vor.

Ich selbst habe CM auf drei Handys in der Familie "ausgerollt" und bin sehr zufrieden. Die Google-Apps habe ich nicht installiert. Komme sehr gut mit den Apps von F-Droid klar.
Welle
  
Zottels Zeug
  last edited: Sat, 25 Jul 2015 00:51:13 +0200  
Über einen Post in meiner Matrix wurde ich darauf aufmerksam, dass erste Geschäfte (zumindest in England) Wifi-Tracking benutzen, um die Kundenströme zu analysieren: Über deren Wifi-Signale werden die Handys der Kunden ständig geortet, so wird klar, wer wann wohin gegangen ist.
Das rief in mir die Frage hervor, warum das überhaupt möglich ist. Welchen Sinn macht es, wenn WLAN-Clients, die gerade nicht mit einem Netzwerk verbunden sind, ständig Signale nach draußen senden? Sie könnten doch auch einfach passiv scannen, ob bekannte oder offene WLANs in der Nähe sind? Es stellt sich heraus: Das könnten sie durchaus, machen sie aber nicht.

WLAN-Grundlagen


Um sich mit einem WLAN zu verbinden, muss der Client einen sogenannten Probe Request senden. Der Access Point antwortet dann, und die beiden können sich miteinander verbinden. Da so ein WLAN sich auf unterschiedlichen Kanälen befinden kann, sendet der Client Probe Requests auf allen Kanälen, die er beherrscht, bis er eine Antwort bekommt.
Wenn man die SSID des eigenen Netzwerks nicht versteckt hat, sendet außerdem der Access Point zehnmal pro Sekunde sogenannte Beacons aus. Das sind kleine Pakete, die die SSID und Informationen zum Netzwerk enthalten, etwa unterstützte Übertragungsraten und Verschlüsselungsalgorithmen.
Das sollte ja eigentlich reichen, um ein WLAN zu finden. Tut es auch. Trotzdem senden offenbar alle gängigen Client-Implementationen ständig Probe Requests in die Welt, in der Hoffnung, von irgendeinem Netz Antwort zu erhalten. Anscheinend geht es dadurch ein wenig schneller.

Wifi-Tracking


Diese Probe Requests enthalten die MAC-Adresse des Wifi-Clients, also die eindeutige Hardware-Adresse des Netzwerk-Interfaces. Das macht das Tracking erst möglich, denn so kann man die einzelnen Handys voneinander unterscheiden. Gängige Android-Implementationen senden ca. alle 15 Sekunden Probe Requests in die Welt und sind so mit geeigneter Ausrüstung (mindestens drei WLAN-Receiver im Empfangsbereich und die nötige Software) nachverfolgbar.

Versteckte SSIDs


Manch sicherheitsbewegter WLAN-Betreiber nutzt gern die Option seines WLAN-Routers, die SSID zu verstecken. Das führt dazu, dass der Router keine Beacons mehr sendet. Klingt erstmal gut: Wenn sich jemand in der Nähe die verfügbaren Wifi-Netze auflisten lässt, ist meines nicht dabei. Also wird es bestimmt auch weniger wahrscheinlich, dass sich ein Hacker an meinem Netz versucht, oder?
Leider führt dieser Schritt nicht zu mehr, sondern zu weniger Sicherheit, oder besser: Die Sicherheitslage verändert sich nicht, aber die Privatsphäre-Situation verschlechtert sich.
Denn: Jetzt ist das Aussenden von Probe Requests wirklich die einzige Möglichkeit, sich mit diesem WLAN zu verbinden. Und damit ein Probe Request jetzt noch vom Access Point beantwortet wird, muss er die SSID enthalten, nicht nur, wie bei den sonst üblichen Anfragen, ein allgemeines „Hallo, ist da wer?“
Wenn mein Handy ein oder mehrere WLANs in seiner Liste der bekannten Netzwerke hat, bei denen die SSID versteckt ist, sendet es mit jedem Probe Request diese SSIDs mit in die Welt. Jeder, der zuhören möchte, sei es im Geschäft oder in der U-Bahn, erhält so eine Liste der WLANs mit versteckten SSIDs, mit denen ich mich gerne verbinde. Bei ungewöhnlichen SSIDs kann dadurch auch die Ortung meiner bevorzugten Netze möglich sein.
Dabei habe ich zu Hause aber keine Sicherheit gewonnen: Sobald mindestens ein Client im Netzwerk eingebucht ist (er muss nicht einmal auf Daten im Netzwerk zugreifen), gehen ständig Daten hin und her. Mit entsprechenden Sniffer-Tools kann das leicht detektiert werden, und die „versteckte“ SSID bekommt man bei der Gelegenheit auch gleich geliefert.
Natürlich – das Netz taucht nicht auf, wenn man mit einem normalen Client danach sucht. Das Finden von WLANs mit einem Sniffer sollte aber wesentlich schneller und effizienter sein als die normale Discovery, deshalb gehe ich davon aus, dass Leute, die den Plan haben, sich in ein WLAN einzuhacken, eher solche Tools benutzen als die Standard-Discovery – zumal speziell für diesen Zweck entwickelte Werkzeuge es auch leicht machen dürften, angreifbare WLAN-Router ausfindig zu machen.
Wenn nicht den größten Teil des Tages kein einziger Client eingeloggt ist, ist der Sicherheitsgewinn durch eine versteckte SSID also genau null. Dafür handelt man sich aber einen Privatsphäreverlust ein.

Gegenmaßnahmen


Grundsätzlich ist es sinnvoll, wenn WLAN am Handy immer dann aus ist, wenn es nicht benötigt wird. Der einfachste Schritt in diese Richtung ist die Einstellung, dass WLAN ausgeschaltet sein soll, wenn das Handy gerade nicht benutzt wird. Oder natürlich, WLAN manuell auszuschalten, wenn man aus dem Haus geht. Das spart auch sehr viel Akku.
Mit entsprechenden Tools kann man das auch automatisieren. Tasker unter Android kann etwa bestimmte Funktionen ausführen, wenn man in Reichweite bestimmter Funkmasten ist – unter anderem WLAN ein- und ausschalten. Etwas einfacher zu konfigurieren sind entsprechende Tools, die genau für den WLAN-Zweck geschaffen sind und das gleiche tun. Da ich selbst Tasker nutze, kann ich hier keine Empfehlungen abgeben – für entsprechende Kommentare bin ich dankbar.
Die beste Lösung ist ein Patch für den Android-Kernel, den ich bei den xda-developers gefunden habe: Dadurch wird die WLAN Discovery komplett passiv: Das Handy lauscht nur den Beacons, die ihm über den Weg laufen, und meldet sich, wenn die SSID zu einem bekannten Netz passt. Hat man aber versteckte SSIDs in der Liste der bekannten Netzwerke, bleibt trotzdem alles beim alten: Hier ist ohne das ständige Aussenden von Probe Requests ja gar keine Verbindung zum Netz möglich.
Natürlich sollte man auch darauf achten, dass die eigene SSID nicht gerade „Netgear“ oder ähnlich ist – dann gibt es doch zu viele Netze da draußen, von denen das Handy glaubt, sie zu kennen, und entsprechend sein Schweigen bricht und versucht, sich anzumelden.
Ich weiß nicht, wie verbreitet dieser Patch in aktuellen Custom ROMs ist – ich habe schon lange keines mehr verwendet.
Wird wohl Zeit, das wieder einmal zu tun.
Einer von Vielen
  
Vielen Dank!
Zottels Zeug
  last edited: Sat, 25 Jul 2015 01:26:26 +0200  
Es fing so schön an, damals, Mitte der Neunziger:
Meine ersten Erfahrungen mit Vernetzung machte ich im deutschen Z-Netz, einem Mailboxnetz. Das bedeutete, dass entsprechend begeisterte Technikliebhaber, heute würde man sie Nerds nennen, auf eigene Kosten Rechner betrieben, an denen Modems hingen, über die man sich einwählen konnte. Meist irgendwann nachts verbanden sich diese Rechner mit anderen des gleichen Netzes und tauschten miteinander Nachrichten aus, private Nachrichten unter Nutzern des Netzes, aber auch öffentliche in „Brettern“ (Z-Netz-Jargon), also dem, was im Usenet Newsgroups hieß – dem Vorläufer heutiger Foren.
Niemand machte sich auch nur die geringsten Gedanken über Privatsphäre. Es war üblich, bei privaten Nachrichten (dem Äquivalent von E-Mails) die eigene Privatadresse samt Telefonnummer in der Signatur anzugeben – auch in Mails an Leute, die man überhaupt nicht kannte.
Es waren Zeiten der Unschuld. Ich weiß noch, dass ich, der ich das Internet von ständig miteinander verbundenen Computern noch nicht kannte, mich wunderte, warum normale Post in Abgrenzung zur E-Mail als „Snailmail“ bezeichnet wurde – brauchten E-Mails in Mailboxnetzen doch oft mehr als zwei Tage, um ihre Empfänger zu erreichen, wenn sie über entsprechend viele Hops weitergeleitet wurden, die sich nur einmal täglich miteinander verbanden.
Alles war offen, alles war frei, niemand sorgte sich um Überwachung, die aufgrund mangelnder technischer Möglichkeiten mit ziemlicher Sicherheit auch höchstens punktuell stattfand.
Ich machte meine ersten Erfahrungen mit dem Internet, ermöglicht durch einen lokalen Verein, der das Privatpersonen über ein Abkommen mit der Erlanger Uni schon zur Verfügung stellen konnte, lange bevor „Internet“ abseits von Universitäten ein Begriff war.
Microsoft war der erste „Gegner“: Windows 3.1 blieb so weit hinter den Möglichkeiten der damaligen Computer zurück, dass ich erst auf OS/2 umschwenkte und dann, als sich die aktuellste Version nicht mehr auf meinem neuen Computer installieren ließ, Linux entdeckte.
Als einschränkend wurde damals allenfalls das Betriebssystem empfunden, und evtl. mangelnde Rechenleistung des eigenen Computers – bei Computern war es in den 90ern wie in den 2000ern mit Handys und später Smartphones: Es lohnte sich für Technikbegeisterte, sich alle zwei Jahre einen neuen Rechner zu kaufen, weil dadurch sehr viel neues möglich wurde, was vorher nicht ging.
Nach und nach geschah im Internet Spannendes: Netscape war noch Shareware und eigentlich kostenpflichtig, zunächst geliebt, später gehasst und gern als Netrape bezeichnet, aber es gab nicht wirklich Alternativen. Java wurde entwickelt, zu Anfang als extrem spannende Möglichkeit gesehen, dynamisch mit dem Web zu interagieren (JavaScript gab es noch nicht).

Spulen wir vor zu den 2000er-Jahren.
Google ist schon lange „die“ Suchmaschine, die alten Konkurrenten wie Webcrawler, Lycos und vor allem Altavista benutzt keiner mehr. Und: Google ist toll. „Do no evil“ ist damals noch ernst gemeint, das sind total coole Geeks die total coole Sachen machen.
Apple hat seine beste Zeit: Seit einiger Zeit ist das alte MacOS Geschichte, das immer für sein rein kooperatives Multitasking verspottet worden war. BSD mit einem Mach-Kernel ist die Grundlage für Mac OS X – und spätestens ab Version 10.3 ist es auch nutzbar. In den 90ern hatte mir die damals noch notwendige ewige Bastelei an Linux noch Spaß gemacht, jetzt habe ich keine Zeit mehr dafür.
Da ist der Mac perfekt. Teuer, zwar, aber bietet genau das, was ich will: Sehr gutes UI, zwar bei weitem nicht so frei konfigurierbar wie unter Linux, aber wohldurchdacht und wirklich gut gemacht. Dazu BSD Userland: Alle gewohnten Unix-Tools auf der Shell zur Verfügung, einen X-Server gab es auch, und fast alles, was man an alten Linux-Sachen so haben wollte, grafisch oder nicht, gab es auch für den Mac. Ein stabiles System, und als großer Vorteil gegenüber Linux: Hochprofessionelle (wenn auch kostenpflichtige) Software im Bereich Grafik und Publishing. Perfekt. Ich war begeisterter Apple-Jünger.

Dann kam das erste iPhone heraus, und Apples Niedergang begann. In etwa dem gleichen Zeitraum begann für mich die Zeit, in der ich begann, mir Gedanken über Privatsphäre zu machen und über Daten, die ich vielleicht lieber für mich behalten würde. Noch alles andere als dominierend, damals, aber eben erste Gedanken.
Das erste iPhone war eine herbe Enttäuschung. Smartphones waren damals noch in den Kinderschuhen, das UI war allgemein kacke, um es mal so zu formulieren, und da Apple auf dem ganzen Computermarkt das einzige Unternehmen war, das offensichtlich wirklich und sehr viel Augenmerk auf UI legte, hatte ich viel Hoffnung in das iPhone gesetzt.
Indes, es war kein Smartphone: Man konnte keine eigenen Programme installieren. Blergh. Und nichtmal UMTS gab es. Aber das UI war wirklich gut.
Mit dem iPhone 3G kam dann das erste echte Smartphone von Apple, und ich kaufte es und fand es toll, weil es seinerzeit nichts auch nur annähernd vergleichbares auf dem Markt gab. Aber es war auch die Erfindung der Gängelei im Computerbereich: Nur mit SIM-Lock und Telekom-Vertrag. Apps nur aus dem Appstore. Damals noch kein Multitasking. Keine Möglichkeit, einen anderen Browser als Safari zu nutzen (Browser waren im Appstore verboten): Das schluckte ich nur, weil es keine Alternative gab. Und Apples Stern begann zu sinken.
Um es kurz zu machen: Das iPhone 3G blieb mein einziges Apple-Smartphone. Wenig später hatte Google aufgeholt, und ich stieg mit fliegenden Fahnen um.
Denn Google war immer noch cool: Ein Unternehmen, das jetzt auch den Smartphone-Markt für sich entdeckte, grundsätzlich aber weiterhin irgendwie geekig war und dem man zutraute, dass es zwar Geld verdienen wollte und musste, das aber tolle Sachen zu entwickeln schien, um tolle Sachen zu machen, und erst in zweiter Linie, um damit Geld zu verdienen. Wie man sich das als Geek halt so vorstellt.
Zu dieser Zeit kam aber auch ein weniger angenehmer Trend auf: Immer mehr kommerzielle Software „telefonierte nach Hause“, wie man damals sagte, das heißt: Nahm, sofern eine Internetverbindung bestand, Kontakt zu Servern des Herstellers auf. Meist, um Softwarepiraterie zu verhindern, aber in zunehmendem Maße auch, um Nutzungsdaten zu erfassen, d.h. welche Daten wie mit welchen Funktionen der Software verarbeitet werden.
Inzwischen munkelt es viel unter Verschwörungstheoretikern. Angeblich wird das ganze Internet überwacht, zumindest der unverschlüsselte Verkehr. Experten halten das für Unsinn: Da das Internet inzwischen allgegenwärtig ist, gilt es als unmöglich, diese massiven Datenmengen auch nur annähernd vollständig zu überwachen. Allenfalls eine Stichwortsuche innerhalb eines Bruchteils des Gesamtverkehrs wird für möglich gehalten.

Spulen wir wieder vor zur heutigen Situation.
Und da wird es sehr, sehr dunkel. Jegliche Unschuld ist lange verlorengegangen. Die Snowden-Enthüllungen haben klargemacht, dass die Verschwörungstheoretiker die ganze Zeit Recht hatten, und: Man kann keinem großen Unternehmen mehr trauen.
Microsoft, der große Gegner von früher, erschien in den letzten Jahren kundenorientierter als Apple. Bei beiden muss damit gerechnet werden, dass im Auftrag der NSA Hintertüren eingebaut wurden.
Extrem wichtige Open-Source-Software zur Verschlüsselung, die weltweit auf Millionen Servern eingesetzt wird, offenbart eklatante Lücken, die zum Teil durchaus nach Absicht aussehen.
Es darf als gesichert gelten, dass zumindest auf Ebene der Metadaten jeglicher Internetverkehr von Geheimdiensten gespeichert wird. Für die Inhalte gilt das zumindest für begrenzte Zeit. Niemand weiß, welche Verschlüsselungsalgorithmen vielleicht von Geheimdiensten schon komplett geknackt wurden oder zumindest so angreifbar sind, dass sie bei der Überwachung eines einzelnen Bürgers unter Aufwand massiver Rechenleistung zu brechen sind.
Alle Unternehmen, die im Internet präsent sind, vor allem die ganz großen wie Google, Facebook und Amazon, sammeln so viele Daten über ihre Benutzer, wie sie nur können. Sie bilden Profile und nutzen Big-Data-Algorithmen – das kann so weit gehen, dass sie wissen, dass der Nutzer bald ein neues Auto kaufen wird, bevor es ihm selbst klar wird.

Das ist furchtbar. Aus dem unschuldigen Spiel, dem Spaß und der Faszination der Anfangszeiten des Internet ist ein widerlicher Schlamm aus kommerziellen Interessen, Datensammelwut und Überwachung geworden.
Das macht keinen Spaß mehr. Immer surft das ungute Gefühl mit, dass man mit dem Konsum dieses Mediums den Interessen anderer viel mehr dient als den eigenen.
Deshalb ist es wichtig, sich zu wehren. Neben politischer Aktivität ist die einzige Option, so viel zu verschlüsseln wie möglich – und am besten nicht nur via SSL.
Und natürlich, nicht bei den Großen zu kaufen – wobei die Nutzung etwa von Google als Suchmaschine natürlich als Kauf gelten muss, egal, ob man die Werbung ausblendet oder nicht. Daten sammeln kann Google auch ohne Werbung.

Fazit:
Es gab Zeiten, da war die Nutzung von Computern mit und ohne Internet ein unbeschwertes Unterfangen. Das ist heute nicht mehr so. Ich weiß nicht, ob wir uns das zurückerobern können – aber wenn, dann geht das nur über starke Verschlüsselung, immer und überall, auch für die unwichtigsten Dinge.
Holger
  
sasiflo
  
Trashcan ... oh what beautiful times that were :-)

Vor dem Z-Netz begann es mit FIDO-Mailboxen. ONLINE :-) Per Telefon eingewählt mit einem Terminalprogramm. Und nach den ersten unbezahlbaren Telefonrechnungen dann das Leben offline entdeckt. Mit dem Amiga und MicroDot, dem PC unter OS/2 mit CrossPoint und schließlich Linux auch mit CrossPoint und per UUCP. Ah, wie wunderbar war das, damals Ende der 80er. Vieles davon hat meine Zukunft geprägt und meinen beruflichen Werdegang erst ermöglicht.

Und meine Weltsicht.

Welche Kurzsichtigkeit damals. Ich war Verfechter der Klarnamen in allen Posts! Und ja, auch ich hatte Kontaktdaten im Footer ... oh Du große Güte. Es hat eine Weile gedauert, diese ganzen Informationen im Internet der 2000er wieder unsichtbar werden zu lassen. Nur unsichtbar. Alles ist noch da, wenn man genau weiß, wonach man suchen muss. Die Querverbindungen sind nur schwach, so dass ich hoffe, dass auch Google und Konsorten es nicht schaffen, meine heutigen Spuren im Netz mit diesen alten Spuren zu verknüpfen. Das ergäbe ein grandioses Profil ... und würde mit Sicherheit sehr viel über mich und meine Gewohnheiten und Verhaltensweisen verraten. Ich wäre furchtbar gläsern.

... ich muss weg, mir wird übel :-(
sasiflo
  
Da ich weiß, wonach ich suchen muss, kann ich genau bestätigen: Was einmal im Internet ist, verschwindet niemals wieder von dort!

Schlimmer noch: Auch was nie im Internet (heutiger Art) war, findet sich dort. Und verschwindet auch nie wieder. Eine ganz laxe Suche mit dem Wissen, wonach ich zu suchen habe, fördert Diskussionen von 1989 zu Tage. Geführt in einer FIDO-Mailbox. ONLINE per Telefonleitung und Terminalprogramm!
Zottels Zeug
  last edited: Sat, 11 Jul 2015 02:18:26 +0200  
Dieser Artikel ist ursprünglich 2011 in meinem alten Blog erschienen – wie üblich jetzt leicht überarbeitet.

Man liest es immer wieder: Die Akkus sind die Achillesferse aller aktuellen Elektroautos.
Sie sind schwer, nehmen Platz weg, und vor allem: Sie sind sehr, sehr teuer. Bei vielen Elektroautos ist die Batterie für mindestens ein Drittel des Kaufpreises verantwortlich, teils ist es sogar die Hälfte.
In diesem Artikel soll es um verschiedene Batterietechnologien und ihre Vor- und Nachteile gehen, außerdem um Finanzierungskonzepte, die die Autohersteller ersonnen haben.

Grundwissen


Hier zunächst einige wichtige Fachbegriffe und Grundlagen rund um das Thema Akkumulatoren:
Die Energiedichte beschreibt, wie viel Kapazität pro Masse in einem Akku untergebracht werden kann. Sie gibt also einen Vergleichswert an, der besagt, wie schwer Akkus bei gleicher Kapazität sind.
Unter Leistungsdichte versteht man die Energie, die pro kg Batteriegewicht gleichzeitig abgerufen werden kann. Starke Elektromotoren benötigen beim Beschleunigen recht viel Energie auf einmal, was bei älteren Akkutypen dazu führt, dass mehr Akkus eingebaut werden müssen, um sie beim Beschleunigen nicht zu überlasten.
Zu beachten ist, dass manche Batterietypen bei starker Beanspruchung unerwünscht reagieren: Der Innenwiderstand des Akkus erhöht sich. Dadurch wird die Batterie noch heißer, als sie bei der hohen Leistungsabgabe ohnehin schon würde, und der Energieverlust erhöht sich, d. h. die Batterie kann weniger von ihrer eigentlichen Kapazität an den Motor abgeben, die Reichweite verringert sich.
Ladezyklen sind die Anzahl der kompletten Ladungen (von komplett leer auf ganz voll), die bei einem Akku durchgeführt werden können, bis seine Kapazität auf einen bestimmten Wert abgesunken ist. Sie beschreiben also (zum Teil) die zu erwartende Lebensdauer des Akkus.
Leider ist der Bezugswert nicht immer einheitlich; teils wird von 75% der ursprünglichen Kapazität ausgegangen, teils von 80%. Der 80%-Wert scheint weiter verbreitet zu sein; häufig fehlt aber jegliche Angabe, auf was sich die Ladezyklen eigentlich beziehen.
Dabei ist zu beachten, dass ein Ladezyklus eine komplette Ladung beschreibt. Wird die Batterie also an einem Tag zur Hälfte leergefahren, dann wieder aufgeladen, und am nächsten Tag wieder, dann entspricht das insgesamt einem Ladezyklus, nicht zweien. Es geht nicht um die Frage „Wie oft kann ich den Akku ans Ladegerät hängen?“, sondern um die Frage „Wie oft kann der Akku komplett geladen werden?“
Da heutige Batteriekonzepte nicht mehr mit dem Memory-Effekt zu kämpfen haben, ist es auch kein Problem, die Batterien immer wieder nur zum Teil aufzuladen.
Hier eine Beispielrechnung dazu, was Ladezyklen in der Praxis bedeuten (ohne Berücksichtigung der zyklenunabhängigen Alterung, siehe weiter unten):
Angenommen, mein Elektroauto hat mit der eingebauten Batterie eine (tatsächliche) Reichweite von etwa 80 km. Ich fahre täglich damit zur Arbeit, hin und zurück insgesamt 40 km. Wenn ich nicht arbeite, nutze ich das Auto nur wenig. Die Batterie soll laut Herstellerangabe 1000 Ladezyklen überstehen, bevor sie unter eine Kapazität von 80% fällt.
Das bedeutet: Pro Arbeitstag fällt etwa ein halber Ladezyklus an. Bei einer Fünf-Tage-Woche, 30 Tagen Urlaub im Jahr, Feiertage weggerechnet, bleiben etwa 220-225 Tage, an denen tatsächlich gearbeitet wird – und da sind Krankheitstage noch nicht mitgerechnet. Runden wir das trotzdem auf 240 auf, um die (geringe) Nutzung an Nicht-Arbeitstagen mit einzubeziehen.
Damit ergeben sich 120 Ladezyklen im Jahr, die theoretische Lebensdauer der Batterie würde also bei über acht Jahren (mehr als 70.000 km) liegen. Um auf der sicheren Seite zu sein (auch weil die Reichweite im Winter mit Heizung sicher geringer ist und am Tag mehr als ein halber Ladezyklus anfällt), reduzieren wir unsere Erwartung auf fünf Jahre. Das entspricht bei dieser Rechnung dann 48.000 km.
Kaputt ist die Batterie dann aber keineswegs, die Kapazität hat sich lediglich auf 80% reduziert. Sofern mir die reduzierte Reichweite genügt (auch im Winter mit Heizung), kann ich noch eine ganze Weile mit der gleichen Batterie weiterfahren.
Zu beachten ist dabei aber weiterhin, dass Batterien auch ohne Nutzung altern und mit der Zeit an Kapazität verlieren. Momentan kann man wohl davon ausgehen, dass mit mindestens 5 Jahren Nutzungsdauer gerechnet werden kann.
Bei diversen Batterietypen ist es wichtig, dass sie niemals tiefentladen und/oder überladen werden, da sie sonst kaputtgehen oder im Extremfall sogar explodieren/verbrennen würden. Entsprechend verfügen Elektroautos normalerweise über eine Lade-/Entladeelektronik, die den Ladezustand ständig überwacht und unerwünschte Situationen vermeidet.

Blei-Akkus


Prinzipiell entspricht dieser Batterietyp der Starterbatterie eines Autos, auch wenn es hier sehr unterschiedliche Ausführungen auf dem Markt gibt.
Starterbatterien selbst sind als Antriebsbatterien nicht geeignet, da sie meist nur bis zu 50 Ladezyklen überstehen, bis die Kapazität unter 75% abgesunken ist.
Verschiedene Hersteller bieten daher sogenannte Traktionsbatterien an, die länger halten. Trotzdem werden selten mehr als 500 Ladezyklen geboten, teils ist schon nach 300 Ladezyklen Schluss.
Blei-Akkus finden sich vor allem in sehr günstigen Elektroautos kleiner Hersteller.
Sie haben einige gravierende Nachteile, speziell ihre vergleichsweise niedrige Energiedichte von etwa 30 Wh/kg: Sie sind also sehr schwer.
Außerdem bedeutet die geringe Anzahl der Ladezyklen, dass die Batterien recht schnell ausgetauscht werden müssen.
Zum Verhalten bei niedrigen Temperaturen habe ich wenig gefunden. Grundsätzlich lassen sich Bleiakkus wohl zwischen -10 °C und 60 °C betreiben, allerdings scheint die Kapazität bei niedrigen Temperaturen auch abzusinken.
Im Gegensatz zu Lithium-Akkus werden Blei-Akkus schon heute fast vollständig recycelt (für Lithium-Akkus ist das bislang nur geplant).
Aber immerhin: Sie sind wesentlich günstiger als ihre Pendants mit Lithium, der Einstiegspreis in die Elektromobilität kann dadurch wesentlich geringer gehalten werden. Durch ihre negativen Auswirkungen auf das Gewicht (und somit auf den Verbrauch) und die geringe Lebensdauer sind sie in der Gesamtbetrachtung aber nicht wirklich günstiger.

Lithium-Ionen-Akkus


Lithium-Ionen-Akkus gibt es in verschiedenen Formen, die Zum Teil deutlich unterschiedliche Eigenschaften aufweisen. Leider sind die Angaben zu neuen Elektroautos an dieser Stelle oft nicht sehr aussagekräftig, wie überhaupt die Batterie als eines der eigentlich wichtigsten Elemente des Elektroautos kaum erwähnt und näher beschrieben wird.
Allgemein bestechen Lithium-Ionen-Akkus mit einer sehr hohen Energiedichte, die je nach Bauform bei etwa  95-190 Wh/kg liegt (die höchsten Energiedichten sind bei Lithium-Polymer-Akkus zu finden) – mithin sind sie mindestens dreimal so leicht wie Blei-Akkus, meist noch deutlich leichter. Auch in der Leistungsdichte liegen Lithium-Ionen-Akkus mit 300-1500 W/kg besser als Blei-Akkus.
Lithium-Ionen-Akkus können ein Sicherheitsrisiko darstellen: Überladung und zu starke Beanspruchung des Akkus können zu Überhitzung und im Extremfall zum Brand des Akkus führen. Das wird im Normalbetrieb durch die Elektronik verhindert.
Durch mechanische Beschädigungen an den Batterien bei einem Unfall kann es aber etwa zu einem Kurzschluss innerhalb der Batterie kommen, die dann überhitzen und Feuer fangen kann. Lithium-Brände können nicht mit Wasser gelöscht werden, werden von Wasser sogar angefacht!
Es gibt Neuentwicklungen, die dieses Verhalten durch verschiedene Maßnahmen verhindern können. Da sich die Hersteller über Machart und Herkunft Ihrer Akkumulatoren aber meist ausschweigen, ist ohne dedizierte Nachfrage kaum festzustellen, inwiefern die Batterien über solche Techniken verfügen oder nicht.
Bei klassischen Lithium-Ionen-Akkus sinkt die abgebbare Leistung mit der Temperatur teils drastisch. Als Betriebstemperaturen sind oft Werte von 0-40 °C angegeben. Optimal sind etwa 18-25 °C.
Lithium-Ionen-Akkus sind deshalb in Elektroautos zuweilen mit Heizung und/oder Kühlung versehen, um bei jedem Wetter und jeder Belastung sicheren und möglichst optimalen Betrieb gewährleisten zu können.
Mit speziellen Elektrolyten ist aber auch der Betrieb bei weit niedrigeren Temperaturen möglich.
Grundsätzlich wäre bei klassischen Lithiumbatterien (Lithium-Cobalt) mit etwa 500 Ladezyklen zu rechnen, bis nur noch 80% der ursprünglichen Kapazität zur Verfügung stehen. Das gilt aber nur, wenn man die Entladeströme auf 0,2 C beschränkt, was im Elektroauto nicht realistisch ist. Indem von der Elektronik aber nicht die volle Kapazität genutzt wird, sondern zum Beispiel nur bis zu einem Stand von 30% der Kapazität entladen und bis 80% der Kapazität geladen wird, lässt sich die Anzahl der Ladezyklen stark erhöhen.
Lithium-Polymer-Akkus zeichnen sich vor allem durch eine nochmals höhere Energiedichte aus. Typische Werte liegen heute jenseits der 140 Wh/kg.
Lithium-Eisen-Phosphat-Akkus sind für den Einsatz im Elektroauto beinahe ideal: Sie sind deutlich temperaturstabiler und sind herstellerseitig z.B. mit Betriebstemperaturen von -20 - +45 °C (mia) angegeben und somit wintertauglich. Einziger Nachteil: Ihre Energiedichte reicht mit 90-120 Wh/kg nicht an das heran, was mit anderen Lithium-Akkus möglich ist, ist aber natürlich trotzdem im sehr guten Bereich anzusiedeln.
Sie können sehr höhe Ströme liefern (viel höher als für den normalen Betrieb eines Elektroautos notwendig) und auch mit sehr hohen Strömen geladen werden – theoretisch wäre eine komplette Ladung in 15 Minuten problemlos möglich.
So hohe Beanspruchung wirkt sich aber natürlich auch nachteilig auf die Lebensdauer des Akkus aus. Würde er nur mit 1 C entladen und geladen, wäre selbst nach 4000 Ladezyklen kaum eine Änderung der Kapazität zu erwarten, selbst bei vollständiger Entladung (die einen klassischen Lithium-Ionen-Akku schnell zerstören würde) mit 10 C ist noch mit 1000 Zyklen zu rechnen (Quelle war Wikipedia, dort ist im aktuellen Artikel (Stand 7/2015) ohne Angabe des Entlade- und Ladestroms von 1.000 bis über 10.000 Zyklen bei vollständiger Entladung die Rede).
Die Praxis liegt dazwischen: Nehmen wir das Beispiel der mia von mia electric: Sie verfügte (in der Basisversion) über eine Lithium-Eisen-Phosphat-Batterie mit einer Kapazität von 8 kWh. Eine volle Ladung sollte 3,5 h dauern, geladen wurde also nur mit 1/3,5 C = knapp 0,29 C. Der Motor hatte eine Spitzenleistung von 18 kW. Bei Beschleunigen werden dem Akku also mehr als 2 C abverlangt – nicht 1 C also, aber auch weit entfernt von 10 C.
Vermutlich wird man an diesen Batterien mindestens 3000 Ladezyklen lang seine Freude haben. In der Praxis wird das von der konkreten Beanspruchung abhängig sein, und auch die Ladezyklen-unabhängige Alterung der Batterie spielt dann natürlich mit hinein.

Zukunftsmusik


Natürlich ist die Batterie-Entwicklung noch lange nicht an ihrem Ende angelangt. Lithium-Luft-Akkumulatoren etwa versprechen extreme Energiedichten (ein mehrfaches der aktuell besten Lithium-Akkus!), sind aber momentan noch nicht serienreif.
Ich vermute, dass auch manch großer Autohersteller in seinen Entwicklungslaboren sein eigenes Süppchen kocht – schon heute lässt die allgemeine Bezeichnung „Lithium-Ionen-Akku“ nur vermuten, was genau in den Fahrzeugen verbaut ist.
In den nächsten Jahren ist mit Sicherheit mit einer weiteren Verbesserung der Energiedichte, vor allem aber auch mit einer deutlichen Verringerung der Preise zu rechnen.

Finanzierung


Wie schon angemerkt ist die Batterie meist das mit Abstand teuerste Einzelteil in einem Elektroauto. Einige Autohersteller – zum Beispiel Renault und Mercedes – wollen daher ihre Autos ohne Batterie verkaufen. Der Anschaffungspreis des Elektroautos selbst wird dadurch wesentlich attraktiver. Die Batterien müssen dann gemietet/geleast werden. Bei Renault gibt es die Batteriemiete bei langjährigem Mietvertrag im Twizy schon ab € 30,–/Monat – allerdings bei lediglich 2.500 km Fahrleistung pro Jahr. Bei den maximal möglichen 10.000 km/Jahr und nur 12 Monaten Vertragslaufzeit sind schon € 70,–/Monat fällig. Im Zoé sind es € 49,–/Monat (1.250 km/Quartal bzw. 5.000 km/Jahr ab 3 Jahren Laufzeit) bis € 162,–/Monat (30.00km/Jahr bei 12 Monaten Laufzeit). Stand: Juli 2015. Dafür hat man garantiert immer eine Batterie mit mindestens 75% der ursprünglichen Kapazität im Auto.
Für mich war das damals ein sehr interessantes Angebot. Es reduziert den Anschaffungspreis und gibt beim Unsicherheitsfaktor Akku Sicherheit. Bei Vergleichsrechnungen mit Verbrennern kann man diesen Wert gewissermaßen als „Verbrauch“ mit ansetzen, ohne zu sehr ins Blaue spekulieren zu müssen. (Wichtig dann natürlich, die Inspektionen und Verschleißteile beim Verbrenner ebenso mitzurechnen, was nicht ganz einfach ist.)
Heute denke ich, dass mittlerweile klarer ist, wie gut die Batterien halten, und dass man normalerweise – wenn man nicht gerade das Pech hat, mit einem Batterieschaden konfrontiert zu sein – günstiger fährt, wenn man die Batterie kauft. Sofern das überhaupt angeboten wird.
Ein Zoé würde mich ab 36 Monaten Laufzeit bei 12.500 km/Jahr € 79,– Batteriemiete pro Monat kosten, während mein Peugeot 107 für die gleiche Strecke Benzin für etwa € 71,– verfährt. Die € 8,– Unterschied lassen sich durch geringere Wartungskosten vielleicht noch ausgleichen, aber der Zoé braucht ja auch noch Strom, der hier noch nicht eingerechnet ist. Mit einer gekauften Batterie ist es viel leichter, in Bereiche zu kommen, wo sich die Betriebskosten tatsächlich amortisieren.

Fazit


Die Batterien sind nicht nur eine der größten Schwierigkeiten bei der Entwicklung von Elektrofahrzeugen und ein großer Preisfaktor – für mich stellen sie auch das größte Fragezeichen beim Kauf eines Elektroautos dar.
Unverständlicherweise geben die meisten Hersteller kaum Daten zu ihren Batterien an und lassen den Kunden so im Ungewissen.
Teils fehlen sämtliche Angaben, oder es ist nicht einmal eine Kapazität angegeben. Die Anzahl der Ladezyklen gibt praktisch niemand an.
Ich verstehe schon, dass das natürlich auch für die Hersteller problematisch ist. Schließlich gibt es noch wenige Vergleichswerte aus dem massenhaften Einsatz solcher Fahrzeuge, und wie soll man die Lebensdauer sinnvoll angeben, wenn sowohl viele Ladungen als auch schlichtes Alter eine Rolle spielen?
mia electrics zum Beispiel gab drei Jahre oder 50.000 km Garantie auf die Batterie, sagte aber nirgends, was „Garantie“ eigentlich heißt: Ersatz nur, wenn gar nichts mehr geht oder auch wenn die Kapazität unter 80% sinkt?
Und überhaupt, was sind schon drei Jahre? Ich hätte schon gerne die Sicherheit, dass ich innerhalb der nächsten fünf Jahre nach Kauf eines Neuwagens nicht plötzlich über € 5.000,– investieren muss, um weiterhin die 40 km zur Arbeit bewältigen zu können – auch im Winter mit zwei Mitfahrern.
Und selbstverständlich blieb bei mia (wie auch bei den meisten anderen) völlig unklar, was der Ersatz der Batterie überhaupt kosten würde. (Heute mag das klarer sein, das habe ich zur Wiederveröffentlichung des Artikels nicht neu recherchiert.)
Das gefällt mir gar nicht – wahrscheinlich deutlich mehr als ein Viertel des Wagenwertes ist ein Verschleißteil, und keiner sagt mir, wie lange es halten wird.
Deshalb fand ich die Miet-/Leasingmodelle damals so attraktiv. Natürlich müsste man sich die Konditionen sehr genau durchlesen, um herauszufinden, ob man damit nicht noch mehr über den Tisch gezogen wird – zum Beispiel bei vorzeitiger Kündigung wegen Fahrzeugverkaufs oder bei den Bedingungen zum tatsächlichen Austausch der Batterie.
Heute denke ich, dass man mit einer Kaufbatterie meist besser bedient ist.
zottel
  
Wenn Du Dich da richtig gut auskennst, wäre ich für ein bisschen Input dankbar. :-) Was ich weiß ist im Prinzip alles „mal gelesen“, ohne viel Hintergrundwissen. Wie sieht es denn bei Ethanol-Brennstoffzellen mit dem Wirkungsgrad aus? Wenn ich das richtig in Erinnerung habe, lässt sich Ethanol ja auch halbwegs sinnvoll mit Hilfe von überschüssigem Strom synthetisieren. Und natürlich aus Pflanzenabfällen. Das wäre zwar vom Gesamtwirkungsgrad her wahrscheinlich auch nicht gerade toll, aber für Langstrecken bestimmt eine tolle Sache.

Wenn Du da Plan hast, erzähl mal ein bisschen!
Wirrlicht
  
Ethanol ist im Prinizp Ok, wobei halt immer die Diskussion (wie ja auch beim E10-Benzin gesehen) nicht nur der Wirkungsgrad das Problem ist, sondern halt auch, das
1.) Natürlich CO_2 freigesetzt wird
2.) Das Ethanol normalerweise aus Intensiver Landwirtschaft stammt. Und ob das dann Bio-mäßig der letzte Schrei Ist - Fraglich.

Ist aber schon eine weile her das "richtig gut auskennst" auf mich zugetroffen hätte. Ich such mal was :)

#^http://www.conrad.de/ce/de/product/1272763
Wirrlicht
  last edited: Tue, 14 Jul 2015 11:31:26 +0200  
Linde Mainz : #^http://bit.ly/1HsIuHO
BMW/Toyota : #^http://bit.ly/1HZXalF
Lithium/Graphen/Graphitoxid : #^http://bit.ly/1dXU2ul
Abfall-Wasserstoffkonversion : #^http://bit.ly/1O3eExy

Im großen und ganzen siehts so aus, das wenn man mir Ethanol fahren will, die Brennstoffzelle (keinen / keinen großen ) Vorteil gegenüber der herkömmlichen Verbrennung hat, wie gesagt, CO_2 wird ja so oder so frei. Durch geeignetere Materialien (Membrenen, Elektroden...) mag das irgendwann so sein, im Moment ist das aber nicht der Fall. Aber es gibt ein paar Papers darüber, das man mit einer Ethanol-Brennstoffzelle wohl ganz gut seinen Laptop betreiben können wird. Find ich allerdings auch nicht so prickelnd, meistens geht das ja schon mit einer anständigen Solarzelle.
Zottels Zeug
  last edited: Fri, 24 Apr 2015 05:02:01 +0200  
Wie wird der Autoverkehr in etwas fernerer Zukunft aussehen? Sagen wir, in 20 oder 30 Jahren? Bis dahin sollten selbstfahrende Autos kein Problem mehr darstellen, und das eröffnet riesige Möglichkeiten – abgesehen vom Datenschutz.

Ein Szenario


Ich wohne etwas außerhalb eines Ballungsgebietes – „auf dem Land“ wäre zuviel gesagt, hier gibt es Bahnanbindung in die City, Busse fahren auch, aber doch weit entfernt von U- und S-Bahn. Meine Arbeitsstelle liegt ungefähr genausoweit draußen am Rand einer anderen Stadt des gleichen Ballungsraumes. Das bedeutet: Es gibt keine direkten öffentlichen Verbindungen zwischen meinem Wohnort und meiner Arbeitsstelle. Öffentlich müsste ich von zu Hause mit dem Zug in die eine Stadt fahren, von dort mit der S-Bahn in die andere Stadt und von dort wiederum mit dem Bus zu meiner Arbeitsstelle.
Mit dem Auto dauert das etwa 35 Minuten, öffentlich etwa anderthalb Stunden – und auch das nur, wenn ich alle Anschlüsse erwische, sonst kommt je nach Uhrzeit noch eine halbe bis eine Stunde obendrauf.
Grundsätzlich bin ich begeisterter Benutzer öffentlicher Verkehrsmittel, aber das ist dann doch zuviel. Taxifahren verbietet sich bei dieser Fahrzeit natürlich von selbst, und es wäre, ökologisch gesehen, natürlich sowieso noch viel schlechter als der Kleinwagen, den ich für den Weg zur Arbeit benutze.
Spulen wir mal 30 Jahre vor, oder, wie ich sehr hoffe, vielleicht auch nur 15 oder 20 Jahre?
Wir besitzen kein Auto mehr. Beim Frühstück bestelle ich mir via App ein Auto für den Weg zur Arbeit. Da ich ihn oft fahre, habe ich das Ziel fest eingespeichert, ein Klick genügt. Ich frühstücke fertig, ziehe mich an, gehe vor die Tür.
Dort wartet ein winziges Elektroauto auf mich. Es ist kleiner als ein Smart, kaum zwei Meter lang. Eine Sitzbank für 2-3 Personen, ein kleiner Kofferraum, mehr nicht.
Ich setze mich rein und schließe die Tür. Anschnallen muss ich mich nicht.
Während das Auto losfährt, nehme ich ein Buch aus der Tasche und beginne zu lesen. Zwischendurch schaue ich aus dem Fenster. Wenn ich wollte, könnte ich dank des Netzanschlusses auch schon mit der Arbeit beginnen, aber ich genieße lieber die Zeit der Entspannung vor der Arbeit.
Als wir auf der größeren Landstraße angekommen sind, verbindet sich mein Auto mit vier anderen zu einem Zug. Auf dem Weg Richtung Arbeit scheren immer wieder Autos aus und neue kommen hinzu. Obwohl die Straße nicht mehrspurig ist, bedeutet das keine starken Abbrems- oder Beschleunigungsmanöver. Wer zuerst wieder abbiegt, wurde von vorneherein hinten angehängt, so dass der Rest des Zuges nicht ineffizient bremsen muss.
Ich stelle fest, dass ich heute eine andere Strecke fahre als sonst. Klar, Urlaubszeit, der kurze Autobahnabschnitt der Strecke ist wahrscheinlich ziemlich voll.
An meinem Arbeitsort angekommen steige ich aus. „Mein“ Auto fährt sofort wieder los und wendet sich anderen Kunden zu.
Nachdem ich einige vorbereitende Arbeiten erledigt habe, mache ich mich auf den Weg zu einem Kunden in 300 km Entfernung. Das Auto dafür habe ich schon vor ein paar Tagen bestellt. Indem ich in der Zeitplanung um eine Stunde hin oder her flexibel war, konnte ich den billigen Langzugtarif nutzen. Ich muss mich etwas beeilen, denn wenn ich nicht rechtzeitig in den vor der Tür stehenden Shuttle einsteige, verfällt meine Buchung. Er steht aber schon seit fast zehn Minuten hier, also selber schuld.
Der Shuttle ist sehr eckig, sieht aus wie ein Hochhaus auf Rädern. Er kann sich in einen Langzug einhängen, dann ist das ganze Gebilde sehr stromlinienförmig. Er fährt mich zur nächsten Autobahn und wird dort Teil eines auf die Sekunde getimten Langzuges. Im Gegensatz zu dem Zug auf dem Weg zur Arbeit wird hier physisch gekoppelt. Die Kraft zur Fortbewegung kommt von der Lokomotive. Wenige Minuten später sause ich mit 250 Sachen über die Autobahn. Langsamer werden wir nur dort, wo die Kurven zu eng sind.

Schöne neue Welt


Das ist in vielerlei Hinsicht eine richtig tolle Aussicht:
  • Stauvermeidung: Die Zentrale weiß immer über alle Autos Bescheid – nicht nur darüber, wo sie gerade sind, sondern auch darüber, wohin sie gerade fahren. Dadurch kann der gesamte Verkehr ideal ausgelegt werden. Wenn sich die Überlastung einer Strecke abzeichnet, können einige Autos auf andere Strecken geleitet werden. Wer es nicht so eilig hat, könnte dann die langsamere Variante sogar billiger bekommen.
  • Umweltschutz: Durch die komplette Kenntnis des gesamten Verkehrs können Beschleunigungs- und Bremsvorgänge ideal so gestaltet werden, dass der Energieverbrauch minimiert wird. Dadurch ließe sich der Energieverbrauch um Größenordnungen verringern.
    Wegen der besseren Sicherheit (siehe unten) kann auf die Sicherheitsvorkehrungen weitgehend verzichtet werden, die Autos heute immer schwerer machen.
  • Kostenersparnis: Nicht nur die Kosten für die Energie werden minimiert, auch die fürs Auto. Die meisten Autos werden heute maximal eine Stunde pro Tag bewegt und stehen ansonsten sinnlos in der Gegend herum. Das bedeutet natürlich nicht, dass man mit 1/24 der Autos auskommen könnte, denn die Anzahl der Autos muss ja für die Stoßzeiten, also den Berufsverkehr, ausreichen. Trotzdem ergibt sich hier massives Einsparpotenzial.
  • Flexibilität: Wer heute mit öffentlichen Verkehrsmitteln fährt, ist auf den Fahrplan angewiesen. Wenn zum benötigten Zeitpunkt nichts fährt, schaut man in die Röhre. Das ist vor allem auf dem Land relevant, wo die Frequenz öffentlicher Verkehrsmittel eben nicht alle zehn Minuten, sondern alle halbe Stunde, jede Stunde oder noch seltener ist – wenn überhaupt eine Haltestelle in der Nähe ist. Natürlich wird ein selbstfahrendes Auto auch eine Weile brauchen, um entlegene Gebiete zu erreichen, aber immerhin kann man es zum benötigten Zeitpunkt bestellen.
    Außerdem kann ein System, das Position und Ziel aller Verkehrsteilnehmer kennt, flexibel auf Störungen reagieren und zeitkritische Systeme wie die von mir imaginierten „Langzüge“ gegebenenfalls ideal so umstellen, dass für alle Beteiligten der kleinstmögliche Zeitverlust in Bezug zum kleinstmöglichen Energieverlust entsteht.
  • Sicherheit: Selbstfahrende Autos können miteinander kommunizieren. Sie können sich gegenseitig vor Verkehrsstörungen warnen, lange bevor das betreffende Auto sie erreicht hat. In akuten Gefahrensituationen können Autos „miteinander ausmachen“, wer wohin ausweicht.
    Sensoren können die Umgebung weit besser im Auge haben, als ein Mensch es je könnte. Fest installierte Streckenüberwachungshardware auf Schnellfahrstrecken kann Hindernisse indentifizieren, bevor die Autos überhaupt in ihre Nähe kommen.

Aber?


Das klingt alles toll, oder? Wo sind die Nachteile?
  • Selber fahren wird verboten: Klingt extrem, und ganz so wird es so schnell auch nicht kommen. Aber doch: Das perfekte System, wie im Szenario oben beschrieben, funktioniert nur, wenn niemand mehr selbst steuert. Letztlich wird es vermutlich darauf hinauslaufen, dass das Selbstfahren nur noch auf kleinen Straßen, zum Beispiel bis hin zum Landstraßen-Level erlaubt ist. Zugang zu höheren Straßen wie Bundesstraßen und Autobahnen wird physisch verhindert, weil manche der dort verkehrenden selbstfahrenden Autos nicht mehr über die nötigen Sensoren verfügen, um Selbstfahrern auszuweichen. Blockade von Shuttles, die zum Nicht-Erreichen des Langzugs führt, wird mit Geldstrafen geahndet.
    Radfahren auf allen Straßen ab Landstraßenlevel ist grundsätzlich verboten. Dafür werden eigene Radfernwege geschaffen.
  • Fehlende Beziehung zum Auto: Persönlich ist mir das herzlich egal, aber es gibt Leute, die lieben ihr Auto. Die werden Widerstand leisten. Letztlich wird es eine kleine Gemeinde von Selbstfahrern geben, etwa wie Oldtimer-Liebhaber heute. Sie werden den anderen ziemlich auf die Nerven gehen.
  • Überwachung: Das ist der zentrale und schlimmste Punkt dieses Szenarios: Die zentrale Verkehrsüberwachung weiß immer, wo jedes Auto ist. Über die ohnehin vorhandenen Kameras jedes Roboter-Autos die Selbstfahrer zu erfassen ist kein Problem. Und: Weil jeder sein Auto immer bestellen muss, weiß die Verkehrsüberwachung auch immer, wer wann wohin fährt. Technisch wäre es durchaus so lösbar, dass nicht klar ist, wer in einem Auto von A nach B fährt, aber es ist nicht zu erwarten, dass solche Datenschutzstandards tatsächlich eingeführt werden.
    Natürlich: Zumindest auf Autobahnen ist durch die Mautbrücken mit ihrem Nummernschild-Scannenden Equipment so ein Szenario heute schon gegeben. Und es wird jetzt auf Bundesstraßen ausgeweitet. Trotzdem wäre das noch ein deutlich weiterer Schritt hin zum gläsernen Bürger.

Fazit


Schöne neue Welt?
Ich vermute, dass die Datenschutzproblematik bis dahin kein „Problem“ mehr darstellt, weil durch andere Methoden dieselben Möglichkeiten ohnehin gegeben sind. Und da ich mein Auto als Gebrauchsgegenstand ansehe und nur das gemütliche Cruisen in einem Wohnmobil wirklich genießen kann, finde ich es auch nicht weiter schlimm, wenn einem das in Zukunft abgenommen wird.
Also ja: Schöne neue Welt! Ich freu mich drauf.

#Umweltschutz #Verkehr
Klaus
  
Interessante Ideen und die Vorteile sprechen alle dafür, aber welchen Politiker siehst du denn in 15-20 Jahren, der sich an dem Liebling der Deutschen so vergehen wird?!?
zottel
  
Ich denke, dass sich das letztlich von selbst entwickeln wird. Mag aber sein, dass es länger dauert.

Es hängt letztlich davon ab, wie schnell komplett selbst fahrende Autos auf den Markt kommen, und wie schnell sie sich durchsetzen.

Sobald ein Großteil der Autos nicht mehr von einem Fahrer gesteuert werden, werden die menschgesteuerten zu einem Sicherheitsrisiko. Einige größere Unfälle, die mit selbstfahrenden Autos vermeidbar gewesen wären, schön in den Medien breitgetreten, dazu vielleicht eine große, weithin bekannte Kampagne, um die Verkehrstoten auf nahe Null zu reduzieren – da kann das ganz schnell gehen.

Ich stelle mir das ungefähr so vor:

Innerhalb der nächsten fünf Jahre: Einige Autobahnstrecken werden mit zusätzlicher Hardware ausgestattet, die das automatische Fahren auf diesen Strecken erlaubt. Wichtigste Punkte: Zuverlässige digitale Informationen sind abrufbar, etwa über Geschwindigkeitsbegrenzungen und Baustellen, visuelle Elemente wie Seitenstreifen zur zuverlässigen Spurfindung sind vorhanden.
Oberklasse-Autos können für viel Geld mit einem entsprechenden Assistenzsystem geordert werden. Zunächst ist der Fahrer selbst weiter verantwortlich und muss die Strecke im Blick haben, später darf sich der Fahrer auch anderweitig beschäftigen. Da sie viel Abstand halten und nicht sehr schnell fahren, werden selbstfahrende Autos zunächst als Hindernis wahrgenommen.

Innerhalb der nächsten zehn Jahre: Alle Autobahnen sind für automatisches Fahren ausgerüstet, die Bundesstraßen zum Teil auch. Mittlerweile sind Assistenzsysteme auf dem Markt, die unabhängig von Voraussetzungen wie zuverlässig vorhandenen Seitenstreifen auf allen Strecken sicher fahren können. Außerhalb von freigegeben Strecken muss der Fahrer das Auto aber noch überwachen. Die entsprechenden Systeme sind immer noch teuer, werden inzwischen aber viel gekauft und sind auch in der Mittelklasse und bei gehobenen Kleinwagen zu haben.
Erste Pilotversuche mit „selbstfahrenden Taxis“ laufen an. Die teilnehmenden Städte rüsten dafür einen Teil ihres Straßennetzes mit entsprechender Technik aus. Die Fahrzeuge können vom Fahrgast nicht mehr manuell gesteuert werden (abgesehen von einer Notbremse), Fahrten außerhalb der freigegeben Gebiete werden nicht angeboten.

Innerhalb der nächsten fünfzehn Jahre: In den meisten Städten jenseits der 100.000 Einwohner werden selbstfahrende Taxis angeboten, oder ein solches System ist gerade im Aufbau. Kleinere Städte und Gemeinden ziehen nach, die Lücken im System werden nach und nach geschlossen. Inzwischen gibt es Assistenzsysteme, die für nicht-überwachtes Fahren auch außerhalb der ausgerüsteten Gebiete freigegeben sind. Erste Privatautos ohne manuelle Steuerung sind auf dem Markt zu haben.
Viele Autofahrer besitzen noch ein eigenes Auto, aber die selbstfahrenden Taxis werden immer billiger. Zumindest, wenn man in einem gut ausgebauten Gebiet wohnt, macht es eigentlich keinen Sinn mehr, sich ein eigenes Auto zu kaufen – finanziell schon lange nicht mehr, jedenfalls im Vergleich zu einem Neuwagen. Alte Gebrauchte in der Gesamtbetrachtung noch billiger, aber auch hier schlägt das Pendel langsam Richtung Taxi – auch, weil es immer schwieriger wird, noch einen angemessenen Preis für einen Gebrauchtwagen zu erzielen.
Klassische öffentliche Verkehrsmittel wie Busse und Bahnen sind im Niedergang begriffen. Es wird versucht, sie auf intelligente Weise mit den Taxis zu verbinden – zum Beispiel, indem die Taxis direkt auf Fernverkehrsbahnsteige fahren, wo gewissermaßen von Tür zu Tür umgestiegen werden kann. Schwer zu sagen, wie gut das gelingen kann.

Innerhalb der nächsten zwanzig Jahre: Privatautos werden mehr und mehr zum Spielzeug der Reichen. Sie sind zwar noch normaler Teil des Straßenverkehrs, werden aber unübersehbar immer weniger. Das große Tankstellensterben geht weiter – zwar fahren die Taxis zum Teil weiterhin mit Verbrennungsmotoren, aber sie tanken an den eigenen, automatischen Tankstellen der Betreibernetze. Inzwischen ist es überhaupt kein Problem mehr, innerhalb Deutschlands von jedem beliebigen Punkt zu jedem anderen zu gelangen.
Das Image von Selbstfahrern wird immer schlechter – sie haben den Ruf, aus Egomanie die anderen Verkehrsteilnehmer zu gefährden, die Umwelt zu verpesten und allgemein den Verkehrsfluss zu stören. Erste Strecken werden für Selbstfahrer gesperrt.
Dort finden auch erste Pilotversuche mit schnell fahrenden Zügen statt, die sich on demand bilden und wieder trennen.

So etwa wird es, glaube ich, ablaufen. Möglicherweise sind die Zeitrahmen etwas optimistisch. :-) Ich kann mir aber durchaus vorstellen, dass das auch innerhalb dieser Zeit so kommen kann.
zottel
  
Und zu den negativen Aspekten:

Um Vandalismus zu vermeiden und für Regressforderungen zu dokumentieren, sind die selbstfahrenden Taxis von Anfang videoüberwacht. Wer Verschmutzungen verursacht, etwa indem er unterwegs „unsauber“ isst und trinkt, muss die ungeplante Heimfahrt zur Zentrale und die Reinigung bezahlen; weil das Verzögerungen in der Verplanung der Fahrzeuge bedeutet, langen die Anbieter da kräftig hin. Evtl. wird auf Kurzstrecken Essen und Trinken ganz verboten.

Wer häufig die Fahrzeuge verschmutzt, etwa öfter mal sturzbetrunken den Heimweg antritt und ins Auto kotzt, wird von den Anbietern zunächst ganz ausgeschlossen. Später, wenn es kaum noch andere Fortbewegungsmittel gibt, gilt die Nutzung evtl. als Grundrecht und darf nicht mehr verweigert werden – auf dem Weg zu so einem Gesetz bleiben aber viele höchst unangenehm auf der Strecke.

Vielleicht gibt es irgendwann eine Hatz auf „Verschmutzer“, die in dem Versuch gipfelt, Verschmutzungen über die Überwachungskamera automatisch festzustellen und den Fahrgast nicht aus dem Fahrzeug zu lassen, bevor er die Reinigung bezahlt hat. Inklusive der Kollateralschäden bei fehlerhafter Erkennung einer Verschmutzung.

Unüberwachte Fortbewegung mit einem motorisierten Fahrzeug (egal ob eigenes oder Taxi) wird letztlich fast vollständig unmöglich.
Zottels Zeug
  last edited: Sat, 28 Mar 2015 03:44:30 +0100  
Seit ich die Möglichkeiten von rsync kennengelernt habe, mag ich Incremental Backups nicht mehr. Sie sind mir vergleichsweise zu eingeschränkt: Es wird immer ein Full Backup, also ein komplettes Backup aller Daten, benötigt, auf das sich die Incremental Backups beziehen, und ein Incremental Backup baut auf dem vorherigen auf.
Für ein Restore muss also immer eine Reihe von korrekten Incremental Backups vorhanden sein, und das Full Backup, auf das sie sich beziehen, muss ebenfalls ok sein, sonst ist man verloren. Mit anderen Worten: Man sollte mindestens einmal pro Woche ein Full Backup ziehen, sonst wird das ganze zu unsicher.
Und: Mit allen Backup-Lösungen, die Incremental Backups nutzen und normalerweise komprimierte Backup-Archive abspeichern, ist es relativ kompliziert, einzelne Dateien aus dem Backup wiederherzustellen.

Rsync-Backups mit Hardlinks


Ein Rsync-Backup mir Hardlinks ist da viel schöner: Alle zu speichernden Verzeichnisbäume werden einfach so, wie sie sind, auf dem Backup-Server repliziert. Ein Restore einer Datei beschränkt sich also darauf, diese Datei per scp vom Backup-Server auf den Hauptserver zurückzukopieren.
Und jetzt kommt das wirklich geniale:
Über entsprechende Kommandozeilen-Optionen kann man rsync anweisen, die neue Kopie der Verzeichnisbäume beim Backup als Hardlinks anzulegen, sofern die Dateien sich nicht geändert haben.

Hardlinks


Das zu erklären erfordert einen kleinen Exkurs: Was sind eigentlich Hardlinks?
Zur Abgrenzung seien zunächst Softlinks erklärt: Das ist ähnlich dem, was Windows mit .lnk-Dateien tut: Ein Softlink enthält den Pfad zu einer anderen Datei (oder einem anderen Verzeichnis), auf die er verweist. Wird ein Softlink geöffnet, folgt das Betriebssystem dem angegebenen Pfad und öffnet dann diese Datei. Ist die Datei nicht mehr vorhanden, zeigt der Link ins Leere („dangling softlink“), und ein File not Found Error wird erzeugt.
Softlinks funktionieren auch über Filesystem-Grenzen hinweg, d.h. ein Softlink auf einer Festplatte kann auf eine Datei auf einer anderen Festplatte zeigen.
Anders Hardlinks.
Hardlinks kann es nur auf dem gleichen Filesystem geben, denn es sind mehrere Verzeichniseinträge, die auf die gleichen Daten verweisen.
Das können verschiedene Namen innerhalb des gleichen Verzeichnisses sein (so gibt es viele Kommandozeilen-Tools unter Linux, die sich, je nachdem, mit welchem Namen sie aufgerufen werden, unterschiedlich verhalten), aber auch Verzeichniseinträge in ganz unterschiedlichen Verzeichnissen.
Mit dem Befehl ln lassen sich sowohl Hard- wie auch Softlinks erzeugen. Ohne Parameter außer Quell- und Zieldatei werden Hardlinks erzeugt, mit dem Parameter -s Softlinks.
Das Windows-Filesystem NTFS unterstützt grundsätzlich Hardlinks, es gibt aber in der Windows-Oberfläche wie auch auf der Kommandozeile keine Möglichkeit, sie auch zu nutzen.
Wenn es mehrere Hardlinks auf die gleichen Daten gibt und eine dieser „Dateien“ wird gelöscht, löscht das Dateisystem nur diesen Verzeichniseintrag – die Daten selbst bleiben auf der Platte erhalten, und über die anderen Hardlinks kann noch auf sie zugegriffen werden. Erst wenn der letzte Hardlink gelöscht wird, werden die Daten auf der Platte als frei markiert und können durch andere Dateien überschrieben werden.

Rsync und Hardlinks


Genau dieses Verhalten kann sich rsync zunutze machen: Beim ersten Backup-Lauf werden einfach alle Dateien auf den Zielserver kopiert. Beim zweiten Backup-Lauf werden alle Dateien, die sich nicht geändert haben, auf dem Zielserver als Hardlinks zum ersten Backup erstellt und brauchen dadurch keinen zusätzlichen Plattenplatz. Nur die Dateien, die sich tatsächlich geändert haben oder neu erstellt wurden, werden auf den Zielserver kopiert und brauchen dort zusätzlichen Platz.
Wird eine Datei auf dem Hauptserver gelöscht, findet sie keinen Eingang mehr ins neue Backup. Sie ist aber beispielsweise noch in sieben alten Backups vorhanden – alles Hardlinks auf die gleichen Daten.
Wird das erste Backup gelöscht, weil es zu alt geworden ist, zeigen noch sechs Hardlinks auf die Daten – und so weiter, bis das siebte Backup gelöscht wird und damit dann tatsächlich der Plattenplatz freigegeben wird.
Rsync ist sehr effizient in der Erkennung von geänderten Dateien und überträgt nur die Differenz zwischen alter und neuer Version einer Datei über das Netzwerk. Dadurch ist es – nachdem das erste, komplette Backup einmal erstellt wurde – sehr schnell.
Auf diese Weise erhält man Backups, die sehr viel besser sind als das, was die üblichen Backup-Tools so anbieten: Zwar ist das Backup nicht komprimiert, da aber nur Änderungen tatsächlich Platz brauchen, kann man sehr viele Backups des gleichen Servers unterbringen, ohne groß zusätzlichen Plattenplatz zu benötigen.
Die Backups sind direkt ohne Entpacken lesbar, und eine Datei, die man wiederherstellen will, kann man einfach per scp auf den Hauptserver zurückkopieren. Mit entsprechenden Skripten kann man zum Beispiel 5 tägliche Backups behalten, zwei wöchentliche und ein monatliches. Alles andere wird gelöscht. Das ist übrigens genau das, was auch Time Machine, das Backup-System von Mac OS X, tut.

Rsync und Backupninja


Das alles geht – aber es ist nicht ganz einfach, sich rsync selbst per Cronjob so zu konfigurieren, dass es all das tut. Rsync glänzt mit extrem vielen Optionen, es tut per Default nicht das, was wir hier wollen, und es muss um zusätzliche Skripte ergänzt werden, um nicht mehr benötigte Backups zu löschen.
Da kommt Backupninja gerade recht. Backupninja ist eine Sammlung von Skripten, die Backups von verschiedenen Quellen (z.B. Dateisysteme, Datenbanken) mit einfachen Config-Files ermöglicht, ohne dass man sich Gedanken darum machen muss, welche Einstellungen bei den verschiedenen genutzten Backup-Tools sinnvoll sind.
Backupninja kann mit vielen Tools zusammenarbeiten, hier soll es aber ausschließlich um rsync gehen.

Backupninja fixen


Nach der Installation von Backupninja kann man im Verzeichnis /etc/backup.d/ Dateien anlegen, die die verschiedenen Backups steuern, die man nutzen will. Die Dateierweiterung bestimmt dabei jeweils, welches Tool genutzt werden soll.
Für rsync ist, wie könnte es anders sein, die Erweiterung .rsync vorgesehen.
Da gibt es aber ein Problem:
Die aktuelle Version von Backupninja, die bei Debian und Ubuntu LTS mitgeliefert wird, hat ein Problem mit dem su -c Befehl, der auf dem Zielserver ausgeführt wird, und funktioniert somit nicht korrekt.
Das wurde in Backupninja 1.0.2 bereits gefixt (siehe hier), aber bei beiden Distributionen wird aktuell noch 1.0.1 ausgliefert. Wir müssen das also selbst fixen.
Dazu gehen wir nach /usr/share/backupninja/ (als root) und kopieren die Datei rsync (die für alle Dateien in /etc/backup.d/ mit der Endung .rsync zuständig ist), zum Beispiel nach rsyncf (wie rsync fixed).
Dort ersetzen wir die Zeilen
  debug $nice $rsync ${rsync_options[@]} $filelist_flag $excludes $batch_option $orig $dest_path
  set_pipefail
  $nice su -c "$rsync ${rsync_options[@]} --delete-excluded $filelist_flag $excludes $batch_option $orig $dest_path" | tee -a $log


durch

  command="$rsync ${rsync_options[@]} --delete-excluded $filelist_flag $excludes $batch_option $orig $dest_path"
  debug $nice su -c "$command"
  set_pipefail
  $nice su -c "$command" | tee -a $log


Jetzt können wir in /etc/backup.d/ eine Datei mit der Erweiterung .rsyncf anlegen, die unser gefixtes rsync-Skript für Backupninja benutzt.

Die Datei in /etc/backup.d/


Für alle anderen Backup-Möglichkeiten in Backupninja (zumindest die, die ich mir angesehen habe) gilt: Schau Dir die Datei in /usr/share/backupninja an, das ist in den Kommentaren gut dokumentiert, da ist das Erstellen einer entsprechenden Backup-Anweisung Pipifax.
Nicht ganz so bei rsync, leider.
Hier die wichtigen Optionen:

Ganz oben ohne Abschnitt:
when: Ausführungszeit, z.B. „everyday at 05“ (täglich um 5:00 Uhr)

Abschnitt [general]:
mountpoint: Backup-Verzeichnis auf dem Remote-Server
backupdir: Verzeichnis auf dem Remote-Server unter mountpoint, in dem die Backups für diesen Server gespeichert werden sollen
format: short = Eine Anzahl von täglichen Backups behalten, long = eine Anzahl von täglichen, wöchentlichen und monatlichen Backups behalten (s.u.), mirror = gar keine Backups behalten, nur spiegeln
days: für format = short: so viele tägliche Backups behalten (Default 7)
keepdaily: für format = long: so viele tägliche Backups behalten (Default 5)
keepweekly: für format = long: so viele wöchentliche Backups behalten (Default 3)
keepmonthly: für format = long: so viele monatliche Backups behalten (Default 1)

Abschnitt [source]:
include: Kann mehrmals vorkommen; Verzeichnisse, die gesichert werden sollen
exclude: Kann mehrmals vorkommen; Verzeichnisse, die nicht gesichert werden sollen
rsync_options: Optionen für rsync (Default -av --delete --recursive. Ich habe -avzHAXS --delete gesetzt, damit mit allen möglichen Dateien korrekt umgegangen wird, speziell mit dem großen sparse file auf meinem Zimbra- Server. --recursive is nicht nötig, weil -a das impliziert.)

Abschnitt [dest]:
dest: local oder remote, hier remote
host: Server, auf den kopiert werden soll
user: User auf dem Zielsystem
id_file: SSH-Keyfile für die Authentifizierung. Der Default ist hier $HOME/.ssh/id_dsa, heutzutage braucht man aber normalerweise $HOME/.ssh/id_rsa
Nebenbemerkung: Remote rsync läuft heutzutage via ssh. Damit das automatisiert funktionieren kann, muss natürlich eine passwortlose Authentifizierung am Zielrechner mit entsprechenden Schlüsseln möglich sein. Wie man das konfiguriert beschreibe ich hier nicht, gebe aber auf Nachfrage gerne Hilfestellung.

Hier eine Beispiel-Konfiguration, wie ich sie verwende (/etc/backup.d/20-rsync.rsyncf):
when = everyday at 05

[general]
format = long
mountpoint = /
backupdir = var/backups/main

[source]
include = /
exclude = /dev
exclude = /proc
exclude = /run
exclude = /sys
exclude = /tmp

[dest]
dest = remote
host = foobar.backupserver.com
user = root
id_file = /root/.ssh/id_rsa


Allgemeine Überlegungen


Meiner Meinung nach ist diese Art von Backup allen anderen überlegen. Das Problem: Backup-Space, den man vom VPS-Provider bekommt, ist meist nur per FTP erreichbar, nicht per ssh/rsync.
Ich habe deshalb die Entscheidung getroffen, mir statt dessen einen eigenen VPS nur für Backups zu mieten. Das kostet bei meinem Hoster € 8,– im Monat und beinhaltet 500 GB Plattenplatz. Damit mache ich Backups von meinen zwei Servern, und ich habe vor, in Zukunft auch von zu Hause aus per rsync Backups auf diesen Server zu machen.

#Administration #Linux
Klaus
  
Sehr interessant, werde ich mir mal genauer ansehen.
Hatte sehr lange mit BackupPC gearbeitet. Verwendet auch rsync und hat dateibasierte Deduplizierung mit Hardlinks, macht auch inkrementelle und differentielle Backups, kann diese aber zu vollen Backups direkt zusammensetzen.
Zottels Zeug
  last edited: Wed, 18 Feb 2015 15:42:58 +0100  
Als um Weihnachten herum die Werbespots für das Tealounge-System im Fernsehen liefen, war ich hin- und hergerissen: „Yaaay! Endlich mal eine Teemaschine, nicht nur Gadgets für Kaffeetrinker! Will ich haben, will ich haben!“ – „Uh, aber ich trinke doch normalerweise nur offenen Tee aus dem Teeladen. Kann dieser Industrietee überhaupt schmecken? Will ich wirklich so viel Abfall produzieren? Und extrem teuer sind die Kapseln auch …“
Der Gadgeteer in mir hat schließlich gewonnen; seit Ende Dezember haben wir so ein Gerät zu Hause. Hier meine Erfahrungen.

Teekanne oder Nestlé?


Das war erst einmal die Grundfrage. Es gibt ja schon seit längerer Zeit (ohne, dass ich vorher etwas davon mitbekommen hätte) die Special.T-Maschine von Nestlé – ebenfalls eine Tee-Kapselmaschine.
Ich versuchte, über beide Systeme im Internet etwas herauszufinden. Zur Special.T habe ich relativ wenig gefunden, darunter viele eher negative Kommentare. Zum Tealounge-System dagegen gab es relativ viel zu lesen, und fast nur Positives – was sicher auch daran liegt, dass Teekanne das schlau eingefädelt hat, indem sie diversen Bloggern und „Heimtestern“ kostenlos Maschinen zur Verfügung gestellt haben.
Da die Ergebnisse insgesamt aber wenig aussagekräftig waren, haben dann eher andere Punkte den Ausschlag gegeben:
Wenn ich schon viel Abfall produziere, muss es ja nicht auch noch das sehr energieintensive Aluminium sein. Die Special.T-Kapseln gibt es überhaupt nicht im Handel, nicht einmal in Nespresso-Läden, während Tealounge-Kapseln immerhin bei Media Markt, Saturn, expert, EP, Medimax und Euronics zu haben sind. (Ich hoffe immer noch, dass das noch auf Supermärkte im allgemeinen ausgedehnt wird.) Internet-Shops bieten natürlich beide Unternehmen, aber es ist doch angenehmer, wenn man auch vor Ort Einkaufsmöglichkeiten hat.
Und schließlich ist mir der Nestlé-Konzern an sich sehr unsympathisch. Dann doch lieber Teekanne.

Packungsinhalt und Maschine


Im Vergleich zu mancher Kaffekapselmaschine ist die Tealounge-Maschine relativ schmal, lässt sich also auch in einer vollgestellten Küche noch ganz gut unterbringen. Es gibt sie in verschiedenen Farben; wir haben „Brilliant Silver“ gewählt.
Der Wassertank fasst einen Liter Wasser, mit Wasserfilter weniger.
An der Oberseite befindet sich der große Hebel, mit dem die Kapselkammer geöffnet und verschlossen wird, und der Ein-/Aus-Knopf.
An der Vorderseite finden sich neben dem Hahn, aus dem der Tee kommt, die Knöpfe für Heißwasser/Reinigung, schwarzen Tee, grünen Tee, Kräuter-/Früchtetee und Chai-Kapseln. Je nachdem, welche Taste man drückt, werden passende Ziehzeiten und Wassertemperaturen für die jeweilige Teesorte genutzt, und im Falle von Chai (wo zwei Kapseln pro Taste zum Einsatz kommen) wird nur die halbe Wassermenge ausgespuckt – das dürfte dem Kaffeeprogramm normaler Maschinen aus dem K-fee-System entsprechen, so dass man theoretisch auch Kaffee mit der Maschine machen könnte. Wahrscheinlich wird aber kein Teeliebhaber seine Maschine derart entweihen, und es führt auch zum Garantieverlust: Laut den Garantiebestimmungen dürfen nur Kapseln aus dem K-fee-System, die Tee oder Milch enthalten, genutzt werden.
Die Wassermenge pro Tasse ist konfigurierbar. Da das aber nur die Menge Wasser beeinflusst, die nach dem Ziehen noch zusätzlich durch die Kapsel fließt, ist damit auch eine Änderung der Teestärke verbunden. Letztlich handelt es sich ja um eine Art Samowar-System: Beim Ziehen wird sehr starker Tee erzeugt, der dann durch nachfließendes Wasser wieder verdünnt wird.
Die Kapseln haben jeweils die Farbe derjenigen Taste, die man zur Zubereitung drücken muss, so dass man eigentlich nicht viel falsch machen kann.
Wenn man den Hebel der Maschine nach der Zubereitung wieder anhebt, fällt die Kapsel in einen Behälter im Inneren der Maschine, der zu Leerung und Säuberung nach vorne herausgezogen werden kann.
Die abnehmbaren Teile sind Spülmaschinenfest, allerdings soll nur das Eco-Programm der Spülmaschine (45 °C/50 °C) benutzt werden.
Dabei sind auch noch ein Wasserfilter und zwei Reinigungskapseln. Die Maschine kann auch ohne den Wasserfilter benutzt werden. Das ist für Teezubereitung allgemein natürlich weniger empfehlenswert, aber wenn man ohnehin schon einen Wasserfilter zu Hause hat, kann man sich die relativ teuren Filter des Systems sparen.
Außerdem liegt eine Auswahl verschiedener Tees bei. Warum Teekanne allerdings ausgerechnet diese Auswahl getroffen hat, ist mir schleierhaft – dazu gleich mehr.

Die Tees und ihre Qualität


Um es gleich vorauszuschicken: Die Tees sind größtenteils sehr gut. Nichts wirklich Besonderes, ein „Wow!“ werden sie einem Teekenner nicht entlocken. Aber der Standard ist auf jeden Fall auch für regelmäßige Teetrinker mehr als ausreichend.
Ich würde mir wünschen, dass in Zukunft besondere Teesorten hinzukommen, wie etwa ein sehr herber Darjeeling oder ein kräftiger Grüntee.
Mit immerhin 24 Teesorten ist durchaus Auswahl da. Das sollte aber nicht darüber hinwegtäuschen, dass für Liebhaber klassischer Tees, also Schwarz- und Grüntees ohne Aromatisierung, von den 24 gerade noch sechs übrigbleiben.
Klar – Teekanne muss alle Geschmäcker halbwegs abdecken, insofern ist das nicht verwunderlich. Aber „24 Tees!!!“ klingt auf den ersten Blick mehr als es wirklich ist.
An den klassischen Tees setzt auch meine Kritik am Starterset an – sie sind nämlich kaum vertreten. Aus den zehn enthaltenen Sorten sind es genau zwei: Finest Darjeeling für die Schwarztees (nach meinem Geschmack bei weitem nicht der beste Schwarztee im Sortiment) und Pure Sencha für die Grüntees. Drei, wenn man Earl Grey zu den Klassikern zählen möchte. Der Rest sind aromatisierte Tees, Kräuter- und Früchtetees.
Geschmackliche Highlights im Sortiment sind für mich vor allem Morning Sunrise, Dark Assam, Legend 1882 (alles Schwarztees) und der aromatisierte Früchtetee Orange Splash. Alle vier sind, für mich völlig unverständlich, im Starterset nicht enthalten.
Als gut, aber nicht sehr gut empfinde ich The Earl of Grey, Pure Sencha, Finest Oolong, und Sencha Flower (aromatisiert). Die Grüntees dürften für meinen Geschmack alle etwas kräftiger sein.
Meine Frau trinkt gern Sencha Flower, Pai Mu Tan Peach (aromatisierte Grüntees), Blueberry Muffin (aromatisierter Schwarztee), The Earl of Grey und Rooibos Vanilla Cookie (aromatisierter Rooibos-Tee).
Grundsätzlich ok waren für uns beide auch Sweet Apple (aromatisierter Früchtetee), Mint Experience (Pfefferminztee), Camomille Garden (Kamillentee) und Fennel Anise Duo (Fenchel/Anis) – mit dem Gefühl, dass man bei solchen Tees ja eigentlich fast nichts falsch machen kann (finden zumindest wir als seltene Trinker von Kräutertees) und der Preis dann schon arg happig ist.
Wenig begeisternd erschien uns Wild Berry (aromatisierter Früchtetee); die beiliegenden Chai Latte Capetown Style und Ginger Sprizz (aromatisierter Ingwer/Zitronentee) mochten wir überhaupt nicht.
Die Sorten Fresh Lemon (aromatisierter Schwarztee), Golden Green (aromatisierter Grüntee), Mountain Harmony (Kräutertee) und die anderen Chais haben wir (z.T. noch) nicht probiert.
Neuerdings gibt es auch Teekapseln von einem Fremdhersteller – Aldi bietet sie für sein K-fee-System Expressi an. Preislich sind sie sehr interessant, da sie nur die Hälfte der Teekanne-Kapseln kosten. Geschmacklich haben wir sie – bis auf den Früchtetee – leider als unterirdisch empfunden, so dass das keine Option sein wird.
Erhältlich sind die Kapseln in diversen Elektronikmärkten sowie im Internet unter #^https://www.tealoungesystem.com/ . Als ich zuletzt geschaut habe, war die Auswahl bei Saturn in Fürth und Mediamarkt in Nürnberg-Kleinreuth sehr dürftig, nur wenige Sorten vorhanden, und nicht die guten. Bei TeVi (expert) gleich um die Ecke des genannten Mediamarktes ist dagegen oft sogar das gesamte Sortiment vorrätig – ein Geheimtipp auch insofern, als kurioserweise ausgerechnet dieser Markt nicht online bei Teekanne gelistet ist.

Erfahrungen


Ich war ja zunächst schon skeptisch, ob sich der Kauf lohnen wird, ob die Maschine nicht letztlich, ähnlich wie unsere Tassimo, hauptsächlich in der Ecke stehen wird.
Das hat sich zum Glück nicht so entwickelt. Tatsächlich trinken wir beide jetzt viel mehr Tee als jemals zuvor. Das liegt vor allem daran, dass man sich jederzeit einfach und schnell eine Tasse Tee machen kann.
Früher habe ich Tee vor allem am Wochenende und im Urlaub getrunken, meine Frau trank manchmal mit, manchmal auch nicht. Für eine einzelne Tasse war es mir zu aufwendig, für mehrere Tassen hatte ich sonst nicht die Muße.
Jetzt trinken wir beide 2-4 Tassen täglich, und das mit großem Genuss. Die „kleine Auszeit zwischendurch“.
Das ist sehr angenehm, und ich möchte meine Tealounge-Maschine nicht mehr missen.
Aber natürlich ist nicht alles perfekt.

Nachteile und Unpraktisches


Als allererstes sind hier natürlich Preis und Müll zu nennen.
Eine Packung mit acht Kapseln kostet € 2,79. Eine Tasse Tee aus der Tealounge-Maschine liegt somit bei knapp 35 ct, mit Zubehör (Reinigungskapseln, Wasserfilter, Entkalker etc.) vielleicht knapp 40 ct. Das ist wirklich sehr üppig. Letztlich kommt man auf einen 100g-Preis von etwa 18-25 Euro – da muss man im Teeladen schon sehr exquisite Ware kaufen, um auf ähnliche Werte zu kommen.
Grundsätzlich ist es auch möglich, die Kapseln aufzuschneiden und selbst mit Tee zu bestücken – Plastikfolie oben aufschneiden (abziehen geht nicht), alten Tee raus, neuen Tee rein, Alufolie drüberspannen, fertig – ich habs ausprobiert. Das soll kein Tipp sein; ich kann mir durchaus vorstellen, dass das mit dem Druck mal nicht so gut funktioniert wie die Maschine das erwartet, und ob man danach noch auf Garantie hoffen kann, ist fraglich. In der Praxis mache ich das aber eh nicht, denn der Vorteil des Geräts ist ja gerade die schnelle Zubereitung mal eben nebenbei.
Und der Müll – ja. Wie bei allen Kapselmaschinen, eben. Da frage ich mich schon manchmal, ob das wirklich sein muss. Ob nicht das allein Grund genug wäre, wieder auf manuelle Teebereitung umzusteigen. Ein schlechtes Gewissen ist auf jeden Fall immer dabei. Es wäre sehr schön, wenn hier verrottbare Kunststoffe eingesetzt werden könnten, so dass man die ganze Kapsel in die Biotonne werfen könnte. Die Frage ist natürlich, ob es die in der nötigen Aromadichtheit, Lebensmittelechtheit und Temperaturresistenz überhaupt gibt.
Ein gewisses Ärgernis ist außerdem, dass die Maschine nicht mitbekommt, wenn zu wenig oder sogar gar kein Wasser mehr im Tank ist. Dann fängt sie an, komische Geräusche zu machen und bricht die Zubereitung ab – je nachdem, wie viel Tee bis dahin schon in die Tasse geflossen ist, kann man den und die Kapsel dann oft wegwerfen. Das müsste eigentlich nicht sein.
Der Tank selbst ist außerdem etwas klein geraten. Mit Wasserfilter reicht er gerade einmal für drei Tassen. Man hat also viele Chancen, das Auffüllen zu vergessen …

Fazit


Für Leute, die lieber Tee als Kaffee trinken und gerne den gleichen Komfort hätten wie die Kaffeekollegen mit ihren Automaten ist die Tealounge-Maschine sicher eine gute Anschaffung. Der Geschmack der Tees ist gut, die Auswahl ausreichend, und eine schnelle Tasse Tee am Abend ist einfach etwas schönes.
Wie bei allen Kapselmaschinen ist natürlich der Preis des Tees exorbitant hoch, und der entstehende Abfall wäre durchaus ein guter Grund, lieber auf das System zu verzichten.
Insgesamt bin ich aber sehr glücklich mit dem Gerät und kann es jedem Teetrinker empfehlen – solange die Ansprüche an die Teequalität nicht extrem hoch liegen.

#Gadgets #Tee
Zottels Zeug
  last edited: Fri, 28 Nov 2014 21:45:53 +0100  
Eine Fußbodenheizung kann im Vergleich zu traditionellen Heizkörpern Energie sparen, weil sie eine deutlich geringere Vorlauftemperatur benötigt. Um ihr volles Potential auszuschöpfen, muss sie aber auch richtig eingestellt werden – und das ist nicht so ganz einfach.
Einiges aus dem folgenden Artikel lässt sich auch auf Heizungsanlagen mit Heizkörpern übertragen, mein Fokus liegt aber auf der Fußboden- bzw. Wandheizung.

Grundlagen


Die Thermostate in den Räumen funktionieren nicht so wie bei Heizkörpern, regeln also nicht stufenlos. Sie machen einfach nur die Leitung auf oder zu, nur 0 und 1.
Das Ziel bei der Einstellung der Heizung ist eine möglichst große Spreizung zwischen Vor- und Rücklauftemperatur, d.h. im theoretischen Ideal ist das heiße Wasser, das in den Heizkreislauf eingespeist wird (= Vorlauf), auf Zimmertemperatur abgekühlt, wenn es wieder zur Therme zurückkommt (= Rücklauf). Mit anderen Worten: Es wird nur so viel Wärme erzeugt, wie wirklich gebraucht wird, kein bisschen mehr. Ganz so ist das natürlich nicht erreichbar. Und: Zumindest unsere Therme zeigt die Rücklauftemperatur auch nicht an, eigentlich auch nicht richtig den Vorlauf, nur die Temperatur, die das Wasser in der Heizung gerade hat – wenn der Brenner aus ist, entspricht das also dem Rücklauf, wenn er an ist dem Vorlauf.
Alle modernen Heizungen sind „außentemperaturgeführt“, d.h. sie haben einen Temperaturfühler an der Außenwand des Hauses und regeln die Vorlauftemperatur in Bezug zur Außentemperatur. Weil die benötigten Wärmemengen natürlich nicht in jedem Haus gleich sind, gibt es die „Heizkurve“. In der Anleitung zur Therme (meist nur in der Version, die für den Heizungsbauer bestimmt ist, aber zumindest wir haben die bekommen) sind die Heizkurven in einer Grafik dargestellt; man kann anhand einer Zahl in der Konfiguration der Heizung eine auswählen. In der Grafik kann man sehen, welche Außentemperaturen zu welchen Vorlauftemperaturen führen. Sie unterscheiden sich in der Steigung, d.h. ein Grad weniger Außentemperatur führt zu einem halben Grad mehr Vorlauftemperatur, oder eben zu 0,7 Grad oder 0,3 Grad etc.
Zusätzlich kann man die Kurve nach oben oder unten verschieben, um die gleiche Steigung zu haben, aber eine niedrigere oder höhere Vorlauftemperatur bei einer bestimmten Außentemperatur zu erzielen. Damit wird der sogenannte „Fußpunkt“ eingestellt. Für mich wenig einleuchtend ist das je nach Fabrikat dadurch zu erreichen, dass man die gewünschte „Zimmertemperatur“ verändert. So ist bei uns, wenn ich mich recht erinnere, eine Zimmertemperatur von 23°C eingestellt, obwohl die tatsächlich erreichte Temperatur nur bei um die 21°C liegt. Einige Systeme bieten auch die Möglichkeit, anhand einer tatsächlich gemessenen Zimmertemperatur zu regeln, die dann aber nur in einem Raum gemessen wird.
Neben den Thermostaten können die einzelnen Heizkreisläufe der Fußbodenheizung für die Zimmer (teils mehrere Zimmer, z.B. Flur + Klo + Hauswirtschaftsraum bei uns) an Ventilen geregelt werden, die sich meist irgendwo in einem Kasten in der Wand befinden. Hier wird die tatsächliche Durchflussmenge bestimmt, wenn der jeweilige Kreislauf gerade offen ist. Das wird auch als „hydraulischer Abgleich“ bezeichnet.

Einstellung der Fußbodenheizung


Jetzt wird es kompliziert und zeitaufwendig:
Die Heizung ist dann am effizientesten, wenn sie über den hydraulischen Abgleich so eingestellt ist, dass für jedes Zimmer genau die benötigte Wärmemenge zur Verfügung gestellt wird. Das bedeutet:
Man dreht alle Raumthermostate auf die maximale Temperatur, damit sie die Kreise alle aufmachen. Das Ventil für den wärmsten Raum (meist Bad) dreht man komplett auf, die anderen je nach geschätzter Charakteristik vielleicht ein bisschen weiter zu oder auch nicht. Dann regelt man tage- bis wochenlang am Fußpunkt und vielleicht auch schon an der Heizkurve herum, bis man einen Wert erreicht hat, wo es im wärmsten Raum nicht zu heiß und auch nicht zu kalt wird. Derweil regelt man auch die Ventile für die anderen Räume ein, wenn es dort zu heiß oder zu kalt wird.
Das dauert, auch deshalb, weil so eine Fußbodenheizung ja furchtbar träge ist und man letztlich erst am nächsten Tag beurteilen kann, ob die neue Einstellung jetzt passt.
Dann wartet man auf anderes Wetter. Ob die Steigung der Heizkurve passt, kann man ja erst feststellen, wenn es kälter oder wärmer wird. Wenn man merkt, dass es bei kaltem Wetter zu kalt ist (bei wärmerem Wetter aber richtig), muss die Heizkurve steiler werden. Ist es bei wärmerem Wetter zu warm (bei kaltem aber richtig), kann man die Kurve flacher machen. Dabei muss man aber evtl. den Fußpunkt wieder ein Stück nach oben/unten schieben, damit bei kaltem bzw. warmem Wetter wieder die gleiche Vorlauftemperatur gefahren wird wie bisher.
Letztlich muss man fast eine ganze Heizperiode lang basteln (irgendwann dann natürlich mit wieder aktivierten Raumthermostaten, sonst bekommt man Akzeptanzprobleme in der Familie). Wenn die Raumthermostate wieder auf die gewünschten Temperaturen eingestellt sind, kann man nur noch „zu kalt“ feststellen, d.h. man macht die Kurve flacher, bis es bei Kälte zu kalt wird, und macht sie dann wieder etwas steiler, und man versucht auf ähnliche Weise, den idealen Fußpunkt zu finden.
Theoretisch ist der hydraulische Abgleich Aufgabe des Heizungsbauers, aber wie anhand des Aufwands klar wird: Zumindest ideal wird es sicher kein Heizungsbauer einstellen. Bei unserem Haus wurde nur Pi mal Daumen irgendwas eingestellt, keine weiteren Besuche für Nachregelungen, und natürlich mit viel zu hoher Vorlauftemperatur – so kann man nichts falsch machen, die Raumthermostate machen ja dann zu. Nur lässt sich natürlich einiges einsparen, wenn man es richtig macht.
Folgt man der reinen Theorie, sollte man die Raumthermostate immer auf 30°C+ eingestellt lassen – wenn die Heizung perfekt konfiguriert ist, passt die Temperatur dann ja. In der Praxis kommt aber die Sonneneinstrahlung hinzu: An sonnigen Tagen sorgt sie für sehr kräftige zusätzliche Aufheizung der Räume – und der Außentemperaturfühler der Heizung bekommt das nicht mit, weil er sinnvollerweise normalerweise an der Nordseite des Hauses angebracht wird. Dadurch würde es viel zu warm werden.
An sonnigen Tagen ist es also erwünscht, dass das Raumthermostat den Heizkreis des Zimmers schließt. Dass die Heizung dann evtl. warmes Wasser an allen Kreisen vorbei pumpt (weil sie geschlossen sind) und es sinnlos auf z.B. 32°C hält, ist nicht zu verhindern.
Was sich aber verhindern lässt, ist eine viel zu hohe Einstellung der Vorlauftemperatur, die unnötig Energie verschwendet. Was unser Heizungsbauer hinterlassen hat, hätte je nach Außentemperatur häufig zu Vorlauftemperaturen jenseits der 50°C geführt – die einzelnen Kreise hätten also immer mal für eine Weile aufgemacht, dann wieder geschlossen, und die Heizung hätte völlig unnötig das Wasser ständig auf dieser hohen Temperatur gehalten.
Das muss nicht sein.
Zum Schluss bleibt noch die „Heizgrenztemperatur“ zu erwähnen: Das ist die Außentemperatur, unterhalb der die Heizung überhaupt erst aktiviert wird. Wie schon erwähnt habe ich sie für unser Haus auf 12°C eingestellt.
Auch hier sollte man aber nicht alles der Automatik überlassen: In der Übergangszeit zwischen Sommer und Herbst liegen die Temperaturen am frühen Morgen oft unterhalb dieses Wertes, so dass die Heizung aktiviert werden würde. Weil es tagsüber aber wesentlich wärmer wird, ist das noch nicht nötig.
Während der Sommermonate schalte ich die Heizung deshalb auf reinen Warmwasserbetrieb, so dass die Heizkreise für die Erwärmung des Hauses gar nicht beschickt werden. Erst wenn es so kalt wird, dass gefühlt eine Beheizung des Hauses notwendig wird, aktiviere ich die Heizung wieder.

#Energiesparen
Kai
Kai
 
Das ist mal ein interessanter Artikel...werd ich mal testen
Zottels Zeug
  last edited: Fri, 28 Nov 2014 21:56:11 +0100  
Im Zuge unseres Neubaus vor zwei Jahren, und zuvor schon in dem Reihenhaus, das wir zur Miete bewohnt haben, habe ich mich sehr intensiv mit verschiedenen technischen Möglichkeiten zum Energiesparen beschäftigt. Hier ein Überblick über meine Ergebnisse.

Heizungssteuerung/-absenkung


Wenn man traditionelle Heizkörper sein eigen nennt, auch als Mieter in einer Wohnung, hat man mittlerweile eine große Auswahl an Systemen, die bei Abwesenheit die Raumtemperaturen absenken können. Statt des traditionellen Thermostats montiert man dazu einen elektronischen Regler auf die Heizung, funkgesteuert durch ein Raumthermostat oder auch direkt am Heizkörper selbst geregelt. Auch die Heizungsanlage selbst kann so eingestellt werden, dass sie nachts oder, wo sinnvoll, auch tagsüber, die Raumtemperatur absenkt.
Grundsätzlich ist das eine sehr sinnvolle Möglichkeit, Heizkosten zu sparen. Die Einsparpotentiale werden allerdings oft überschätzt.
„Ich heize acht Stunden lang nicht, das ist ein Drittel des Tages, also müsste ich etwa 33% einsparen.“ Mitnichten.
Die Energie, die beim Abkühlen des Raumes eingespart wird, muss später wieder hineingesteckt werden, um ihn wieder auf die ursprüngliche Temperatur zu bringen – das ist ein Nullsummenspiel.
Die Einsparung ergibt sich ausschließlich dadurch, dass bei einem abgekühlten Raum die Differenz zur Außentemperatur geringer wird. Je größer sie ist, desto mehr Wärmeenergie geht nach draußen verloren. Deshalb lässt sich mit erkalteten Räumen Energie sparen.
Am besten funktioniert das natürlich bei schlecht gedämmten Häusern. Da viel Energie nach außen verloren geht, kühlt sich der nicht mehr geheizte Raum schnell ab, und somit reduziert sich der Energieverlust.
In sehr gut gedämmten Häusern reduziert sich die Temperatur über Nacht kaum – entsprechend gering ist das Einsparpotential. Was nicht heißt, dass man darauf verzichten sollte, jedes eingesparte Kilowatt ist gut. Insofern schadet es auch nicht, bei der Heizung eine Nachtabsenkung zu programmieren, selbst wenn man in einem Passivhaus wohnt. Und wenn es nicht ums Geld geht, sondern ums Energiesparen aus Prinzip, kann man nichts falsch machen.
Wenn man aber mit dem Ziel der Kosteneinsparung entsprechende Technik anschafft, muss man schon überlegen, ob die Anschaffungskosten je hereingeholt werden können.
Grob kann man sagen: Im Altbau sicher ja, im Neubau wahrscheinlich nicht, dazwischen muss man abwägen.

Wärmepumpen


Diese Anschaffung hatte ich für unseren Neubau überlegt, dann aber verworfen. Eine Luft-Wasser-Wärmepumpe wäre halbwegs bezahlbar gewesen, ist aber wohl (wie ich aus Berichten verschiedener Leute, die hoffentlich wirklich mehr wissen als ich, herausgelesen habe) nicht so effizient wie sie oft beworben wird. Sie muss ja aus einer Temperaturdifferenz Energie ziehen, und das tut sie mit der Außenluft, ergo wird das immer schwieriger, je kälter es draußen ist.
Mit anderen Worten: Dann, wenn man am meisten Wärme braucht, ist die Wärmepumpe am ineffizientesten. An kalten Wintertagen hat man eigentlich nichts besseres als einen klassischen Heizstab zur Verfügung. Außerdem tun sich Wärmepumpen recht schwer, höhere Temperaturen zu erzeugen, wie sie für die Warmwasserversorgung nötig sind. Anders gesagt: Genug Wärme für Fußbodenheizung, die ja in einem gut isolierten Haus nur wenig jenseits 30°C Vorlauf braucht, ist kein Problem und schön effizient. Aber die 50°C+ für Warmwasser klappen nicht so gut.
Oder auch für klassische Heizkörper, die je nach Außentemperatur und Dämmung oft mehr als 50°C Vorlauftemperatur benötigen – Luft-Wasser-Wärmepumpen, die für Häuser ohne Fußboden-/Wandheizung verkauft werden (oder auch, meiner Meinung nach unabhängig von der Heizquelle extrem blödsinnig, für Häuser, die sowohl über Fußbodenheizung als auch über Heizkörper geheizt werden, z.B. FBH im EG, aber Heizkörper im OG), halte ich für Nepp.
Ob Luft-Wasser-Wärmepumpen überhaupt richtig sinnvoll sind, ist zumindest diskutabel.
Besser sind Wärmepumpen, die Erdsonden (am besten) oder Schlauchwindungen dicht unter der Erde im Garten nutzen. Aber auch wesentlich teurer. Die Sache mit den Schlauchwindungen ist nicht ganz so teuer. Um einen guten Wärmetausch zu gewährleisten, muss die Erde um die Schläuche aber immer feucht sein. Schwierig in Trockenperioden, und unser Garten wäre für so eine Lösung vmtl. eh zu klein gewesen.
Unser Grundstück war sowieso mit Erdgas versorgt, insofern haben wir uns dann für eine Brennwert-Erdgas-Therme entschieden.
Erdöl ist übrigens immer etwas schwieriger, weil sich Erdöl-Brenner nur schlecht in der Leistung regeln lassen. (Neuerdings gibt es da was, glaube ich, aber neu und teuer.) Das ist insbesondere deshalb problematisch, weil Heizungsbauer (zumindest laut Berichten im Web) dazu tendieren, die Heizungsanlage wesentlich zu groß zu dimensionieren, also eine Anlage zu installieren, die deutlich mehr Heizleistung liefern könnte als das Haus tatsächlich benötigt.

Solarthermie


Ist sinnvoll, und zumindest für die Warmwasserbereitung sollte man das auf jeden Fall in Erwägung ziehen. Natürlich gilt auch hier: Die meiste Wärme steht im Sommer zur Verfügung, wenn man sie gar nicht braucht. Im Winter reicht es meist nicht, um den Warmwasserbedarf zu decken, zumindest nicht, wenn es lange so bewölkt ist wie jetzt. Oft versprechen Firmen, die so etwas verkaufen wollen, das Blaue vom Himmel herunter und rechnen mit Einsparungen, die nie und nimmer zu erzielen sind.
Zumindest bei einem Neubau würde ich das aber auf jeden Fall aufs Dach setzen – und meist ist es eh dabei, weil es sonst relativ schwierig ist, den KfW-vorgeschriebenen Endenergiebedarf einzuhalten.
In unserer Konfiguration (drei Kollektoren) kann im Sommer die Heizung meist ganz ausbleiben, weil der komplette Warmwasserbedarf über Solarthermie gedeckt werden kann.
Empfehlenswert sind Flachkollektoren, evtl. solche von etwas höherer Leistungsklasse (die bei Kälte weniger Wärme an die Umgebung verlieren und auch bei der Energieumsetzung einen hohen Wirkungsgrad haben). Die besten (und teuersten) kommen heute an Vakuum-Röhren-Kollektoren heran.
Vakuum-Röhren-Kollektoren sind teuer, aber sehr effizient. Hauptproblem: Sie sind empfindlich. Im Sommer ist es ganz normal, dass die Kollektoren (ob flach oder Röhre) sich so sehr aufheizen, dass die Wärmegewinnung abgeschaltet wird, um das System nicht zu beschädigen. Röhrenkollektoren können dann explodieren und müssen danach ausgetauscht werden. In solchen Systemen wird somit oft versucht, überschüssige Wärme abzuführen – zum Beispiel im Hochsommer in die Fußbodenheizung. Yay!
Bei der Heizungsunterstützung durch Solarthermie bin ich schon skeptischer. Grundsätzlich gilt: Vom Umweltaspekt her ist das natürlich immer gut. Finanziell rechnen wird es sich in einem energetisch guten neuen Haus aber eher nicht. Die gesamte notwendige Heizenergie ist so gering, dass sich solche Systeme selbst bei einer praktisch unmöglichen hundertprozentigen Einsparung oft nicht rechnen würden. Tatsächlich realistisch sind meist weniger als 30%.
Vielleicht ist es bei einer Luft-Wasser-Wärmepumpe noch anders, wo die Heizenergie im Winter relativ teuer ist. Bei Gas lohnt es sich definitiv nicht.
Anders ist das natürlich bei der Nachrüstung in alten Häusern. Wo viel Energie für Heizung draufgeht, kann mit einer entsprechend dimensionierten Anlage auch viel eingespart werden.
Weiterhin gibt es die Möglichkeit, mit Schichtspeichern die Ausnutzung der Solarthermie zu optimieren. In einem einfachen Speicher verteilt sich das Wasser auf natürliche Weise: Unten kalt, oben warm. Der Wärmetauscher befindet sich meist im Speicher selbst, oben kommt heißes Fluid rein, wendelt sich dann durch bis unten und wird dabei abgekühlt. Dabei bleibt der Speicher nicht ideal geschichtet, d.h. die Wärmeschichten vermischen sich. Es wird quasi in der Mitte unnötig warm und oben unnötig kühl (oben wird das Warmwasser natürlich entnommen).
Schichtladespeicher haben den Wärmetauscher meist außerhalb des Speichers. Je nach Wärme des erwärmten Wassers wird es dann auf unterschiedlicher Höhe des Speichers eingespeist, und die Schichtung bleibt besser erhalten.
Nachteil: Komplizierte Technik, hoher Preis.
Bei Heizungsunterstützung kann das aber durchaus Sinn machen, weil dann gezielt auch kühleres Wasser entnommen werden kann, nicht warm genug für das Warmwasser, aber sehr wohl für die Fußbodenheizung.
Ohne Heizungsunterstützung würde ich zu Schichtspeichern sagen: Jedes eingesparte Kilowatt ist gut; wenn man es sich leisten kann, sollte man das machen. Ich glaube aber nicht, dass sie den Aufpreis reinholen können.
Besonders interessant fand ich in diesem Zusammenhang das System von EFG Sandler, #^http://www.efg-sandler.com/ . Die Ideen finde ich grundsätzlich sehr einleuchtend, aber es ist mir nie richtig gelungen festzustellen, ob diese Firma wirklich seriös ist, und das Angebot, das ich mir habe erstellen lassen, war preislich jenseits von gut und böse.
Noch ein Stichwort: „Hygienespeicher“. Bedeutung: Bei der Warmwasserbereitung wird hier nicht das Wasser an sich, das später auch an die Wasserhähne „ausgeliefert“ wird, im Tank gespeichert. Statt dessen wird immer Frischwasser benutzt, das durch einen Wärmetauscher im Tank aufgeheizt wird. Vorteil: Keine Legionellengefahr. Nachteil: Zumindest ein bisschen Effizienzverlust, Kosten.

Lüftungsanlage


Das einzige wirklich teure Gadget, das wir uns geleistet haben. Im Fachjargon eine „KWL mit WRG“, also kontrollierte Wohnraum-Lüftung, und zwar mit Wärmerückgewinnung.
Ich halte das für eine sehr sinnvolle Anschaffung. Hier kann wirklich viel Energie eingespart werden. Unser Haus erfüllt „nur“ KfW 70, aber bei Außentemperaturen größer als 12°C müssen wir nicht heizen. Die Wärme, die schlicht durch die Anwesenheit der Familie, durch kochen und duschen etc. eingebracht wird, reicht aus – weil sie zum größten Teil im Haus bleibt. Lüften nicht nötig (aber natürlich möglich).
Durch den hohen Preis ist auch hier fraglich, ob sich das wirklich amortisiert. Sagen wir so: Wenn man nicht die Filter wechseln müsste, würde es sich auf jeden Fall lohnen. Die Filter sind aber relativ teuer (wenn man nicht Ersatzprodukte benutzt) und führen letztlich zumindest in unserem Fall dazu, dass die Amortisierung in 15 Jahren zumindest knapp wird. Wegen des hohen Energie-Einsparpotentials besonders bei sehr gut gedämmten Häusern (lüften muss man schließlich immer, und gerade dann, wenn das Haus sehr dicht ist) halte ich die Investition trotzdem für sinnvoll.
Nachteile: Nachrüstung schwierig bis unmöglich, weil die Rohre in Decken/Wänden verlegt werden müssen. Manche haben Angst vor Schimmel in den Rohren (was ich persönlich aber wegen des ständigen Luftstroms mit trocknender Wirkung für unwahrscheinlich halte). Teuer.

Flächenheizungen


Grundsätzlich gilt: Je größer die Fläche ist, die der Heizkörper hat, und je besser sie im gesamten Raum verteilt ist, desto niedriger kann die Vorlauftemperatur der Heizung sein. Flächenheizungen (Fußboden-/Wandheizungen) haben hier naturgemäß Vorteile. In einem gut gedämmten Haus reicht selbst im tiefsten Winter meist eine Vorlauftemperatur von unter 35°C, um es im Haus mollig warm zu haben. Das spart ebenfalls Kosten (allerdings hauptsächlich deswegen, weil auf dem Weg zum Heizkörper wegen der geringeren Temperatur weniger Energie verlorengeht, und weil sich die Wärme besser im Raum verteilt).
Das bedeutet auch: In gut gedämmten Häusern merkt man kaum etwas von der Fußbodenheizung; es ist nicht wie früher, dass der Boden merklich warm ist, was gerne zu „dicken Füßen“ etc. geführt hat: Die Temperatur des Bodens liegt eigentlich immer unter Körpertemperatur.
Nachteile: Man sollte die Bodenbeläge sorgfältig auswählen. Bei Wandheizungen muss man beim Bohren aufpassen, dass man die Schläuche nicht beschädigt. Sehr träge: Ein kaltes Haus kann im Winter Tage brauchen, bis es wieder auf die gewohnten Temperaturen kommt. Wenn man die Heizung für den Urlaub programmiert, muss man das beachten und sie unbedingt rechtzeitig (d.h. mindestens einen Tag vor der Rückkehr) wieder hochregeln.

#Energiesparen
Gestern hat Mike einige Verbesserungen am Zot-Protokoll vorgenommen, über das die einzelnen Server in der RedMatrix miteinander kommunizieren. Dadurch kann es zu Problemen kommen, wenn Server mit der alten Protokollversion sich mit Servern mit der neuen Protokollversion unterhalten.
Konkret kann es in bestimmten Fällen dazu kommen, dass Kommentare nicht zugestellt werden können.
Das ist nicht so furchtbar schlimm – die RedMatrix hat „Selbstheilungskräfte“, es gibt nicht nur diesen einen Weg, wie ein Kommentar bei allen Adressaten ankommen kann: Zum einen wird nicht nur ein Zustellungsversuch unternommen, ähnlich wie ein Mail-Server versucht ein RedMatrix-Server für längere Zeit immer wieder, seine Nachrichten loszuwerden. Zum anderen fragt jeder RedMatrix-Server periodisch die Kontakte aller seiner User ab und lädt dort die letzten Neuigkeiten herunter – eben für den Fall, dass einmal keine Zustellung möglich war.
Dann kommen auch jetzt noch die Kommentare an, die auf anderen Wegen nicht mehr weitergeleitet werden können. Da das Polling, die Abfrage der Kontakte, aber je Kontakt nur einmal in 24 Stunden erfolgt, kann es im Extremfall bis zu 24 Stunden dauern, bis solche Kommentare letztlich zugestellt werden.
Deshalb: Es ist wichtig, dass alle RedMatrix-Serveradministratoren ihre Server so schnell wie möglich auf den aktuellen Stand bringen! So sind wir schnell wieder zurück bei der gewohnten, nahezu in Echtzeit erfolgenden Nachrichtenzustellung.

#Red-Matrix
Zottels Zeug
  last edited: Thu, 14 Aug 2014 21:18:12 +0200  
Je länger man die RedMatrix für Kommunikation im Stile sozialer Netzwerke nutzt, desto mehr Verbindungen sammeln sich an. Nicht alle Kontakte liest man gleich gern, und so beginnt man, sich Gedanken zu machen, wie man bei Zeitknappheit alle Beiträge von wichtigen Kontakten mitbekommt, ohne alles lesen zu müssen, was über all die anderen Kontakte hereinkommt.

Der Affinity-Slider
Jeder Verbindung kann ein „Grad der Freundschaft“ zugerodnet werden. Damit legt man fest, wie gut man denjenigen kennt. Wenn man seine persönliche Matrix betrachtet, kann man dann einstellen, welche Beiträge man sehen möchte: Zum Beispiel nur die von sehr engen Kontakten oder alle von eng bis kaum bekannt.
Der Nachteil dabei ist, dass man immer links und rechts am Regler schieben muss, um bestimmte Ausschnitte der eigenen Kontakte zu sehen.
Grundsätzlich ist das Feature toll: Regler verschieben und direkt sehen, welche Posts verschwinden oder auftauchen. Für den täglichen Einsatz ist das aber eher unpraktisch.

Sammlungen
Red bietet die Möglichkeit, einzelne Kontakte Sammlungen oder Gruppen zuzuordnen. Wenn man eine Verbindung editiert (oder auch akzeptiert), findet sich links die Übersicht über die Sammlungen, die bereits vorhanden sind. Per Klick in die Checkbox neben den Sammlungen kann dieser Kontakt zu einer oder mehreren Sammlungen hinzugefügt oder entfernt werden – das gilt auch sofort, ohne dass man den „Senden“-Button klicken muss. Hier kann man auch via Link eine neue Sammlung erzeugen.
Auf diese Weise kann man alle Kontakte eigenen Gruppen zuordnen. Zum Beispiel „Familie“, „Gute Freunde“, „Mag ich“, „Unbekannt“.
Wenn man in den Einstellungen unter „Zusätzliche Funktionen“ „Filter für Sammlung“ aktiviert hat, kann man die Matrix dann auch anhand dieser Gruppen lesen. Links erscheinen dann die definierten Sammlungen, und ein Klick darauf zeigt nur noch Threads, die von Mitgliedern dieser Sammlung gestartet wurden.
So kann man jederzeit die wichtigen Nachrichten zuerst lesen, und weniger wichtige später wenn Zeit ist.
Gerade wenn man viele Kontakte hat kann dieses Werkzeug es ermöglichen, dass man die Nachrichten wichtiger Kontakte nie verpasst, auch zu Zeiten, wo man am Tag nur wenige Minuten für die RedMatrix aufbringen kann.
Und: Man kann diese Sammlungen auch als Empfänger für private Posts nutzen.
Das werde ich in einem späteren Beitrag behandeln.
Einer von Vielen
  
Gut fand ich den Tip von Mike kürzlich.

Wie gehe ich am besten vor, wenn ich vorwiegend private Nachrichten innerhalb meiner Familie schreibe und Familienbilder hochlade?

  • Gruppe anlegen, beispielsweise "Familie"
  • Kontakte dieser Gruppe zuordnen
  • Einstelungen > Kanal-Einstellungen > Standardeinstellung für Beitrags-Zugriffsrecht > drauf klicken > nur Gruppe "Familie" anhaken
  • Ergebnis: Alle neuen selbst erstellten Beiträge sind nur für die Gruppe "Familie" sichtbar. Gleiches gilt für hochgeladene Bilder und Dokumente. Will man Beiträge, Bilder und Dokumente für alle sichtbar machen, dann kann man einfach das "Schloss öffnen".
Zottels Zeug
  last edited: Sat, 09 Aug 2014 02:43:22 +0200  
Ein leicht überarbeiteter Artikel aus meinem alten Blog, der dort zuerst im Oktober 2011 erschienen ist.

Ist ein Elektroauto überhaupt umweltfreundlich?
Das ist die große Frage, die sich mir als erstes stellte: Schließlich kommt der Strom zum Teil aus konventionellen Kraftwerken, die ja auch CO2 und andere Schadstoffe ausstoßen. All die folgenden Zahlen beziehen sich natürlich auf den konventionellen Strom-Mix. Mit Ökostrom liegt man immer weit besser als jeder Verbrenner oder Vollhybrid (siehe auch Fazit unten).
Im ursprünglichen Artikel hatte ich hier einen Link zu einer Übersicht zum Kohlendioxid-Ausstoß von Elektrofahrzeugen, der heute leider ins leere geht. Die folgenden Aussagen müsst Ihr mir also leider einfach glauben:
Heute erhältliche Elektroautos (die nicht gerade Sportwagen sind) brauchen zwischen 10 und 25 kWh auf 100km  – Klein- und Kleinstwagen, für die ich mich interessiere, meist unter 15 kWh/100 km NEFZ. Bei den meisten (wenn auch nicht allen) Herstellern hat es sich eingebürgert, den Verbrauch „ab Steckdose“ anzugeben, so dass Verluste durch die Akkus und Ladegeräte bereits inbegriffen sind.
Insofern kann man folgern, dass aktuelle Elektroautos im Strom-Mix in Sachen Kohlendioxid günstiger liegen als ein Toyota Prius.
Etwas vorsichtig muss man die Zahlen aber schon betrachten, denn sie beziehen sich auf das Jahr 2007. Damals gab es einerseits keinen Atomausstieg, andererseits aber auch einen wesentlich geringeren Anteil der erneuerbaren Energien am Strom-Mix. Tatsächlich hat sich der Kohlendioxid-Ausstoß im deutschen Strom-Mix von 605 g pro Kilowattstunde 2007 auf 546 g (2010) reduziert, sich seitdem aber wieder auf 576g erhöht (erste Schätzung für 2012, Quelle).
Außerdem hat der aktuelle Prius (im Gegensatz zu dem im damaligen Link verglichenen älteren Prius) einen Kohlendioxidausstoß von unter 100 g, so dass reine Elektroautos mit einem Stromverbrauch von mehr als 17 kWh/100 km im Strom-Mix schlechter abschneiden als dieses Hybridfahrzeug.
Meinen Diesel-Smart habe ich damals mit durchschnittlich 3,8 l/100 km gefahren, was knapp 100 g CO2/km entspricht, meinen Diesel-Polo mit 4,34 l/100 km, also etwa 114 g/km. Zumindest der Wert des Smart wird nicht von jedem Elektromobil unterboten, das sollte man bedenken.
Beim ADAC gab es zum Zeitpunkt der Erstellung des Originalartikels einen Vergleich zwischen E-Smart, Benziner und Diesel. Die Elektroversion schnitt im tatsächlichen Strom-Mix am besten ab, mit Steinkohle alleine wäre sogar der Benziner umweltfreundlicher gewesen (wenn man ausschließlich das Kohlendioxid betrachtet). Zu beachten: Der ADAC hat den durchschnittlichen Ausstoß pro kWh im Strom-Mix extrem hoch angesetzt (590 g/kWh), der E-Smart schneidet mit korrekten Werten eigentlich besser ab (69 g/km). Vmtl. wird der Wert von 12 kWh/100 km nach NEFZ ebenso unrealistisch sein wie die 3,3 l/100 km, von denen als Dieselverbrauch ausgegangen wird. Immerhin wurden aber beide nach der gleichen Methode erhoben.

Kritiker rechnen aber ganz anders: Sie gehen davon aus, dass Elektroautos zu zusätzlicher Stromnachfrage führen werden, die es unmöglich mache, die Dreckschleudern unter den Kraftwerken abzuschalten.
Insofern müsse für Elektroautos die schmutzigste Variante angenommen werden, weil eben die schmutzigsten Kraftwerke sonst früher abgeschaltet werden könnten – also Stromerzeugung mittels Braunkohle als Vergleichswert.
Ich halte diese Argumentation nicht für realistisch. Die Erfahrung zeigt, dass Kraftwerke mitnichten abgeschaltet werden, wenn Deutschland den Strom nicht benötigt – schließlich hat Deutschland immer Strom in großen Mengen exportiert. Das passiert nur, wenn sie unrentabel werden oder nicht mehr den gesetzlichen Emissionsvorschriften entsprechen und eine Umrüstung zu teuer käme (was wiederum nichts anderes als „unrentabel“ bedeutet).
Theoretisch könnte die Politik versucht sein, die Vorschriften wegen hoher Stromnachfrage weniger schnell zu verschärfen. Ich bezweifle aber, dass das so viel ausmacht, dass ein Ansetzen von Elektroautos mit Braunkohlewerten gerechtfertigt ist.
An einem anderen Punkt werden aber ein Stück weit Äpfel mit Birnen verglichen: Die Leistung aktueller Verbrennungsmotoren ist weit höher als die der Elektromotoren, mit denen sie hier verglichen werden. Häufig sind aktuelle (kleine) E-Autos mit einer Motorleistung von weniger als 20 kW (27,2 PS) ausgestattet, während Verbrennungsmotoren kaum noch unter 50 kW (68 PS) zu haben sind.
Andererseits sind auch die Fahrleistungen von Elektromotoren von ganz anderem Kaliber, speziell das Drehmoment ist sehr hoch und steht quasi ab 0 U/min zur Verfügung. Um eine gute Beschleunigung zu erreichen genügt beim Elektromotor also eine deutlich geringere Leistung. Trotzdem ist die Endgeschwindigkeit des Fahrzeugs mit dem stärkeren Verbrenner natürlich höher.
Aus mittlerweile gewonnener eigener Erfahrung kann ich sagen: Meine mia mit 24 PS hatte bis zu einer Geschwindigkeit von ca. 60-70 km/h gefühlt die gleiche Leistung wie mein jetziger Peugeot 107 mit 68 PS. Darüberhinaus hat der Peugeot aber deutliche Vorteile.
Natürlich muss man aber auch sagen, dass, ähnlich wie beim Verbrennungsmotor, höhere Leistung nicht direkt mit höherem Verbrauch gleichzusetzen ist. Bei konstant 50 km/h wird sich der Verbrauch eines 70-kW-Elektromotors kaum von dem eines Motors mit 18 kW unterscheiden.
Der hauptsächliche Unterschied liegt in der Verführung zu schnellerer Gangart und häufiger Nutzung der Bremse, statt die Motorbremse zu nutzen, die mittels Rekuperation wieder Strom in die Batterie zurückspeisen würde. Und natürlich in höheren Anforderungen an die Batterien, die größere Ströme liefern müssen und ggfs. stärker gekühlt werden müssen und/oder mehr Gewicht mitbringen.
So ist auch 56-kW-Motor des Opel Ampera mit einem Verbrauch von lediglich 12,2-14,08 kWh/100 km angegeben. (Er soll mit den 11 kWh Kapazität seiner Batterie ohne Nutzung des Range Extenders „bis zu“ 90 km weit kommen, was 12,2 kWh/100 km entsprechen würde; andererseits ist „für die ersten 100 km“ ein Verbrauch von 1,6 l/100 km als Benzinäquivalent angegeben, was 14,08 kWh/100 km entsprechen würde.)

Fraglich ist weiterhin, wie die Umweltbilanz der Elektroauto-Produktion aussieht, speziell natürlich bei den Akkus. Dazu habe ich nirgends wirklich belastbare Aussagen finden können.
Die Metallgewinnung für die verschiedenen Zelltypen ist sicher nicht unproblematisch, auch wenn Lithium-Batterien im Gegensatz zu den älteren nickel- und teilweise gar cadmiumhaltigen Vertretern nur relativ wenig giftige Inhaltsstoffe mitbringen.
Der gesamte Aufbau des Antriebsstrangs eines Elektroautos ist wesentlich unkomplizierter als beim Verbrenner, was die Produktion deutlich verschlankt und zu wesentlich geringerem Wartungsaufwand (inkl. Sondermüll z. B. durch Wegfall des Motoröls etc.) führt.
Schlicht ins Blaue vermutet ist meine Arbeitshypothese, dass sich im Gesamtbild keine großen Unterschiede in der Umweltbilanz der Fahrzeugproduktion und -wartung ergeben. Wenn jemand Fakten dazu hat, nehme ich sie gerne.
Interessant wäre außerdem, wie es bei anderen Umweltgiften aussieht – CO2 ist schließlich nicht alles.
Meine (ebenfalls nicht durch Fakten untermauerte) Vermutung ist, dass das Elektroauto im deutschen Strom-Mix in diesem Punkt besser abschneidet als klassische Fahrzeuge, vor allem Diesel. Das gilt sicher nicht, wenn man den Autostrom ausschließlich aus Braunkohlekraftwerken bezieht, aber ganz bestimmt für Erdgaskraftwerke und möglicherweise für moderne Steinkohlekraftwerke. Was Atomkraftwerke betrifft, könnte man natürlich argumentieren, dass der übrig bleibende Müll schlimmer ist als alles, was fossile Energieerzeugung hervorbringen kann. Das hängt dann von der persönlichen Bewertung ab.

Fazit
Insgesamt kann man davon ausgehen, dass ein Elektroauto vom Umweltaspekt her Vorteile gegenüber einem Verbrennungsmotor hat. Der Unterschied ist aber nicht so groß, wie man aus dem Bauch heraus vermuten würde.
Gerade vollhybride Antriebskonzepte stoßen schon heute in ähnliche Regionen der Effizienz vor, wenn auch ein gewisser Abstand durchaus noch zu verzeichnen ist. Ein kleiner, relativ leichter Diesel-Vollhybrid könnte durchaus in der Lage sein, Elektroautos im deutschen Strom-Mix den Rang abzulaufen. Vermutlich wäre das aber noch teurer als aktuelle Elektroautos.
Anmerkung 2014: Bisher gibt es keine Diesel-Hybrid-Fahrzeuge. Zumindest bei seriellem Hybrid (d.h. der Antrieb erfolgt immer über den Elektromotor, der Verbrenner erzeugt wenn nötig Strom) hat der Diesel auch keine Vorteile, weil er bei normalen Verbrennern nur deshalb weniger Sprit verbraucht, weil er im Teillastbereich, also wenn wenig Leistung abgefordert wird, effizienter ist als ein Benziner. Im Volllastbereich gibt es kaum Unterschiede. Im seriellen Hybrid kann der Motor immer im effzientesten Bereich betrieben werden, so dass ein Diesel keine Vorteile mehr bietet. Beim klassischen Hyibridfahrzeug, wo der Verbrenner das Fahrzeug direkt antreibt, könnte ein Diesel aber im Gesamtdurchschnitt noch bessere Werte erzielen als ein Benziner.
Dem reinen E-Auto-Nutzer bleibt aber natürlich immer die Option, Ökostrom zu beziehen. Der ist zwar auch nicht ohne Kohlendioxid-Ausstoß zu erzeugen, die Werte liegen aber um den Faktor 10 bis 20 unter denen des aktuellen Strom-Mixes (Quelle) und damit sehr weit jenseits von allem, was mit Verbrennungsmotoren zu erreichen ist.
#Elektroautos
Zottels Zeug
  last edited: Sat, 05 Jul 2014 04:06:07 +0200  
Im Folgenden wieder ein leicht überarbeiterer Artikel aus meinem alten Blog, zuerst dort erschienen im Oktober 2010.

Mittlerweile könnte das Thema Megapixel vielleicht ein wenig aus dem Marketing verschwinden, jedenfalls sah das ein Artikel in Spiegel Online zur CES 2014 so. Zu wünschen wäre es – denn in den meisten Kameras, vor allem im Consumer-Bereich und in Handys, bedeuten mehr Pixel im allgemeinen schlechtere, nicht bessere Qualität. Näher erläutert in folgendem Artikel:

Bei Consumer-Kameras, Handy-Kameras, sogar bei DSLRs wird die Megapixel-Grenze immer höher gepusht, denn die Werbung suggeriert: Je mehr Megapixel, desto besser.
Das Gegenteil ist der Fall, leider, und das führt dazu, dass neue Kameras absurderweise zum Teil schlechtere Bilder liefern als ihre Vorgänger.
Warum sind mehr Megapixel nicht besser? Dafür gibt es zwei Hauptgründe:

Die optische Auflösung
Objektive können keine beliebige optische Auflösung liefern. Die Bildschärfe der Abbildung auf dem Sensor ist begrenzt und nimmt zudem zu den Rändern hin ab.
Bei den üblichen Sensorgrößen für digitale Spiegelreflexkameras aus dem Consumer-Bereich liegt die optische Auflösung bezahlbarer Objektive meist irgendwo im Bereich zwischen 12 und 18 Megapixeln. Zoom-Objektive liegen meist unter 16 Megapixeln, Objektive mit Festbrennweite erreichen durchaus auch einmal 20 Megapixel (jeweils im bezahlbaren Bereich; Profi-Objektive erzielen teils bessere Werte, sind aber auch entsprechend teuer).
Um das mit echten Werten zu untermauern, müssen wir einen Ausflug in die Theorie unternehmen. Ein sehr guter Anlaufpunkt für praktische Messwerte sind die Objektivtests von dpreview:
Angegeben werden LW/PH, also „line widths per picture height“. Eine „line width“ steht dabei etwas missverständlich für ein Paar aus einer weißen und einer schwarzen Linie, was rein theoretisch zwei Pixeln entsprechen würde.
Die theoretische Auflösung eines Sensors in LW/PH wäre also die Anzahl der Pixel in der Bildhöhe geteilt durch zwei.
Tatsächlich kann so ein Bildsensor aber nicht ganz so hoch auflösen (wegen Farbfiltern, Antialiasing und evtl. weiteren Gründen), auch wenn moderne Kameras diesem Wert recht Nahe kommen.
Als Beispiel sei hier die 16MP-Kamera Nikon D5100 genannt. Hier ist die Seite zur Auflösung dieser Kamera bei dpreview zu sehen – um die Verwirrung komplett zu machen, werden hier dann Lines Per Height angegeben; diesen Wert muss man also wieder durch zwei teilen, um ihn mit den Objektiv-Werten vergleichen zu können.
Theoretisch könnte der Sensor in der Bildhöhe 3264 LPH oder 1632 LW/PH auflösen. Tatsächlich gelingen dem Sensor im RAW-Format etwa 2800 LPH oder 1400 LW/PH. Soweit die Fähigkeiten des Sensors.
Diesen Wert können wir jetzt also mit den Tabellen der Objektivtests vergleichen? Nicht ganz. Angegeben sind nämlich MTF50-Werte (d.h. MTF 50%). Das ist der Wert, bei der die Abbildung noch als „scharf“ empfunden wird, darunter sind die Kontrastwerte so niedrig, dass ein unscharfer Eindruck entsteht. Das heißt aber nicht, dass man die Linien dann nicht mehr unterscheiden kann. Als Beispiel kann man sich die zweite Grafik von oben auf Norman Korens MTF-Seite ansehen. Bei 10% saufen die dünnen Linien arg ins Grau ab, sind aber noch erkennbar.
Mit anderen Worten: Es kann schon als Faustregel gelten, dass eine einigermaßen scharfe Abbildung bis hinunter auf die maximale Auflösung des Sensors nur gegeben ist, wenn der MTF50-Wert des Objektivs auch an die maximale Auflösung des Sensors herankommt. Das heißt aber nicht, dass gar nichts mehr zu sehen ist (= eine einfarbige Fläche), wenn das Objektiv das nicht schafft. Die Abbildung wird „lediglich“ immer verwaschener und unschärfer.
Somit könnte man wie folgt rechnen:
Man nehme die vertikale Auflösung eines Sensors (die kleinere Zahl) und multipliziere sie mit 0,4. Das ergibt einen über den Daumen gepeilten Wert für die tatsächliche Auflösung des Sensors in LW/PH (normalerweise wird es etwas mehr sein, aber wir wollen den Objektiven etwas Vorsprung geben).
Dann muss man im Objektivtest noch die richtige Testkamera auswählen; meist gibt es eine mit APS-C und eine mit größerem Sensor (z. B. Vollformat).
Erreicht oder übertrifft ein Objektiv den Wert des Sensors, sind damit „knackscharfe“ Bilder möglich, auch wenn man weit ins Bild hineinzoomt. Wird er unterschritten, kann das Objektiv den Sensor nicht mehr ausreizen. Trotzdem können bei höherer Pixeldichte im Sensor zusätzliche Details sichtbar sein, zusätzliche Megapixel sind also nicht ganz für die Katz. Diese Details werden aber verwaschen und unscharf wirken.
Nimmt man den Wert der D5100 wird klar: Gute Zoom-Objektive geben die benötigte Auflösung für 16 Megapixel auf einem APS-C-Sensor in der Regel her, zumindest innerhalb der idealen Brennweiten und Blendenstufen. Festbrennweiten schaffen auch mehr. Durchschnittliche bis unterirdische Zooms sind dagegen schon mit 10 Megapixeln (ca. 1000 LW/PH) überfordert.
Merke: Wir sprechen hier von großen Spiegelreflex-Objektiven, und zudem von deren maximaler Auflösung, die meist im mittleren Blendenbereich liegt. Nicht umsonst sind Profi-Kameras mit größeren Bildsensoren ausgestattet: Neben den Vorteilen bei der Lichtempfindlichkeit (siehe unten) ist es nur so möglich, 18 Megapixel und mehr wirklich mit Daten zu versehen. Einen APS-C-Sensor dieser Auflösung dürfte kaum ein Zoom schaffen, und auch gute Festbrennweiten stoßen hier langsam an ihre Grenzen.
Jetzt sehen wir uns einmal Kompaktkameras und, noch schlimmer, Handy-Kameras an. Die kleine bis winzige Optik kann natürlich niemals die Auflösung eines Spiegelreflex-Objektivs bieten. Zudem sind die verbauten Sensoren meist noch kleiner als die der Consumer-DSLRs, im Falle von Handy-Kameras sogar sehr viel kleiner.
Das bedeutet, dass die Optik einer Kompaktkamera normalerweise nicht mehr als etwa 6-10 Megapixel echte Auflösung bietet, eher 6 als 10. Bei Handylinsen, die aus Kostengründen häufig aus Plastik gefertigt sind, dürften kaum mehr als als 3 oder 4 Megapixel drin sein, eher weniger – ohne Autofocus sogar viel weniger.
Die restlichen Pixel dienen nur zum Angeben. Weil das Objektiv die Schärfe nicht liefern kann, enthalten sie keine zusätzlichen Informationen. Sie müllen also nur die Speicherkarte zu. Und noch schlimmer: Sie sorgen sogar dafür, dass die Bildqualität schlechter wird:

Die Lichtempfindlichkeit
Je kleiner der einzelne Bildpunkt eines Kamerasensors ist, desto weniger Licht erreicht ihn logischerweise in der Summe.
Jeder Nutzer einer Digitalkamera weiß, dass in dunkler Umgebung die Bilder zum Rauschen tendieren: Statt sehr dunklem, einheitlichem Grau bekommt man farbige Bildpunkte, die die Bildqualität stark beeinträchtigen.
Beim Hochregeln der „Empfindlichkeit“ eines Sensors entstehen diese Artefakte; Ungenauigkeiten in der Digitalisierung des auftreffenden Lichts wirken sich sehr viel massiver aus als bei einem hellen Bild.
Das ist auch leicht nachzuvollziehen: Gehen wir von einem Sensor aus, der für den Rotanteil eines Pixels 256 Werte liefern kann (die meisten können mehr, das ist nur ein Beispiel): Maximale Helligkeit in einem sonnigen Bild wäre 256. Im einem sehr dunklen Bild kommen aber nur Werte von beispielsweise 0 bis 40 vor. Regelt man die jetzt so hoch, dass wieder Werte von 0 bis 256 herauskommen, wirken sich Abweichungen bei der Digitalisierung mehr als sechsmal so drastisch aus.
Je mehr Pixel man auf einen kleinen Sensor quetscht, desto weniger Licht erhält der einzelne Pixel.
Das bedeutet: Je mehr Megapixel bei gleicher Sensorgröße, desto schlechter das Bild, denn je weniger Licht auf den einzelnen Pixel fällt, desto höher muss man den Gain des Sensors einstellen, desto massiver muss man „verstärken“, was sich negativ auf die Bildqualität auswirkt.
Man kann das auch schön beobachten, wenn man ein stark unterbelichtetes Bild im Nachhinein mit einer Bildbearbeitungs-Software aufhellt: Starkes Rauschen tritt auf. Nichts anderes tut die Kamerasoftware bei kleinen, hochaufgelösten Sensoren, die zu wenig Licht erhalten.
Natürlich wird versucht, diesen Effekt zu vertuschen, so gut es geht. Gerade Handy-Kameras arbeiten mit massiver Rauschunterdrückung. Dadurch ist das Rauschen selbst kaum noch zu sehen, dafür erhält man flächige, verwaschene Bilder, die nur auf den ersten Blick „gar nicht so schlecht“ aussehen.
Auch diesen Effekt kann man mit einer Bildbearbeitungssoftware schön nachvollziehen: Man nehme ein deutlich verrauschtes Bild (zum Beispiel eines, das man stark aufgehellt hat) und nutze den Rauschfilter des Programms. Je nach eingestellter Intensität ist das Rauschen danach kaum noch sichtbar, dafür sind aber viele Konturen und Farbübergänge im Bild geopfert worden.

Fazit
Die immer größeren Megapixel-Zahlen sind bei Kompaktkameras und vor allem bei Handy-Kameras reiner Marketing-Humbug. Der Nutzer bezahlt dafür sogar mit schlechterer Bildqualität als der, die er bei gleicher Sensorgröße mit geringerer Megapixel-Zahl bekommen hätte. Ein paar gute Beispiele dazu gibt es unter http://6mpixel.org/.
Selbst bei Consumer-DSLRs sind inzwischen Sensoren verbreitet, die einfach keinen Sinn mehr machen. Es ist also besser, sich in der Megapixel-Zahl eher zu beschränken und lieber auf eine gute Optik zu achten.
Auch wenn die Sensoren und vor allem ihr Rauschverhalten immer besser werden – wer wirklich Wert auf gute Bildqualität legt und es sich leisten kann, ist mit größeren Sensoren, zum Beispiel „Vollformat“-Sensoren im Kleinbild-Format 24mm x 36mm, am besten bedient. Da sind Megapixelzahlen jenseits der 20 dann auch wirklich ausnutzbar.
#Fotografie
Einer von Vielen
  
Ergänzungen, warum mit zunehmender Pixeldichte unscharfe Bilder entstehen:

1. Beugungsunschärfe (diffraction)
#^http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm

2.Allgemein (weil es so schön dargestellt ist bei cambridgeincolour.com)
#^http://www.cambridgeincolour.com/tutorials/digital-camera-sensor-size.htm
Zottels Zeug
  last edited: Fri, 10 Jul 2015 23:34:29 +0200  
Der folgende Artikel ist zuerst im März 2010 in meinem alten Blog erschienen, ich habe ihn jetzt noch ein wenig überarbeitet. Ich werde nach und nach lesenswerte Artikel umziehen, so dass ich dann die Möglichkeit habe, das alte Blog, das noch bei Google gehostet ist, zu löschen.

Der folgende, recht umfangreiche Artikel behandelt die Energieverluste, die beim Betrieb eines Autos auftreten, und welche Methoden zum Spritsparen deshalb sinnvoll sind.
TL;DR: Um Sprit zu sparen sollte man: Ein kleines, leichtes Auto fahren, so wenig wie möglich bremsen (also vorausschauend und mit viel Abstand zum Vordermann fahren), früh hochschalten und den Motor in einem niedrigen Drehzahlbereich halten, beim Beschleunigen kräftig aufs Gas drücken (aber dabei immer in niedrigen Drehzahlbereichen bleiben!), Auskuppeln, wenn man dahinrollen kann (aber nur dann, wenn man deswegen dann nicht bremsen muss; wenn man langsamer werden muss, sollte immer ein Gang eingelegt sein), auf der Autobahn nicht schneller als 120 km/h fahren.

Physikalische Grundlagen
Beginnen wir also mit den Kräften, die im Auto zu Energieverbrauch führen:
  • Reibung der Reifen und der diversen Lager an Achsen usw. beim Rollen. Wird größer, je breiter die Reifen sind, außerdem wächst die Reibung proprotional zur Geschwindigkeit. Da Räder mit kleinem Durchmesser zu größeren Drehgeschwindigkeiten der Räder führen, steigen die Reibungsverluste an den Lagern außerdem, wenn die Räder kleiner werden.
  • Reibung in Motor und Getriebe. Steigt und sinkt mit der Motordrehzahl.
  • Luftwiderstand. Steigt quadratisch zur Geschwindigkeit und proportional zu Frontfläche und cw-Wert des Autos.
  • Beschleunigungsenergie. Steigt quadratisch zur Geschwindigkeit (zur Beschleunigung von 50 auf 100 km/h ist viel mehr Energie nötig als zur Beschleunigung von 0 auf 50 km/h – bei 1 kg fast 300 J statt knapp 100 J) und proportional zur Masse.
  • Bergauffahrten: Die für die Höhenänderung nötige Energie ist proportional zur Masse und zur Höhe.
  • Verlustleistung des Motors. Als Faustregel kann man sagen: Wenn der Motor bei etwa 90% der Leistung, die er bei der aktuellen Drehzahl bringen kann, gefahren wird, arbeitet er besonders effizient. „Gaspedal streicheln“ beim Beschleunigen ist dagegen keine gute Idee.
    Außerdem ist der Verlust extrem groß, solange der Motor kalt ist. Bei der morgendlichen Fahrt zum Bäcker, die nur ein paar hundert Meter weit führt, sollen Verbräuche um 60 l/100 km keine Seltenheit sein.
  • Absichtliches Abbremsen. (Also nicht Gebremstwerden von Reibung/Luftwiderstand/Berg, sondern Nutzung des Bremspedals.)
  • Andere Verbraucher. Die Klimaanlage schaltet einen meist mechanisch angetriebenen Kompressor mit in den Antriebsstrang, und elektrische Verbraucher wie Sitzheizung, Gebläse oder Licht verlangen mehr Leistung von der Lichtmaschine, die dann ebenfalls stärker bremst.

Teilweise kann man diese Energie aber wieder zurückbekommen, wenn man entsprechend fährt:
  • Die Energie, die man in die Beschleunigung gesteckt hat, verpufft nicht – sie bleibt als kinetische Energie in der Geschwindigkeit vorhanden und wird nur von den Energieverlusten durch Reibungskräfte inkl. Luftwiderstand nach und nach abgebaut (man wird also auf ebener Strecke nur wegen dieser Reibungskräfte langsamer).
    Solange man nicht bremst. Dann wird diese kinetische Energie von den Bremsen komplett in Wärme umgewandelt und verpufft vollkommen ungenutzt.
  • Gleiches gilt für Berge, die man anschließend wieder hinunterfährt. Von zwei gleich langen Wegen zum gleichen Ziel, von denen einer über einen Berg führt und einer im Flachland bleibt, ist nicht zwingend der flache der effizientere. Da beim Bergauffahren möglicherweise der Motor in einem effizienteren Leistungsbereich bewegt wird, kann der Bergweg sogar zu weniger Verbrauch führen. Solange man bergab nicht viel bremsen muss und nicht hochtourig bergauf gefahren ist.


Konkrete Tipps
Die obigen Grundlagen führen zu folgenden Fahrempfehlungen:
  • Nicht bremsen. Ok, sagen wir: So wenig bremsen wie möglich. So lange man rollen kann, nutzt man die Energie, die man vorher in die Beschleunigung oder den Anstieg gesteckt hat. Beim Bremsen wirft man sie weg. Auch wenn das auf den ersten Blick wie ein Raserspruch klingt, bedeutet es genau das Gegenteil: Vorausschauend fahren und viel Abstand halten, um wenig bremsen zu müssen, im Zweifel eher langsamer als schneller fahren.
  • Leerlauf. Auf den ersten Blick könnte man denken, dass es Sinn macht, den Gang beim Rollen drinzulassen, schließlich hat heute jedes Auto eine Schubabschaltung und braucht dann überhaupt keinen Kraftstoff mehr. Tatsächlich hält man damit aber den Motor auf relativ hohen Drehzahlen, was große Reibungsverluste bedeutet.
    Anders gesagt: Kupple ich aus, läuft der Motor mit unter 1.000 Umdrehungen pro Minute und braucht also sehr wenig Kraftstoff. Rolle ich dagegen mit eingekuppeltem Gang, läuft der Motor im Bereich von 1.500 bis 3.000 Umdrehungen pro Minute mit, hat also sehr viel höhere Reibungsverluste, die mein Auto wiederum abbremsen und mir somit die kinetische Energie nehmen, die ich in der Geschwindigkeit noch habe. Diese Energieverluste sind höher als die Energie, die der Motor braucht, um mit Kraftstoffaufwand in der Leerlaufdrehzahl gehalten zu werden.
    Dabei sollte nicht nur die Kupplung getreten, sondern unbedingt auch ausgekuppelt werden, weil sonst im Getriebe zur Synchronisation der Gänge noch so einiges in Bewegung bleibt und Reibungsverluste erzeugt.
    Dieser Tipp muss aber vorsichtig und sehr vorausschauend eingesetzt werden. Es bringt überhaupt nichts, wenn ich bergab auskupple, um dann ständig auf der Bremse zu stehen. Die gewonnene Energie wird dann sofort wieder von den Bremsen in die Luft geblasen; wenn ich mit der Motorbremse dafür sorge, dass der Motor momentan keinen Kraftstoff zugeführt bekommt, ist das viel sinnvoller. Gleiches gilt, wenn ich ausgekuppelt an eine Ampel heranrolle, um am Schluss dann doch noch kräftig zu bremsen. Dann lieber gleich eingekuppelt bleiben.
    Sinn macht dieser Tipp nur, wenn man zum Beispiel weit vorausschauend 200 m vor einem Ortsschild auskuppelt, um dort dann – ohne zwischendurch gebremst zu haben! – mit etwa 50 km/h anzukommen. Oder wenn man bei einem leichtem Gefälle zwischendurch mal mit dem Motor bremst, ansonsten den Wagen rollen lässt, aber die Bremse nie anrührt.
    Zu häufiger Einsatz an der falschen Stelle führt zu mehr Bremsungen und mehr Spritverbrauch, als wenn man den Gang einfach dringelassen hätte.
  • Kräftig beschleunigen. Um den Motor im Bereich seines besten Wirkungsgrades zu betreiben, sollte das Gaspedal beim Beschleunigen zu etwa 90% durchgetreten werden. Dabei natürlich trotzdem frühzeitig hochschalten, um Reibungsverluste durch hohe Drehzahlen zu vermeiden.
    Das bedeutet: Kurz kräftig aufs Gas, dann bei spätestens 2.000 Umdrehung pro Minute in den höheren Gang, wieder kurz kräftig aufs Gas und gleich weiter hochschalten etc.
    Dass im Motor beim anschließenden „Dahingleiten“ ohne weitere Beschleunigung relativ viel der eingesetzten Leistung verpufft (weil er bei der minimalen Last einen schlechten Wirkungsgrad hat), macht nicht viel aus: Relativ viel von ganz wenig ist immer noch ganz wenig. Will sagen: Dass von der wenigen Energie, die zum Halten der Geschwindigkeit benötigt wird, ein großer Prozentsatz verloren geht, ist nicht so schlimm. Beim Beschleunigen wird aber sehr viel Energie benötigt, deshalb sollte es in einem möglichst effizienten Leistungsbereich des Motors vonstatten gehen.

    EDIT: Nach aktuellen Erfahrungen mit meinem Kleinwagen (Peugeot 107) muss ich diese Aussage ein Stück weit korrigieren.
    Weiterhin gilt auf jeden Fall: Kräftig beschleunigen! Bei einem Kleinwagen, vor allem bei einem Benziner, der im niedrigen Drehzahlbereich wenig Drehmoment entwickelt, macht es je nach Situation aber oft keinen Sinn, schon bei 2.000 U/min hochzuschalten.
    Ich kam ins Nachdenken, als ich es einmal auf dem Heimweg von der Arbeit sehr eilig hatte und entgegen meiner sonstigen Gewohnheiten so schnell fuhr wie erlaubt und möglich: Mit sehr hohen Drehzahlen massiv hochbeschleunigt, oft gebremst, bei freier Landstraße nicht mit knapp über 90 km/h, sondern laut Tacho mit fast 120 km/h unterwegs … Und trotzdem erreichte ich laut Bordcomputer zwar keinen sehr guten, aber doch einen besseren Verbrauch als bei „schlechten“ Fahrten (wo der Verkehr zu ungünstigen Manövern führte) mit angeblich spritsparender Fahrweise.
    Der Grund wurde mir schnell klar: Auch bei niedrigen Drehzahlen führt die Beschleunigung mit fast durchgedrücktem Gaspedal zu Verbräuchen jenseits von 10 l/100 km. Bei hohen Drehzahlen sind die Verbräuche noch einmal um geschätzt 30-50% höher – aber für wesentlich kürzere Zeit, da ich über das viel höhere Drehmoment, das der kleine Benziner hier erreicht, meine Zielgeschwindigkeit, bei der ich dann mit wenig Verbrauch „weitersegeln“ kann, viel schneller erreiche.
    Es kann also sinnvoller sein, den Motor weit hochdrehen zu lassen, wenn dadurch die Zielgeschwindigkeit und damit der niedrige Kraftstoffverbrauch deutlich schneller erreicht werden kann.
    Das gilt nicht oder nur teilweise bei Diesel- und modernen Turbomotoren, die schon bei geringen Drehzahlen ein hohes Drehmoment erreichen, und auch bei „normalen“ Benzinern nur dann, wenn die Motorisierung eher klein ausfällt und daher bei niedrigen Drehzahlen der Beschleunigungsvorgang sehr langwierig wird.
    Eine zeitlang habe ich das recht extrem betrieben: Grundsätzlich im zweiten Gang bis 55, im dritten bis knapp 90 km/h (also jeweils ca. 4.000 U/min), bergauf maximal beschleunigt usw. Das führte zwar tatsächlich zu leicht verbesserten Verbrauchswerten gegenüber der niedertourigen Fahrweise, aber nur minimal.
    Ideal ist hier ein Zwischending: Nicht so sehr ins Extrem gehen. Bei etwa 3.000-3.500 U/min hochschalten. Wenn auch niedertourige Fahrweise ausreichende Beschleunigung ergibt, etwa bei leichtem Gefälle, trotzdem früh hochschalten. Und: Wenn die Zielgeschwindigkeit hoch ist, die Strecke bis zur nächsten Ortschaft aber kurz, habe ich oft meine 90+ km/h auf Streckenabschnitten erreicht, wo ich vorher so schnell gar nicht wurde. Das hilft natürlich auch nicht beim Sparen.
    Um es zusammenzufassen: Frühes Hochschalten ist nur dann sinnvoll, wenn es nicht zu einem stark verlängerten Beschleunigungsvorgang führt.
  • Nicht zu schnell fahren. Spätestens jenseits der 100 km/h wird der Luftwiderstand wirklich sehr groß – das kann man wunderbar spüren, wenn man bei diesem Tempo einmal die Hand aus dem Fenster hält. Und er steigt quadratisch zur Geschwindigkeit!
  • Noch wichtiger ist, nicht unnötig zu beschleunigen, wenn man ohnehin gleich wieder bremsen muss – so bläst man ungeheure Energiemengen einfach in die Luft.
  • Drehzahlen niedrig halten. Faustregel: Spätestens bei 2000 Umdrehungen pro Minute in den nächsthöheren Gang schalten – außer, wenn das den Beschleunigungsvorgang stark verlängert, siehe EDIT oben.
    Außerdem: Wenn nicht mehr beschleunigt werden muss, reichen bei vielen Motoren auch deutlich niedrigere Drehzahlen unter 1500 Umdrehungen pro Minute (5. Gang im Stadtverkehr). Das muss man selbst ausprobieren – solange es nicht ruckelt und dröhnt, ist alles in Ordnung. Wenn man wieder beschleunigen muss, ist es dann natürlich meist sinnvoll, wieder zurückzuschalten.
  • Gewicht sparen. Das heißt vor allem: Möglichst ein relativ kleines Auto fahren. Und natürlich nichts unnötig herumkutschieren, was man ohnehin selten braucht; Kofferraum ausräumen.
  • Luftwiderstand sparen. Für den Luftwiderstand ist neben der Geschwindigkeit die Frontfläche und der cw-Wert ausschlaggebend. Beides ist bei einem SUV besonders groß und damit besonders ungünstig – bei solchen Autos kann schon im Stadtverkehr der Luftwiderstand die sonstigen Reibungsverluste übersteigen!
    Und natürlich: Keine Dachträger oder gar Dachboxen herumfahren, wenn man sie gerade nicht benötigt, bei höheren Geschwindigkeiten (außerhalb der Stadt) lieber die Lüftung an- als die Fenster aufmachen.
  • Unnötige Verbraucher abschalten. Das betrifft vor allem die Klimaanlage, die bei manchen Autos fast einen Liter auf hundert Kilometer schlucken kann. Auch die Heckscheibenheizung zieht relativ viel (aber kein Vergleich zur Klimaanlage!). Kleinere Verbraucher wie Sitzheizung, Radio, Außenspiegelheizungen, Lüftung auf hoher Stufe und Licht fallen dagegen weniger ins Gewicht, ihre Auswirkungen sind beim Spritverbrauch kaum zu spüren – höchstens, wenn man sie alle gemeinsam aktiviert oder deaktiviert.
    Unnötigen Verbrauch vermeiden ist natürlich immer sinnvoll, aber es ist extrem unsinnig, etwa in der Dämmerung auf das Abblendlicht zu verzichten, weil man Sprit sparen möchte. Die Auswirkung auf den Spritverbrauch ist nahe Null, die auf die eigene Sicherheit dagegen gravierend. Es sollte sich auch niemand, der kein Tagfahrlicht sein eigen nennt, durchs Spritsparen davon abhalten lassen, auch tagsüber das Abblendlicht einzuschalten.
  • Gute, passende Reifen wählen. Eher schmal als breit, mit möglichst geringem Rollwiderstand. Im Frühjahr nicht zu lange bei Winterreifen bleiben. Aber auch hier gilt natürlich: Sicherheit geht vor. (Konkret: Keinesfalls auf schönes Wetter spekulieren und deshalb verfrüht Sommerreifen aufziehen! Aber eben auch nicht das Reifenwechseln aus Faulheit bis fast in den Sommer hinein aufschieben.)
    Wichtig ist natürlich auch der passende Reifendruck. Zu wenig Druck bedeutet mehr Reibung, mehr Verschleiß und mehr Verbrauch.
  • Keine großen Motoren wählen. Große Motoren haben mehr Reibungsverluste, brauchen mehr Energie, um in Schwung gebracht zu werden und sind schwerer. Und vor allem: Es ist fast unmöglich, mit ihnen bei etwa 90% Leistung effizient zu beschleunigen: Meist sind andere Autofahrer „im Weg“, außerdem sollte man sich manchmal auch um die Nerven der Mitfahrer Gedanken machen.
    Zudem kann man so schnell gar nicht hochschalten, wie ein kraftvoller Motor bei „90% Gaspedal“ schon wieder über die 2.000 Umdrehungen pro Minute hinausgeschossen ist.
    Zu klein sollte der Motor aber auch nicht sein: Wenn man erst ab 2500 Umdrehungen pro Minute überhaupt die Leistung auf die Straße bringt, die einen beim Beschleunigen nicht zum Verkehrshindernis macht, verliert man wieder zuviel Energie durch Reibungsverluste im Motor.
    Ähnliches gilt für Langstreckenfahrer: Ein größerer Motor mit lang übersetztem 6. Gang ist beim Dahingleiten über die Autobahn sparsamer als ein kleines Motörchen jenseits der 3.000 Umdrehungen pro Minute.
    Ein starker Motor verleitet aber natürlich auch immer dazu, unvernünftig zu fahren.
  • Strecken klug auswählen. Wo man die Wahl hat, etwa bei einem längeren Weg zur Arbeit, sollte man sich die möglichen Strecken anhand ihres Spritverbrauchspotentials ansehen. Besonders schlimm sind Strecken, bei denen ständig beschleunigt und abgebremst werden muss, sprich Stadtverkehr. Autobahn kann zwar effizienter sein als Landstraße, aber nur, wenn man sich im Tempo eher an LKWs als an Sportwagen orientiert, und wenn man ständiges Abbremsen und Beschleunigen nach Möglichkeit vermeidet.
    Den Umweg, den Autobahnen gegenüber einem Weg übers Land oft bedeuten, sind sie von der Spitersparnis her meist nicht wert – außer die Landstraßenalternative jagt einen vom einen Dorf direkt ins nächste oder über extrem viele Kurven und Serpentinen, so dass wieder das Problem vieler Bremsungen besteht.
    Gerade, wenn man die Strecke gut kennt und sie nicht allzu befahren ist, kann man auf der Landstraße aber oft die aufgebaute Geschwindigkeit nutzen und ins nächste Dorf hinein ausrollen.
    Trotzdem gilt natürlich: Konstant 90 km/h auf der Autobahn kostet weniger Sprit als häufiges Beschleunigen und Abbremsen auf der Landstraße. Im Zweilfelsfall muss man die verschiedenen Alternativstrecken einfach einen Tank lang testen.
  • Uhrzeiten klug auswählen. Wenn man in Gleitzeit arbeitet und auch familiär die Wahl hat, sollte man den Berufsverkehr unbedingt meiden. Das schont nicht nur die Nerven, sondern auch den Geldbeutel. Eine halbe Stunde hin oder her macht oft extreme Unterschiede im Verkehrsaufkommen aus, und mithin in der Notwendigkeit, viel zu bremsen.
  • Zu mehreren oder mit öffentlichen Verkehrsmitteln fahren. Wer alleine im Auto unterwegs ist, lässt immer unnötig viel Energie auf der Straße, so sparsam Auto und Fahrstil auch sein mögen. Wo immer es möglich ist, sollte man deshalb auf Fahrgemeinschaften oder öffentliche Verkehrsmittel setzen.

Theoretisch wäre es also ideal, sofern die Verkehrssituation es ermöglicht, immer wieder (im höchsten Gang bei fast durchgetretenem Gaspedal) hochzubeschleunigen, dann auszukuppeln, eine Weile zu rollen und wieder hochzubeschleunigen. Außerdem müsste man so fahren, dass man die Bremse nie benötigt und immer rechtzeitig vom Gas geht.
Natürlich ist das unrealistisch. Ich persönlich würde auch ständiges Hochbeschleunigen und Wiederausrollen auf gerader Strecke als sehr unangenehm empfinden. Zumal mit anderen Verkehrsteilnehmern hinter mir – Andere nerven muss ja auch nicht sein.
Aber wo es ohne Verrenkungen möglich ist, macht es auf jeden Fall Sinn, diese Punkte zu beherzigen.

#Energiesparen #Umweltschutz #Verkehr
Einer von Vielen
  
Danke
Zottels Zeug
  
Mit meinem mäßig motorisierten Kleinwagen (Peugeot 107) habe ich mittlerweile die Erfahrung gemacht, dass es in bestimmten Fällen kontraproduktiv ist, früh hochzuschalten; es kann besser sein, den Motor kräftig hochdrehen zu lassen, wenn er dann ein deutlich höheres Drehmoment entwickelt. Näheres dazu habe ich oben in einem EDIT eingefügt.
Zottels Zeug
  last edited: Thu, 26 Jun 2014 10:59:37 +0200  
Die mia steht nicht mehr zum Verkauf, ich habe sie letzte Woche verkauft.

Image/photo
Es ist sehr, sehr schade, aber leider wahr: Ich muss meine mia schon wieder verkaufen.
Die Gründe sind einfach:
Erstens hat meine Frau den Arbeitsplatz gewechselt. Die neue Strecke führt größtenteils über die Autobahn, und sie weigert sich, sie in der mia zurückzulegen – weil sie sich unsicher fühlt, und weil ihr 100 km/h Spitze zu wenig sind. Außerdem dürfte es im Winter von der Entfernung her auch knapp werden.
Meine Frau arbeitet oft am Wochenende. Wenn ich dann mit den Kindern zu weiter entfernter Verwandtschaft fahren will, was ich an solchen Wochenenden gerne tue, ist die Reichweite der mia nicht ausreichend – und unser zweites Auto hat dann ja meine Frau in der Arbeit dabei.
Zweitens brauchen wir eine neue Familienkutsche. Um das Geld dafür aufzubringen, muss ich auf ein billigeres Gefährt umsteigen.
Schade – ich habe meine mia wirklich geliebt.
Hier die relevanten Daten:
  • EZ 3/2012, TÜV 3/2015
  • Km-Stand derzeit ca. 11.500 km, erhöht sich aber noch, da täglich in Benutzung
  • sehr guter Zustand, fast wie neu
  • 3-Sitzer: Fahrer sitzt vorne zentral, Mitfahrer links und rechts dahinter, dadurch viel Platz für alle trotz sehr geringer Abmessungen
  • Batterie: Lithium-Eisenphosphat, 12 kWh, 99% Restkapazität lt. Anzeige des Fahrzeugs
  • Batterie ist im Preis inklusive, keine Batteriemiete!
  • Schiebetüren
  • Höchstgeschwindigkeit: 100 km/h
  • Realistische Reichweite: Im Sommer über 100 km, im Winter ca. 80-90 km (Werksangabe: 120 km)
  • Ladung an normaler Steckdose, max. ca. 2,8 kW Leistung benötigt, Ladedauer von ganz leer bis voll ca. 5h (Werksangabe, ich habe die Batterie nie ganz leer gefahren)
  • Realistischer Stromverbrauch ab Steckdose im Gesamtdurchschnitt ca. 15-16 kWh/100 km, die Verbrauchskosten liegen somit selbst mit Ökostrom unter 4 ct/km!
  • Steuerfrei bis 2022
  • Aktuelle Software (Sommer 2013)
  • Radio/CD/MP3/AUX/USB/Bluetooth inkl. Bluetooth-Freisprecheinrichtung und A2DP
  • 8-fach bereift, Winterreifen neu gekauft im Oktober

Standort: Franken
Preisvorstellung: € 12.500,– (aktueller Neupreis in dieser Ausstattung ca. € 20.700,– + Winterräder + Überführung)

Wer Interesse hat, melde sich bitte über eine persönliche Nachricht via Red bei mir oder sende eine E-Mail an blog@zottel.net .
Zottels Zeug
  last edited: Fri, 28 Feb 2014 17:21:27 +0100  
Das wollte ich schon lange hier einstellen, hiermit reiche ich es nach:
Mit etwas kreativer Pack-Leistung kann man so einiges in einer mia unterbringen.
Bei dieser Fahrt waren neben mir selbst folgende Gegenstände und Personen in meiner mia:
  • Ein großer Einkochtopf
  • Vier Getränkekästen
  • Ein Christbaum, und nicht zu vergessen:
  • Ein Kind im Kindersitz

Hier der Beweis:

Image/photo

Image/photo
(Hier ist im Hintergrund ein weiterer, roter Getränkekasten zu sehen.)

Image/photo

Damit ist klar: Die mia ist ein vollwertiger Transporter! ;-)

#mia #Elektroautos
Einer von Vielen
  
Danke für die "Doku".
Bei so viel Begeisterung könnten wir ja glatt eine Ich-kaufe-mir-ein-Auto-Redaktion aufmachen, siehe #^https://friendicared.net/page/einervonvielen/dacialodgy
Zottels Zeug
  last edited: Tue, 25 Feb 2014 09:25:48 +0100  
WhatsApp war lange der Standard, der allgemein genutzte Ersatz für SMS, mit unglaublichen 450 Millionen Nutzern weltweit. Immer wieder gab es Berichte über stark unzulänglichen Schutz der Privatsphäre wie auch über Unzuverlässigkeit durch häufige Server-Ausfälle. Trotzdem: Mit dem Platzhirsch konnte sonst keiner mithalten, es waren einfach alle dort und sonst nirgends, jedenfalls wenn der Freundes- und Familienkreis nicht hauptsächlich aus technisch Interessierten bestand.

WhatsApp verliert Nutzer
Dann ging es letzte Woche wie ein Paukenschlag selbst durch die Mainstream-Presse: Facebook hat WhatsApp gekauft. Ein Schock vor allem für diejenigen, die Facebook den Rücken gekehrt haben, WhatsApp aber weiterhin verwendeten. Zusätzlich gab es letztes Wochenende dann auch noch einen mehrstündigen Server-Ausfall bei WhatsApp – insgesamt Grund genug für erstaunlich viele Nutzer, sich endlich nach einer Alternative umzusehen.
Aber was für Alternativen gibt es überhaupt? Klar ist, dass ein entsprechender Kandidat in der Lage sein muss, Kontakte aus dem eigenen Adressbuch automatisch zu finden. Genau das war ja die Innovation bei WhatsApp (letztlich die einzige), die zu dem großen Erfolg führte: Man nutzte intern einfach die Handynummer des Nutzers als Usernamen. Dadurch ist es leicht, andere Nutzer aus dem eigenen Adressbuch zu finden.
Außerdem sollte es ein Drittanbieter sein, der auch für Leute akzeptabel ist, die den großen Datenkraken möglichst wenig in den Rachen werfen wollen. Facebook Messenger oder Google Hangouts fallen also von vornherein weg,

Wichtigste Alternativen: Threema und Telegram
Über die letzten Tage hat sich gezeigt, dass vor allem zwei Anbieter vom Massen-Exodus der WhatsApp-User profitieren konnten: Threema und Telegram. Die beiden möchte ich deshalb in diesem Artikel näher betrachten.
Beide haben einen gewissen Charme und gewisse Probleme.

Telegram

Um Missverständnissen vorzubeugen: Ich habe Telegram bei mir nicht installiert. Das hat seine Gründe, dazu kommen wir weiter unten.
Erst einmal aber zu den positiven Punkten:

Kostenlos: Telegram kostet nichts und soll auch nie etwas kosten. Und es ist auch tatsächlich kostenlos, keine Werbung, und nach eigener Aussage sind die Betreiber einfach nur selbstlos, wollen einen sicheren Chat für alle, betreiben ihn auf eigene Rechnung, haben kein Interesse an den Daten und haben nicht vor, jemals Geld damit zu verdienen. Wow. Wirklich?
Verschlüsselt: Die Nachrichten werden per Default auf dem Handy verschlüsselt, und zwar mit einer Reihe bekannter Verschlüsselungsverfahren, sinnvollerweise nicht nur einfaches SSL, das ja für sich allein nicht mehr als vertrauenswürdig betrachtet werden kann. Allerdings nur auf der Strecke vom Handy zum Server. Auf dem Server werden die Daten (zumindest die Nachrichten) ebenfalls in verschlüsselter Form abgelegt. Die Schlüssel dazu liegen nicht auf dem gleichen Server, sondern auf mehreren anderen Servern in verschiedenen Ländern. Dadurch hat der Betreiber an sich zwar jederzeit die Möglichkeit, die Nachrichten zu entschlüsseln und zu betrachten, aber der einzelne Mitarbeiter in einem Rechenzentrum nicht. Zusätzlich gibt es einen „Secret Chat“ mit echter Ende-zu-Ende-Verschlüsselung, dessen Nachrichten auch gar nicht auf den Servern zwischengespeichert werden. Das ist aber nicht der Default.
Mehrere Geräte/„Cloud“: Man kann sich von mehreren Geräten aus bei dem Dienst anmelden. Zum Beispiel von einem Tablet aus, einem Desktop-Rechner und zwei Handys. Der eigene Username bleibt immer die Handynummer, und um einen weiteren Client nutzen zu können, wird eine Autorisierungsnachricht per SMS an das Handy geschickt, die man dann abtippen muss. Damit ist halbwegs sichergestellt, dass nicht jemand anders die eigenen Nachrichten mitlesen kann, indem er sich einfach mit einem weiteren Client als man selbst ausgibt. Secret Chat funktioniert immer nur von einem Client zu anderen, diese Nachrichten können nicht über die Cloud eingesehen werden.
Viele Betriebssysteme unterstützt: Offizielle Clients gibt es wie bei Threema nur für Android und iOS. Da Telegram aber API und Protokoll offenlegt, können jederzeit weitere Clients entwickelt werden. So gibt es bereits inoffizielle Clients für Windows Phone, fürs Web und für verschiedene Desktop-Betriebssysteme.
Teilweise Open Source: Zumindest für Clients (auch die offiziellen) ist der Code für jeden einsehbar. Die eingesetzte Server-Software wurde aber zumindest bisher nicht veröffentlicht.

Leider gibt es aber auch einige Nachteile. Die liegen vor allem auf der Ebene der Privatsphäre. Sicher ist Telegram hier besser als WhatsApp, aber es ist immer noch viel zu kurz gesprungen. Wenn man schon was Neues macht, oder auch als User die Möglichkeit hat, gemeinsam mit dem gesamten Freundeskreis auf etwas Neues umzusteigen, kann es doch gleich richtig machen! Wie es besser geht, erkläre ich unten bei Threema, hier erst einmal nur meine Kritikpunkte:

Nur im Play Store zu haben? Zumindest auf der Telegram-Website gibt es für die Android-Apps nur einen Link zu Googles Play Store für den Download – kein eigener Download, kein Hinweis auf alternative Marktplätze. Was nicht heißt, dass es Telegram dort nicht gibt; ich habe das nicht überprüft. Wer Google komplett den Rücken gekehrt hat und ein Android ohne Google-Apps einsetzt, hat zumindest scheinbar keine andere Chance als sich die App selbst zu kompilieren.
Ende-zu-Ende-Verschlüsselung ist nicht Standard: Ende-zu-Ende-Verschlüsselung bedeutet, dass nur derjenige, für den die Nachricht gedacht ist, sie entschlüsseln und somit lesen kann. Wer auch immer dazwischensitzt und mithört, kann das nicht – auch nicht der Betreiber des Dienstes. Solche Nachrichten sind über den „Secret Chat“ zwar grundsätzlich möglich, aber mit Einschränkungen gegenüber dem normalen Dienst verbunden, so dass davon auszugehen ist, dass „normale Nutzer“ dieses Feature selten nutzen werden. Eine in meinen Augen wirklich sinnvolle Lösung muss das einfach so machen, ohne dass der Nutzer es überhaupt mitbekommt. Nur so ist gesichert, dass die Daten nicht doch in Hände fallen, wo man sie lieber nicht sähe – und sei es durch Verkauf an andere Organisationen wie im Falle von WhatsApp.
Speicherung der Nachrichten auf den Servern, lesbar durch den Betreiber: Um die „Cloud“-Dienste anbieten zu können, muss der Betreiber die Nachrichten auf seinen Servern speichern. Nur so kann ich einen Chat-Verlauf einsehen und weitermachen, wo ich aufgehört hatte, wenn ich von einem Client auf den anderen wechsle. Nach eigenen Aussagen hat der Betreiber zwar dafür Sorge getragen, dass einfache Mitarbeiter die Chats nicht lesen können. Grundsätzlich kann der Betreiber das aber. Das ist eigentlich unnötig, durch Schlüssel-Export aus Clients könnte es auch so gestaltet werden, dass der Betreiber keine Entschlüsselungsmöglichkeiten hat. So, wie es ist, ist diese Lösung zwar etwas, aber nicht wesentlich besser als das, was WhatsApp auch schon geboten hat. Lediglich die Strecke zwischen Client und Server ist besser geschützt.
Nutzung von Telefonnummern und Namen im Klartext: Durch die Synchronisierung des eigenen Telefonbuchs erhält der Betreiber gewissermaßen ein weltweites Telefonverzeichnis von Handybenutzern, auch von solchen, die Telegram gar nicht nutzen. Nach einem kurzen Blick in die Sourcen der Android-App sieht es für mich so aus, als ob alle Telefonnummern samt den dazugehörigen Vor- und Nachnamen auf die Server des Betreibers synchronisiert werden. Bitte verlasse Dich aber nicht auf diese Aussage! Ich habe nicht wirklich nachvollzogen, was da wo und wann passiert, sondern nur anhand der genutzten Datenstrukturen gesehen, dass anscheinend Name, Vorname und Telefonnummer das sind, was aus dem eigenen Adressbuch an die Telegram-Server geschickt wird. Das macht die Nutzung zusätzlicher Clients wie eines Web-Clients einfacher, ist aber mehr als ich eigentlich an die Betreiber schicken möchte.

Threema

Bei Threema ist das ganze deutlich schöner gelöst. Wie bei Telegram auch ähnelt die Benutzeroberfläche der von WhatsApp. Neben Text können Bilder, Videos und Orte verschickt werden, eine Voice-Chat mit aufgenommenen Nachrichten ist aber (wie auch bei Telegram) zumindest noch nicht möglich. Einige Kritikpunkte gibt es allerdings auch:

Beschränkte Auswahl von Betriebssystemen: Leider sind Android und iOS die einzigen unterstützten Systeme. Speziell Windows Phone sollte eigentlich auch dazugehören, und auch die Mindestvoraussetzung Android 4.0 schließt so manchen Nutzer von vornherein aus. Zumindest aktuell geben die Betreiber auch an, keine Threema-Versionen für andere Betriebssysteme zu planen.
Kleinere Verbreitung: Threema hat in den letzten Tagen gewaltig Nutzer gewonnen, Telegram aber noch mehr. Beide sind noch sehr weit von der Verbreitung von WhatsApp entfernt. Über Telegram kann ich nichts sagen, aber in meinem persönlichen Adressbuch, das aus ca. 500 Personen besteht, gab es letzten Donnerstag, als ich Threema installierte, noch drei andere Nutzer. Jetzt sind es neunzehn. Bei WhatsApp waren 95 – was aber nicht unbedingt etwas aussagt, denn alle, mit denen ich mich wirklich austauschen will, sind bereits bei Threema.
Nicht kostenlos: Threema kostet derzeit ca. € 1,60. WhatsApp war aber ja (je nach OS) spätestens nach dem ersten Jahr auch nicht mehr kostenlos, und Threema sagt mir sehr viel mehr zu. Natürlich kann das aber ein Hindernis sein, wenn man den Freundeskreis überzeugen will.
Closed Source: Mit dem Preis, den Threema für seine Dienste verlangt, geht leider auch einher, dass man keinen Zugriff auf den Source Code bekommt. Auch wenn es unwahrscheinlich ist: Rein theoretisch könnten all die Versprechungen auf der Threema-Website also Schall und Rauch sein, könnte die App doch nicht so verschlüsseln wie angegeben oder immer die Möglichkeit für bestimmte Dritte zum Mitlesen bei der Verschlüsselung eingebaut werden. Ohne Source ist das nicht überprüfbar.

Und jetzt zu den Vorteilen:

Konsequent Ende-zu-Ende-verschlüsselt: Alle Nachrichten sind grundsätzlich immer Ende-zu-Ende-verschlüsselt. Anders geht es in Threema gar nicht. Und das mit einem User-Interface, das nicht schwieriger ist als das von WhatsApp. Also kann weder der Threema-Betreiber mitlesen noch sonst irgendjemand, der die Daten möglicherweise abschnüffelt.
Direkt-Download der Android-App: Hier sieht man, dass sich die Leute bei Threema wirklich Gedanken um Privatsphäre machen: Auch wer Google ganz hinter sich gelassen hat, kann über den eigenen Threema-Shop in den Genuss der Android-App kommen. Und sogar mit Bitcoins bezahlen.
Daten meiner Kontakte werden nicht im Klartext an den Betreiber übermittelt: Auch Threema bietet die Möglichkeit, andere Threema-Teilnehmer mit Hilfe des eigenen Adressbuchs zu finden. Und das sogar auch anhand von E-Mail-Adressen, nicht nur von Mobilnummern. Die Übermittlung von Daten geht hier aber ganz anders vor sich: Zunächst einmal werden Namen überhaupt nicht mit übertragen. Und auch E-Mail-Adressen und Handynummern werden nicht einfach so übertragen, sondern als Hash, das heißt es wird eine Art Prüfsumme über die Nummer bzw. Adresse gebildet. Die gleiche Telefonnummer hat immer den gleichen Hash, aber vom Hash kann man nicht auf die Telefonnummer zurückschließen. Nun wird also von meiner Nummer der Hash gebildet und an Threema übertragen, und das Handy eines Freundes bildet ebenfalls den Hash meiner Nummer (aus seinem Adressbuch) und schickt ihn an Threema. Da die beiden Hashes übereinstimmen, weiß Threema, dass er mich kennt. Trotzdem wurde die Telefonnummer nicht im Klartext übertragen.
EDIT, um das noch hinzuzufügen: Threema versichert zudem in der Datenschutzerklärung, dass diese Daten nie auf einer Server-Festplatte gespeichert werden. Die ermittelten Hashes werden bei der Synchronisierung an die Threema-Server geschickt. Die behalten sie direkt im RAM und nehmen einen Abgleich vor, speichern sie aber nie auf der Festplatte. Das ist gut, da es den Aufbau eines „Social Graph“ also einer Visualisierung des Beziehungsnetzwerks zwischen Personen auch über Threema hinaus erschwert.
Natürlich kennt Threema meine Telefonnummer trotzdem. Sonst könnte es mir ja keine Bestätigungs-SMS schicken, mit der ich als Besitzer der Telefonnummer authentifiziert werde. Mich selbst muss ich also immer preisgeben – nicht aber die Freunde, die gar nicht bei Threema sind. Von denen erhält Threema nur Hashes, von denen nur bekannt ist, dass sie nicht Threema-Teilnehmer sind. Die eigentlichen Nummern kennt Threema aber nicht.
Dass keine Namen und Telefonnummern (und auch keine Fotos) mit übertragen werden, erkennt man auch daran, dass die Nachricht eines bisher unbekannten Threema-Teilnehmers einfach mit dessen kryptischer Threema-ID als Absender erscheint. Ob er wirklich der ist, der er zu sein vorgibt, muss man dann selbst herausfinden.
Grundsätzlich ist Threema auch komplett ohne Adressbuchabgleich nutzbar und auch, ohne die eigene Telefonnummer/E-Mail-Adresse anzugeben, dann natürlich ohne automatisches Auffinden von Kontakten.
Identitäts-Prüfung: Wenn ich eine Nachricht eines „Unbekannten“ erhalten habe, erscheint dieser Kontakt mit einem roten Punkt neben seiner ID (bzw. dem Namen, den ich ihm dann selbst zuordnen kann): Ich kann nicht wissen, ob er wirklich der ist, der er zu sein vorgibt. Hat er in seinem Threema-Konto eine Telefonnummer oder E-Mail-Adresse angegeben, die auch in meinem Adressbuch vorkommt, erscheinen zwei gelbe Punkte. Jetzt ist es zumindest sehr wahrscheinlich, dass er wirklich derjenige ist, denn diese Adressen hat Threema ja überprüft. Jemand mit physischem Zugang zu seinem Telefon bzw. seiner SIM-Karte könnte aber auch das gefaket haben. Deshalb ist es möglich, wenn man sich persönlich trifft, einfach einen QR-Code vom dem Display des Kommunikationspartners abzuscannen. Jetzt hat er drei grüne Punkte – ich kann absolut sicher sein, dass er wirklich der ist, der er zu sein vorgibt.
Keine unnötige Speicherung von Nachrichten auf dem Server: Grundsätzlich gibt es natürlich eine zeitweise (verschlüsselte) Zwischenspeicherung der Nachrichten auf dem Server, bis sie an den Empfänger ausgeliefert werden konnten (maximal 14 Tage lang). Nach erfolgreicher Auslieferung werden sie aber gelöscht.
Auf Wunsch verschlüsselte Speicherung der Nachrichten auf dem Gerät: Unter Android kann man einen „Hauptschlüssel“ definieren, mit dem die auf dem Gerät gespeicherten Nachrichten verschlüsselt werden. Der muss dann bei jedem Neustart des Handys eingegeben werden. Nicht jedesmal, wenn man die App aufmacht – aber man kann nach der Nutzung den Schlüssel auch wieder sperren, so dass kein unbefugter (auch mit direktem Zugriff auf das Handy) die Nachrichten lesen kann. Unter iOS werden wohl OS-eigene Mittel benutzt, die an sich brauchbar sind, aber anscheinend der Auslesen der Nachrichten via USB ermöglichen, wenn der Angreifer in der Lage ist, das Handy zu entsperren. Damit kenne ich mich aber nicht gut genug aus, um das näher zu bewerten.

Fazit

Telegram ist gegenüber WhatsApp sicher ein Fortschritt, was die Privatsphäre betrifft. An entscheidenden Punkten fehlt aber der letzte Schritt – man opfert Privatsphäre, um die Nutzung von mehreren Geräten aus einfach zu machen; es werden unnötig viele Daten aus dem eigenen Adressbuch an Telegram übertragen.
Somit geht Threema als eindeutiger Sieger aus diesem Vergleich hervor. Wenn man schon die Chance hat, einen ganzen Pulk Freunde zu einem besseren System überreden zu können, dann doch bitte gleich das beste nehmen, was momentan auf dem Markt ist.
In Sachen Privatsphäre ist Telegram gegenüber WhatsApp nur ein kleiner Fortschritt, Threema dagegen eine andere Welt.

#Privatsphäre #Android #iOS #Chat
sasiflo
  
Super Artikel!

Eine Unschärfe gibt es allerdings. Du hast darauf verwiesen, dass die Konstruktion eines Social-Graph nicht möglich ist, weil Threema die Rufnummern aus Deinem Adressbuch nicht übertragen bekommt. Das stimmt aber nur bedingt, denn aus den gemeinsamen Hashes verschiedener Benutzer lässt sich sehr wohl ein Social-Graph erstellen. Und zusätzlich wird dessen "Qualität" noch dadurch verbessert, dass die angemeldeten Benutzer und deren Verknüpfung untereinander bekannt sind.

Das ist das grundsätzliche Problem zentraler Lösungen und einer der Gründe für dezentrale soziale Netzwerke ohne zentrale Speicherinstanz. Red Matrix und Friendica, you know ;-)
Zottels Zeug
  
Nein, ich habe nicht geschrieben, dass durch Hashes die Erstellung eines Social Graph unmöglich wird, sondern dass dadurch, dass diese Hashes nie auf einer Server-Festplatte gespeichert werden, die Erstellung eines Social Graph erschwert wird. Das ist ein großer Unterschied! ;-)

Grundsätzlich möglich ist es selbstverständlich, vor allem dann, wenn der Betreiber nicht das tut, was er auf seiner Homepage verspricht.
sasiflo
  
Eine Unschärfe in meiner Lesart ;-) Ja, stimmt, das hast Du nicht geschrieben.
Zottels Zeug
  last edited: Fri, 10 Jan 2014 23:55:55 +0100  
As this post might be of interest for an international audience who might find it using a search engine, I'll post it in English.

Ever wondered how to write a script to post arbitrary stuff to the Red Matrix, like the output of any script or, in my case, RSS/Atom feeds? (feed2red.pl is already working, but not ready yet, I'll cover it here when it is.)

Here's how to do it in Perl. Kudos to Tazman Devil, his bash script (using curl) taught me what I had to do.

We can use the Red API for posting. That means we have to go to <server>/api/statuses/update?channel=<channel> and provide what we want to post via POST there.

So we need some kind of http client. That would be LWP::UserAgent, which I think is automatically installed with most Perl distributions, but you might have to install using your package management system first.

So, let's go:
use LWP::UserAgent;

my $red = LWP::UserAgent->new();

LWP::UserAgent has method called post to POST something at a web address. In the way I use it, it takes the URL to post to as a string and the keys and values to set as a hash reference. We need to set the key "status".

The post method will return a HTTP::Response object. We can use its methods is_error and message to handle errors.

During the following examples, I'll use red.zottel.net as the Red server and zottelszeug as the channel address—please replace that with your own values.

Ok, so let's post:
my $response = $red->post("https://red.zottel.net/api/statuses/update?channel=zottelszeug",
    [ status => "A wonderful post!" ]);
if ($response->is_error)
    {
    print STDERR "Error posting to Red: " . $response->message . "\n";
    exit(1);
    }

But wait—we have to be authenticated first! We could use OAuth here, which is complicated, or we can just provide our username and password using basic auth.

To do that, we must set the corresponding HTTP headers. We can set our default headers used by LWP::UserAgent by using its default_headers method. We give it an HTTP::Headers object, where we can conveniently set the auth headers:
my $hed = HTTP::Headers->new();
$hed->authorization_basic('<email address of Red account>', '<password>');
$red->default_headers($hed);

That's it. We're ready to post.

Here's the whole script with some variables to allow for easy adaptation:
#!/usr/bin/perl

use LWP::UserAgent;

my $redServer = 'https://yourserver.domain';
my $user = 'your@red.user'; # email address you use at Red login
my $password = 'yOuRrEdPaSsWoRd';
my $channel = 'channeltopostto'; # channel nickname as in https://yourserver.domain/channel/channeltopostto

my $status = 'I will post this message.';

my $red = LWP::UserAgent->new();
my $hed = HTTP::Headers->new();
$hed->authorization_basic($user, $password);
$red->default_headers($hed);

my $response = $red->post("$redServer/api/statuses/update?channel=$channel",
    [ status => $status ]);
if ($response->is_error)
    {
    print STDERR "Error posting to Red: " . $response->message . "\n";
    exit(1);
    }

#Red-Matrix #Perl
Olivier M.
 
That is really great, and could come in handy. Still no API for posting something in the past?
zottel
  
API yes, it's actually used in this script (&created=...), but no UI.