Skip to content

Wie funktioniert eigentlich Heartbleed

Lest ihr regelmäßig Bugreports oder Meldungen über Schwachstellen bei SSL/TLS? Wie fühlt ihr euch so? Zur Erinnerung:

SSL added and removed here!
Ausschnitt aus einer Folie aus dem MUSCULAR-Programm der NSA

Das heißt, drei Monate in Folge gab es schwere Sicherheitslücken in Software zur Verschlüsselung. Ganz unwillkürlich fühlt man sich an die Folien aus dem NSA-Programm MUSCULAR erinnert.

Die letztgenannte Schwachstelle ist vermutlich die bislang schwerste. Denn damit ist es möglich, den Arbeitsspeicher eines Computers auszulesen. Dies funktioniert sowohl auf der Seite des Servers wie auch beim Clientprogramm. Dazu ist es notwendig, dass das Programm OpenSSL verwendet und eine Erweiterung von SSL namens Heartbeat aktiviert hat. Dies ist beispielsweise bei Android in der Version 4.1.1 der Fall. Mozilla Firefox hingegen nutzt die NSS-Bibliothek und ist nicht betroffen. Die Webserver nutzen hingegen recht oft die OpenSSL-Bibliothek und sind damit betroffen, falls die Version 1.0.1 bis 1.0.1f von OpenSSL verwendet wird. Sollte jemand von euch die Software nutzen, so upgraded auf mindestens 1.0.1g oder deaktiviert Heartbeat in OpenSSL. Gerade letzteres kann man aus meiner Sicht problemlos tun. Denn bisher fand ich keinen sinnvollen Anwendungsfall für Heartbeat.

Doch wie funktioniert diese Lücke eigentlich? Heartbeat (RFC 6520) ist eine Erweiterung für TLS. Ein Teilnehmer einer Verbindung sendet beliebige Daten an den Empfänger. Dieser antwortet mit einer Kopie dieser Daten und zeigt somit, dass die Verbindung noch steht und alles in Ordnung ist. Das Problem dabei ist, dass in einer Anfrage zwei Längenfelder vorhanden sind. Ein Angreifer sendet einfach ein Byte Daten und behauptet, er hätte 64 kB gesendet. OpenSSL liest nun die 64 kB aus dem eigenen Puffer und sendet die Daten zurück an den Angreifer. Der Angreifer kann den Angriff immer und immer wieder starten und erhält so eventuell immer wieder ein neues Stück Arbeitsspeicher (siehe Kommentar von Florian Diesch). Bruce Schneier hat mit seinen Worten vollkommen recht:

Catastrophic" is the right word. On the scale of 1 to 10, this is an 11.
https://www.schneier.com/blog/archives/2014/04/heartbleed.html

Ich hatte in meinem 30C3-Vortrag schon ein OpenSSL-Beispiel reingenommen. Das sollte zeigen, wie kompliziert es sein kann, mit der Software sicheren Code zu schreiben. Auch andere sind, über die Codequalität gestolpert. Daher sind Leute gefragt, die einen detaillierten Blick auf OpenSSL werfen und die Software verbessern. Dazu zählt auch die bessere Lesbarkeit des Codes oder gute Dokumentation.

Wenn ihr wissen wollt, ob ihr betroffen seit, schaut lokal auf die OpenSSL-Version, nutzt die Zeile openssl s_client -connect example.com:443 -tlsextdebug 2>&1| grep ‘server extension “heartbeat” (id=15)’ || echo safe oder verwendet den Testservice von Lutz Donnerhacke oder Filippo Valsorda.

Weiterlesen:

Passwort und Nutzername im Dump der Daten von Yahoo! Mail

Spamschutz bei S9Y

Im Hintergrund tut Serendipity oder kurz S9Y seinen Dienst. Vor mehr als sieben Jahren stieg ich von Wordpress auf die Software um. Die Software tut im wesentlichen ihren Dienst. Außer, wenn wie heute, ein Plugin merkwürdige Sachen macht.

Ich hatte bis heute abend das Autosave-Plugin installiert. Das speichert die Einträge zwischen und soll eigentlich vor Datenverlust schützen. Bei mir sorgte es dafür, dass die Rezension mehrfach verschwand. Der Grund war, dass ich auf Speichern im Artikelfenster drückte und das Fenster offen liess. Das Plugin wollte einfach alte Werte speichern und löschte so den Beitrag.

Seit dem Jahreswechsel bereitet mir nicht die Blogsoftware Kopfschmerzen, sondern der Spam der eintrudelt. Anfangs hatte ich den Spamschutz aktiviert, den S9Y von Haus aus mitbringt. Dazu setzte ich ein paar Worte auf die Blacklist. Das reichte aus. Nebenan im Datenkanal habe ich noch das Bayes-Plugin im Einsatz. Das wurde von Beginn an angelernt und verrichtet gute Dienste.

Das S9Y Infocamp hat sich nun dem Thema Spamschutz bei S9Y angenommen. In dem Podcast besprechen sie verschiedene Mechanismen. Dabei kommt die Rede auf die SpamBee. Die arbeitet unter anderem mit versteckten CAPTCHAs. Die vier Podcaster sind voll das Lobes. Ich habe den Podcast glücklicherweise zur rechten Zeit gehört. Denn direkt nachdem ich die Biene hier installierte, traf das Blog eine Spamwelle. Von den Lesern hat das vermutlich niemand bemerkt. Die Spambiene hat den Spam wirklich sehr gut abgefangen. Wer also da draußen mit Spam bei S9Y zu kämpfen hat, sollte unbedingt SpamBee probieren. Vermutlich bringt das Plugin Linderung.

Fingerprints von SSL-Seiten prüfen

Das Desaster um die niederländische Zertifizierungsstelle DigiNotar zieht derzeit immer noch seine Kreise. Mir scheint es noch zu früh, um hier etwas dazu zu schreiben. Vielmehr will ich ein paar Worte verlieren, wie ich „meine eigene CA betreibe“. Denn schon seit längerem vertraue ich nicht, den von den Browsern mitgelieferten Zertifizierungsstellen (CA). Zumeist lösche ich alle und gebe dann einzeln Vertrauen.

Der beste Weg, um einem SSL-Zertifikat zu vertrauen, wäre, sich bei dem Betreiber zu melden und über einen sicheren Kanal den Fingerprint des Zertifikats zu klären. Mein Browser zeigt mit für die Seite Wikipedia-SSL-Seite den Fingerprint (SHA-1) BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E an. Wenn ich bei der Wikipedia anrufe und diese mir denselben nennen, so habe ich das korrekte Zertifikat. Dabei nehme ich natürlich an, dass das Telefon ein sicherer Weg zum Austausch der Informationen ist. Aber beispielsweise druckt die lokale Sparkasse eben diesen Fingerprint auf ihre Dokumente. Damit kann ich das als Kunde leicht verifizieren.

Wie das Beispiel Wikipedia aber schon zeigt, ergibt sich da ein Problem.Woher bekomme ich den Fingerprint? Muss ich bei Jimmy Wales direkt anrufen oder gar nach FloridaKalifornien¹ reisen? Hier kam nun meine Idee ins Spiel.

Ich habe auf diversen Servern einen Zugang, d.h. ich kann mich von der Ferne einloggen und dann dort arbeiten. Die Rechner stehen in verschiedenen Netzen und zum Teil auf verschiedenen Kontinenten. Nun logge ich mich auf den Servern ein, lade das Zertifikat herunter und lasse mir den Fingerprint anzeigen. Wenn dieser auf allen Rechner gleich ist, dann gehe ich davon aus, dass ich das korrekte Zertifikat angezeigt bekomme. In dem Fall akzeptiere ich das und vertraue dem. Sollten die Fingerprints abweichen, dann akzeptiere ich das nicht und recherchiere dem in der Regel ein wenig hinterher.

Jörg Sommer hat das nun ein wenig automatisiert und ein zsh-Skript (Quelltext weiter unten) geschrieben. Das wird folgendermaßen aufgerufen:

ssl-fp-check [-l] sslsi.te[:port] ssh1 [ssh2] [ssh3] ...

Dabei ist sslsi.te die Webseite, die geprüft werden soll. Ohne die Angabe eines Ports verwendet das Skript standardmäßig 443. Danach wird eine oder mehrere SSH-Verbindungen angegeben. Das Skript wird nun versuchen, sich überall einzuloggen und gibt dann den Fingerprint aus. Für den Fall, dass es auf dem Zielsystem kein OpenSSL gibt, existiert die Option -l. Dabei wird dann ein Tunnel gebaut und das lokale installierte OpenSSL verwendet.

Also für Wikimedia habe ich folgendes eingeben:

ssl-fp-check secure.wikimedia.org a b c d
a: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
b: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
c: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
d: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E

Die SSH-Server a, b, c und d gaben also denselben Fingerprint aus. Also würde ich dem ganzen doch vertrauen. :-)

Ich werde das Skript jetzt wahrscheinlich immer verwenden. Es macht das Leben doch deutlich einfacher.

Continue reading "Fingerprints von SSL-Seiten prüfen"

Firefox Add-On Ant Video Downloader spioniert Nutzer aus

Ein Add-On für den Firefox, welches 4 von 5 Sternen hat und von mehr als sieben Millionen Nutzer installiert wurde, sollte doch halbwegs vertrauenswürdig sein. Zumindest legt Linus’ Law diese Erkenntnis nahe. Das Add-On Ant Video Downloader straft diese Annahme nun Lügen.

Der Ant Video Downloader soll Videos von Youtube, Facebook und vielen anderen Seiten auf einfache Weise herunterladen. Daneben hat die Software noch einen anderen Zweck. Sie sammelt Daten über jede Seite, die der Benutzer besucht. Dazu wird eine eindeutige Nummer, die so genannte Ant-UID, angelegt. Wenn eine Webseite aufgerufen wird, sendet Ant eine zweite Anfrage mit eben dieser Nummer, der URL der aufgerufenen Seite sowie der Browserkennung an die Adresse rpc.ant.com.  Somit kommt dort jeder Seitenaufruf (also auch interne URLs im privaten Netzwerk) an, den ihr jemals gemacht habt. Damit aber noch nicht genug. Bei der Deinstallation der Software wird die Informationen mit der eindeutigen Nummer, der Ant-UID, behalten. Wenn ihr die Software später neu installiert, wird genau dieselbe Nummer wieder verwendet. Das ist also eine massive Verletzung der Privatsphäre der Nutzer.

Wie ein Witz klingt da die Privacy Policy von Ant.com:

As a responsible member of the community of website owners, Ant.com solutions (Here in after Ant.com) takes the privacy and security of its users with the highest regard.

Insgesamt finde ich in der Policy keinen Hinweis auf diese Spionagemaßnahme. Glücklicherweise haben die Betreiber der Add-On-Seite die Notbremse gezogen. Zunächst wurde der Download der Software komplett deaktiviert und jetzt ist diese als experimentell gekennzeichnet. Damit sollten nur erfahrenere Nutzer diese installieren können.

Das Beispiel zeigt mal wieder, das man sich offensichtlich auf keine Software verlassen kann und insbesondere das die Warnungen bezüglich der Add-Ons sehr ernst zu nehmen sind.

via InterWeb Task Force und The Register

OpenSSL 1.0 ist fertig

Man höre und staune: Heute wurde OpenSSL 1.0 veröffentlicht. Aus der Meldung:

The OpenSSL project team is pleased to announce the release of version 1.0.0 of our open source toolkit for SSL/TLS. This new OpenSSL version is a major release and incorporates many new features as well as major fixes compared to 0.9.8n. For a complete list of changes, please see http://www.openssl.org/source/exp/CHANGES.

The most significant changes are:

  • RFC3280 path validation: sufficient to process PKITS tests.
  • Integrated support for PVK files and keyblobs.
  • Change default private key format to PKCS#8.
  • CMS support: able to process all examples in RFC4134
  • Streaming ASN1 encode support for PKCS#7 and CMS.
  • Multiple signer and signer add support for PKCS#7 and CMS.
  • ASN1 printing support.
  • Whirlpool hash algorithm added.
  • RFC3161 time stamp support.
  • New generalised public key API supporting ENGINE based algorithms.
  • New generalised public key API utilities.
  • New ENGINE supporting GOST algorithms.
  • SSL/TLS GOST ciphersuite support.
  • PKCS#7 and CMS GOST support.
  • RFC4279 PSK ciphersuite support.
  • Supported points format extension for ECC ciphersuites.
  • ecdsa-with-SHA224/256/384/512 signature types.
  • dsa-with-SHA224 and dsa-with-SHA256 signature types.
  • Opaque PRF Input TLS extension support.
  • Updated time routines to avoid OS limitations.

Hausdurchsuchung bei Eigentümer von wikileaks.de

Mit welchem Argument wird seit Jahren das Recht auf freie Meinungsäußerung eingeschränkt? Richtig, wie auch in der aktuellen Diskussion, ist es Kinderpornographie. Seit mittlerweile fünfzehn Jahren beobachte ich immer wieder das gleiche Schema.

Das erste Mal fiel es mir im Fall des ersten Remailers, anon.penet.fi, auf. Der Betreiber Julf Helsingius stand damals auf der Titelseite des Observer und ihm wurde vorgeworfen für 90% der Kinderpornographie im Internet verantwortlich zu sein (Ich habe den Fall detailliert in meinem Buch “Anonym im Netz” beschrieben.). In den letzten Jahren kamen dann Betreiber von Tor-Servern, der Bundestagsabgeordnete Jörg Tauss und seit heute auch Besitzer von simplen Domainnamen hinzu.

Im aktuellen Fall bekam der Besitzer der Domain wikileaks.de Besuch von der Polizei. Seine Wohnungen in Dresden und Jena wurden von mehreren Beamten durchsucht und Computer beschlagnahmt. Was genau war das Vergehen? Ich versuchte auf diese Frage heute bei der Polizei in Jena sowie bei der Staatsanwaltschaft Dresden eine Antwort zu erhalten. Im Protokoll steht nur etwas von Verbreitung pornographischer Schriften. Das ist jedoch keineswegs ein Grund für eine Verletzung der Wohnung in der vorliegenden Form. Bei der Staatsanwaltschaft Dresden wurde mir lapidar mitgeteilt, dass die Pressestelle keine Sprechzeiten hat. Ich solle es an einem anderen Tag probieren. Von Seiten der Polizei bekam ich die Auskunft, die auch Heise meldet. Die Aussage war in etwa, dass es auf seiner Webseite Links zu kinderpornographischen Seiten gäbe und er sich somit der Verbreitung schuldig mache. Der interessierte Leser wird hier Parallelen zu den verschiedenen Sperren von wikipedia.de erkennen. Wie zuletzt Lutz Heilmann gibt es Leute, die einstweilige Verfügungen erwirken, in der Hoffnung etwas gegen die Inhalte der Wikipedia zu tun. Wie auch im Fall von Theodor Reppe hat die Domain jedoch nichts mit den Inhalten zu tun. Insofern ist es äußerst fragwürdig, inwieweit die Durchsuchung überhaupt berechtigt ist. Die diversen Kommentare in der Blogosphäre gehen auf diese Problematik genauer ein.

Doch inwieweit ist das ein Erfolg oder überhaupt ein sinnvoller Ansatz im Kampf gegen Kinderpornographie? Es wird ohne Aussicht auf irgendeinen Erfolg und aus meiner Sicht ohne begründeten Verdacht gegen eine Zivilperson vorgegangen. Und zwar gegen jemanden, der sich aktiv für freie Meinungsäußerung einsetzt:

Herr Reppe ist der Spender der Wikileaks.de Domain und betreibt einen Mirror der US Congressional Research Service Dokumentensammlung, ist allerdings ansonsten nicht operativ in Wikileaks involviert. Herr Reppe ist ausserdem Betreiber eines der populaersten deutschen Tor-Proxyservers

Kinderpornographie wird man hier eher nicht finden. Vielmehr dient solch eine Aktion eher der Einschüchterung, wie bereits in den oben angesprochenen Fällen der Betreiber von Tor-Servern. Außerdem stellt sich mir die Frage nach der Rechtmäßigkeit der kompletten Aktion. Das Bundesverfassungsgericht hat sich 2005 in einer Entscheidung gegen das Vorgehen mit der Begründung “Gefahr im Verzug” ausgesprochen bzw. sehr starke Schranken angelegt. Andererseits scheint es in Dresden wiederum einen ordentlichen Beschluss einer Richterin gegeben zu haben. Weiterhin ist der Pressemitteilung zu entnehmen, dass trotz Nachfragen des Betroffenen keine Zeugen benannt wurden, dass es keine Aufklärung gab etc. Ich hoffe, Theodor findet einen guten Anwalt, der sich dieser Sachen annimmt und dies aufklärt.

Ein sinnvoller Ansatz ist aus meiner Sicht, direkt gegen diese Seiten vorzugehen. Gerade anhand der publizierten Filterlisten versuchte die Organisation Carechild, die Seiten aus dem Netz zu entfernen. Sehr viele der Provider sperrten die Zugänge der Kunden. Warum also gibt es keine speziellen Abteilungen beim BKA, die dies veranlassen. Weiterhin stehen viele der Server in Deutschland. Somit hätten die Ermittlungsbehörden direkten Zugriff. Aber statt direkter Maßnahmen wirft man lieber wie oben Nebelkerzen oder baut eine Zensurinfrastruktur auf.

Speziell die Nachrichten des heutigen Tages hatten es in der Beziehung wirklich in sich. Frau von der Leyen behauptet, die Kinderpornographen würden Millionenbeträge verdienen. Danaben steht die Aussage, dass es einen dramatischen Anstieg gäbe und der Artikel im Spiegel spielt noch ein wenig mit Emotionen. Der Rechtsanwalt Udo Vetter hat seine Erfahrungen mit den Tätern beschrieben. Demnach ist es keinesfalls so, dass viel Geld damit verdient wird. Netzpolitik kommt bei der Betrachtung der Zahlen auf komplett andere Werte.

Ich habe das Gefühl, dass hier gezielt gegen Kritiker vorgegangen wird und das die Bekämpfung der wirklichen Verbrechen keineswegs im Vordergrund steht. Der Regierung scheint es um plakative Maßnahmen für den Wahlkampf zu gehen. Die damit ermöglichten Zensurmaßnahmen werden billigend in Kauf genommen. Momentan lächeln viele auf Länder wie China oder Iran herab. Doch wir sind auf dem besten Weg in genau diese Richtung. Daher sollten Umgehungstechniken wir Tor oder I2P gefördert werden, um auch in Zukunft ein freies Internet zu haben.

Wie ihr für die Projekte spenden könnt, lest ihr auf den entsprechenden Webseiten:

Weitere Artikel dazu:

I2P und Tor auf der Suche nach Sponsoren

Das Tor-Projekt hat kürzlich in einer Pressemitteilung bekanntgegeben, dass ein Finanzbedarf von einer Million US-Dollar in den nächsten 12 Monaten besteht. Wer möchte, kann spenden. Die Entwickler von I2P haben die Meldung zum Anlass genommen, eine Kampagne für Spenden zu starten. Damit sollen 100 Dollar eingeworben werden. Die Spendenseite verrät, wie es geht.

tweetbackcheck