Skip to content

Neue Wege, um den Tor Browser herunterzuladen

GetTor-LogoVor kurzem war ich zu Vorträgen bei der Stoyschule in Jena eingeladen. Dabei ging es zumeist um Datenschutz und Überwachung. Unter anderem kam ich dabei auch auf den Tor Browser zu sprechen. Als ich auf die Webseite des Tor-Projekts gehen wollte, scheiterte ich an einem Filter. Seitens jena.de wird ein Webfilter betrieben, der unter anderem die Webseite blockiert und auch TLS-Verbindungen aufbricht (Man-in-the-middle-Angriff). Leider hatte ich keine eigene Kopie des Tor Browser einstecken und wollte auch keine Zeit mit weiteren (eventuell erfolglosen) Versuchen verbringen. Aber seit ein paar Tagen gibt es mehr Möglichkeiten, an eine Kopie der Software zu kommen.

Das Tor-Projekt erklärte heute in einem Blogbeitrag, welche neuen Wege existieren. Die Grundlage hierfür ist das Projekt GetTor. Dort sollen alternative Methoden entwickelt werden und die Ergebnisse sind:

  • Twitter: Schickt eine Direktnachricht (DM) an den Account @get_tor. Anfangs reicht es help zu schicken und der Bot schickt euch Anleitungen zurück. Derzeit könnt ihr den Namen des Betriebssystems (windows,linux,osx oder android) oder das Wort mirrors zu schicken. Ihr bekommt dann Downloadlinks zu verschiedenen Seiten oder eine Liste von alternativen Downloadseiten (Mirrors) zurück.
  • XMPP/Jabber: Das XMPP-Konto get_tor@riseup.net nimmt ebenfalls die obigen Anweisungen entgegen.

Falls ihr also Probleme habt, an die Software zu kommen, so nutzt die obigen Wege oder sucht einen funktionierenden Mirror. Viel Spaß beim sicheren und anonymen Surfen! ;-)

Noch jemand ohne TLS1.2?

In meinem Beitrag zur sicheren Einstellung von SSL/TLS im Browser fragte ich, ob ihr Seiten bemerkt, die nicht mit TLS 1.1 oder 1.2 funktionieren. In den Kommentaren und bei Twitter meldeten sich einige. Irgendwann entschied ich, eine eigene Webseite hierfür anzulegen. Die Seite SSL/TLS im Browser dokumentiert Seiten, die nur TLS in der Version 1.0 oder schlechter anbieten. Beim Testen fielen mir sogar einige Seiten auf, die auf das komplett unsichere SSL 2 setzen.

Weitere Seiten könnt ihr mir gern melden. Ich habe ein Pad angelegt. Wenn dort ein neuer Domainname auftaucht, teste ich den und nehme den mit in die Seite auf. Git-Nutzer können die Datei SSL-TLS.org bei Github editieren und mir einen Pull-Request schicken.

Die Daten sollen natürlich nicht ungenutzt liegen. Ich möchte in einem zweiten Schritt die Betreiber der Webseiten anschreiben und diese bitten, auf neuere Protokollversionen zu aktualisieren. Hier würde ich mich über eure Hilfe freuen. Bitte schreibt eure Textvorschläge ins Pad. So können wir gemeinsam ein Schreiben entwickeln und das dann in die Welt schicken. Hoffentlich erreichen wir dadurch eine kleine Verbesserung beim Schutz unserer Daten.

Spamschutz bei S9Y

Im Hintergrund tut Serendipity oder kurz S9Y seinen Dienst. Vor mehr als sieben Jahren stieg ich von Wordpress auf die Software um. Die Software tut im wesentlichen ihren Dienst. Außer, wenn wie heute, ein Plugin merkwürdige Sachen macht.

Ich hatte bis heute abend das Autosave-Plugin installiert. Das speichert die Einträge zwischen und soll eigentlich vor Datenverlust schützen. Bei mir sorgte es dafür, dass die Rezension mehrfach verschwand. Der Grund war, dass ich auf Speichern im Artikelfenster drückte und das Fenster offen liess. Das Plugin wollte einfach alte Werte speichern und löschte so den Beitrag.

Seit dem Jahreswechsel bereitet mir nicht die Blogsoftware Kopfschmerzen, sondern der Spam der eintrudelt. Anfangs hatte ich den Spamschutz aktiviert, den S9Y von Haus aus mitbringt. Dazu setzte ich ein paar Worte auf die Blacklist. Das reichte aus. Nebenan im Datenkanal habe ich noch das Bayes-Plugin im Einsatz. Das wurde von Beginn an angelernt und verrichtet gute Dienste.

Das S9Y Infocamp hat sich nun dem Thema Spamschutz bei S9Y angenommen. In dem Podcast besprechen sie verschiedene Mechanismen. Dabei kommt die Rede auf die SpamBee. Die arbeitet unter anderem mit versteckten CAPTCHAs. Die vier Podcaster sind voll das Lobes. Ich habe den Podcast glücklicherweise zur rechten Zeit gehört. Denn direkt nachdem ich die Biene hier installierte, traf das Blog eine Spamwelle. Von den Lesern hat das vermutlich niemand bemerkt. Die Spambiene hat den Spam wirklich sehr gut abgefangen. Wer also da draußen mit Spam bei S9Y zu kämpfen hat, sollte unbedingt SpamBee probieren. Vermutlich bringt das Plugin Linderung.

Die Filterblase -- Verbindung

Vor kurzem stellte ich bei Facebook und Google+ eine Aufgabe des Tages. Wer mitmachen wollte, sollte bei Google das Wort »Verbindung« eingeben und vom Ergebnis einen Screenshot machen. Insgesamt bekam ich etwa 20 Aufnahmen zugeschickt und natürlich wollten einige wissen, wozu ich das mache. Hier kommt die Auflösung.

Eli Pariser  schrieb 2010 das Buch »The Filter Bubble: what the Internet is hiding from you«. Darin beschreibt er eine Filterblase, in der wir online leben. Das heißt, Suchmaschinen, soziale Netzwerke und andere Seiten versuchen uns und unsere Vorlieben zu erkennen. Anhand der Ergebnisse werden dann nur noch spezielle Ergebnisse angezeigt. Letztlich bekommen die Nutzer nur noch das Leben innerhalb dieser Blase mit und alles andere bleibt abgeschirmt. Die Süddeutsche Zeitung hat Pariser in »Ausweitung der Komfortzone« befragt.

Ich wollte nun wissen, wie groß die Filterblase wie bzw. wie genau sich die auswirkt. Dazu benötige ich »Probanden«. Daher kam die Frage. Doch was fand ich nun heraus?

»Normales Ergebnis« aus Jena

Von den zwanzig Bildschirmaufnahmen waren nur drei Screenshots identisch. Dennoch lässt sich ein gewisses Muster erkennen. Auf dem Muster links sieht man einen typischen Screenshot von einem Suchergebnis. Dabei ist zu erkennen, dass zuerst zwei Verweise auf Einträge bei der Wikipedia gehen, einmal zu dem Lemma Verbindung und zu Chemische Verbindung. Dann folgen Verweise auf den Verkehrsverbund Rhein-Ruhr sowie den BVG. Beide Einträge werden unabhängig vom Standort angezeigt. Der Screenshot links wurde in Jena gemacht und Google erkannte den Standort. Dennoch bekamen ich und andere die obigen Ergebnisse. Wie man es erwarten würde, wird der Standort trotzdem ausgewertet. Denn neben den unspezifischen Verkehrsverbunden wird meist einer aus der Region angezeigt. Bei einem Suchergebnis erkannte Google Düsseldorf als Standort und zeigte einen Link auf die Fahrplanauskunft des KVB Köln an. Ignoriert man die standortabhängigen Verkehrsverbünde, so gleichen sich dann doch die meisten der Screenshots viel mehr, als ich erwartete.

Der Suchbegriff kann ich verschiedener Weise gedeutet werden. Insbesondere Bahnverbindungen hätte ich wesentlich höher gewichtet und daher Verweise auf die Seiten der Bahn erwartet. Doch nur ein Screenshot zeigte Links zur Bahn. Dort jedoch an prominenter Stelle.

Ein privat zugeschickter Screenshot zeigte eine Mischung mit Einträgen von Google+. In den Beiträgen stand jeweils einmal das Wort Verbindung. Ein anderer zugeschickter Screenshot zeigte Werbung, sowohl oberhalb der Suchbegriffe wie auch im rechten Seitenrand.

Eine für mich neue Erkenntnis war, dass Google auch die Position der Bilder platziert. Einige der Screenshots zeigten die komplette Ergebnisseite. Dort fanden sich am unteren Ende Ergebnisse der Bildersuche. Einer der Screenshots hatte die Bilder weiter oben. Hier war jedoch nur die Position geändert. Die Bilder selbst waren gleich.

Ich habe alle Screenshots, die ich auf öffentlichem Wege bekam, bei Flickr unter Verbindung - Filterblase abgelegt. Hier könnt ihr selbst nochmal ein wenig vergleichen.

Als ich mir den Suchbegriff ausdachte, hätte ich mit einer stärkeren Differenzierung gerechnet. Wie oben schon geschrieben, waren zwar formal sehr viele Ergebnisse unetrschiedlich. Wenn man  aber den Verkehrsverbund ignoriert, so ist die Verbindungs-Filterblase vermutlich recht groß. Ich will in den nächsten Wochen mal andere Suchbegriffe herumschicken und würde mich freuen, wenn viele an dem Experiment teilnehmen. Vielleicht lassen sich ein paar interessante Erkenntnisse über die Blase entwickeln. :-)

Google Sea View

Google hilft den Piraten! Der Internetkonzern schwächt unsere Sicherheitsarchitektur! So oder so ähnlich könnten demnächst Klagen lauten. Mit Piraten sind dabei durchaus die Seeräuber und nicht die gleichnamige Partei gemeint. Doch warum handelt sich Google derartige Klagelieder ein?

Das U.S. Naval Institute organisierte kürtlich die 2012 Joint Warfighting Conference and Exposition. Neben namhaften US-Generälen und Admirälen sprach dort Michael Jones, der Chief Technology Advocate von Google Ventures. Jones stellte zwei neue Projekte vor. Beide konzentrieren sich auf Informationen zur See.

Ein Angebot will alle Schiffe, die sich auf den Flüssen und Meeren bewegen, verfolgen. Bereits jetzt gibt es Seiten wie Vesselfinder, MarineTraffic und andere. Diese Seiten zeigen die Schiffe meist in der Nähe des Ufers an. Google will den Dienst auch auf die Weltmeere ausweiten. Dazu bedient es sich des Automatic Identification Systems (AIS) . Das System besteht aus einer GPS-Einheit sowie aus einem Sender. Die Sender auf den Schiffen reichen bis ca. 20 nautische Meilen. Wenn die Antennen auf dem Land höher montiert werden, so steigt die Reichweite auf etwa 60 nautische Meilen. AIS soll zm einen Schiffe vor Kollisionen schützen und zum anderen sollen die Häfen den Verkehr besser steuern können.

AIS der Straße von Dover
AIS-Ansicht der Straße von Dover (Quelle: Wikipedia)

Google nutzt Satelliten, um die Position der Schiffe zu ermitteln. Nach Jones’ Worten gibt Google drei Millionen Dollar für das Programm aus. Er wird mit den Worten zitiert: »I watch them and they can’t see themselves. It angers me as a citizen that I can do this and the entire DoD can’t.« Doch was wir dann sehen können, kann eben auch ein Pirat in Somalia sehen. Das heißt, eventuell wird es denen erleichtert, die Schiffe auszuwählen. Auf der anderen Seite fahren in der Region die meisten Schiffe schon in dem Bereich der von AIS und den betreffenden Webseiten eh erfasst wird. Insofern fördert das Projekt aus meiner Sicht nicht die Piraterie. Eventuell wird durch die öffentliche Diskussion der eine oder andere Pirat mit der Nase auf die Möglichkeiten gestossen. Militäraktionen werden wohl ebenso nicht gestört. Denn jedes Schiff kann die AIS-Anlage ausschalten. Damit ist das Schiff quasi unsichtbar.

Das zweite Projekt kartografiert den Meeresboden. Google hat Testläufe mit einem unbemannten Sensor gemacht. Dieser macht Bilder vom Untergrund und setzt diese dann zusammen. Am Ende hat der Nutzer eine Art Google Streetview für das Meer, also Google Sea View. :-)

Das könnte auf der einen Seite natürlich Schatzsucher aktivieren. Endlich könnte Atlantis oder das Bernsteinzimmer gefunden werden. Gleichzeitig besteht seitens der Militärs die Angst, dass auch Leute abgestürzte Spionagesatelliten oder ähnliches suchen. Jones meint darauf ganz richtig, dass andere Länder das ganz genau wie Google machen könnten. Während Google die US-Regierung informiert, halten sich andere Länder sicher nicht daran.

Ich denke, hier sind zwei spannende Angebote unterwegs und bin sehr gespannt, wann die online gehen.

via: AOL Defense: Google Can Track Ships At Sea -- Including US Navy; Detailed Maps Planned of Sea Bottom und AFCEA: Deep Blue Sea to Give Up Its Secrets to Google

Update:  Klar gemacht, dass man abgestürzte Satelliten finden könnte.

Behördenwillkür bei Jacob Appelbaum

In Deutschland dreht sich derzeit die Diskussion um den Bundestrojaner, der vom CCC gefunden wurde. Derweil spielt sich in den USA ein anderes Drama ab.

Jacob Appelbaum kann man nur als vielseitigen Zeitgenossen bezeichnen. Er arbeitet beim Tor-Projekt als Entwickler, hat in der Vergangenheit einige spektakuläre Ergebnisse im Bereich der IT-Sicherheit gefunden, engagiert sich bei WikiLeaks, half Hurrikanopfern usw. Die Liste lässt sich beliebig erweitern. Doch eines seiner Hobbys brachte ihm Probleme ein. Auf der Konferenz The Next HOPE hielt er im Juli 2010 einen Vortrag zu WikiLeaks (siehe unten). Seitdem wird Jacob bei jedem Grenzübertritt aus den USA oder in die USA kontrolliert. Das heißt, er wird zum Teil stundenlang festgehalten und befragt. Ihm wurden Geräte weggenommen und anderes mehr. Jetzt werdet ihr euch fragen, auf welcher Basis dies passierte. Dies ist bis heute unklar! Es gibt keine Anklage. 

Nachdem das Justizministerium Informationen von Twitter über Jacob Appelbaum und andere Aktivisten wollte, geht die US Regierung noch einen Schritt weiter. Sie forderte von Google und von dem Provider Sonic alle E-Mail-Adressen mit denen Appelbaum in den letzten zwei Jahren kommunizierte. Ein Artikel im Wall Street Journal hat weitere Details zu der Sache.

Welchen Erkenntnisgewinn soll eine solche Sache bringen? Wenn man die diversen Schritte der Behörden verfolgt, drängt sich der Verdacht auf, dass es nur um Schikane geht. Jacob kann man wohl nichts Böses nachweisen und so scheinen die Behörden einfach ein Exempel zur Abschreckung aufzubauen. Ich kann nur hoffen, dass die Vorgang ein Ende hat und Jacob sich wieder seinen Interessen widmen kann.  

Continue reading "Behördenwillkür bei Jacob Appelbaum"

Firefox Add-On Ant Video Downloader spioniert Nutzer aus

Ein Add-On für den Firefox, welches 4 von 5 Sternen hat und von mehr als sieben Millionen Nutzer installiert wurde, sollte doch halbwegs vertrauenswürdig sein. Zumindest legt Linus’ Law diese Erkenntnis nahe. Das Add-On Ant Video Downloader straft diese Annahme nun Lügen.

Der Ant Video Downloader soll Videos von Youtube, Facebook und vielen anderen Seiten auf einfache Weise herunterladen. Daneben hat die Software noch einen anderen Zweck. Sie sammelt Daten über jede Seite, die der Benutzer besucht. Dazu wird eine eindeutige Nummer, die so genannte Ant-UID, angelegt. Wenn eine Webseite aufgerufen wird, sendet Ant eine zweite Anfrage mit eben dieser Nummer, der URL der aufgerufenen Seite sowie der Browserkennung an die Adresse rpc.ant.com.  Somit kommt dort jeder Seitenaufruf (also auch interne URLs im privaten Netzwerk) an, den ihr jemals gemacht habt. Damit aber noch nicht genug. Bei der Deinstallation der Software wird die Informationen mit der eindeutigen Nummer, der Ant-UID, behalten. Wenn ihr die Software später neu installiert, wird genau dieselbe Nummer wieder verwendet. Das ist also eine massive Verletzung der Privatsphäre der Nutzer.

Wie ein Witz klingt da die Privacy Policy von Ant.com:

As a responsible member of the community of website owners, Ant.com solutions (Here in after Ant.com) takes the privacy and security of its users with the highest regard.

Insgesamt finde ich in der Policy keinen Hinweis auf diese Spionagemaßnahme. Glücklicherweise haben die Betreiber der Add-On-Seite die Notbremse gezogen. Zunächst wurde der Download der Software komplett deaktiviert und jetzt ist diese als experimentell gekennzeichnet. Damit sollten nur erfahrenere Nutzer diese installieren können.

Das Beispiel zeigt mal wieder, das man sich offensichtlich auf keine Software verlassen kann und insbesondere das die Warnungen bezüglich der Add-Ons sehr ernst zu nehmen sind.

via InterWeb Task Force und The Register

tweetbackcheck