Skip to content

Haltbarkeit von SSDs

Backblaze ist eine amerikanische Firma, die Speicher- und Backupplatz anbietet. In deren Servern sind über 2500 SSDs verbaut. Backblaze fing im Jahr 2018 an, diese Art von Speicher zu nutzen und ersetzt seither die drehenden Platten (HDDs). Nun fragt sich die Firma immer mal wieder, wie belastbar die SSDs im Vergleich zu den HDDs sind. Im letzten Review gibt es einige Antworten dazu.

Dazu vergleicht die Firma Speichermedien, die als so genannte Bootgeräte zum Einsatz kommen und in etwa gleich alt sind. Bootgerät heißt bei Backblaze, dass die Server hiervon gestartet werden. Weiterhin werden Logdateien und temporäre Dateien auf die Speicher geschrieben. Sowohl HDD wie auch SSD vollführen gleiche Aufgaben.

Bisher hatten die Fehlerraten in etwa den gleichen Verlauf. Die SSDs lagen von den Werten leicht unterhalb der HDDs. Dieses Jahr ist nun das fünfte Jahr der Betrachtungen und hier gingen die Zahlen deutlich auseinander. Während bei den HDDs ab dem 5. Jahr ein deutlicher Anstieg der Fehlerraten zu beobachten ist, bleibt der bei den SSDs in etwa gleich.

Vergleich der Fehlerraten zwischen HDDs und SSDs

Auf der Speichertestseite von Backblaze könnt ihr die weitere Entwicklung verfolgen und auch die Rohdaten herunterladen. Die Firma geht derzeit davon aus, dass die Fehlerraten der SSDs zu einem späteren Zeitpunkt steigen und wollen solange einen Blick auf deren SMART-Werte werfen. Ich bin sehr gespannt, wie lange der Vorteil der SSDs anhält und werde hin und wieder mal die Seiten von Backblaze checken.

Erkennungsdienstlich behandelt

Fingerabdruck

Ich komme gerade von der Kriminalpolizei, wo ich erkennungsdienstlich behandelt wurde. Wenn das so weitergeht, muss ich bald meine DNA abgeben und am Ende atme ich selbst gesiebte Luft. :-) Was war passiert?

Es ist schon etwas länger her, da fragte mich eine Firma an, ob ich nicht eine Analyse ihrer IT-Infrastruktur vornehmen könne. Sie hatten den Verdacht, dass da etwas “nicht stimmt”. Es war anzunehmen, dass jemand aus der Mitarbeiterschaft Daten entwendet. Ich untersuchte also das Netzwerk und einige Rechner. Dabei stach ein Rechner besonders hervor. Dort baute ich mit dem Sysadmin die Festplatte aus und kopierte diese zur weiteren Untersuchung. Es stellte sich heraus, dass der Mitarbeiter in massivem Umfang Daten aus der Firma geschleust hatte. Im weiteren Verlauf schaltete die Firma die Staatsanwaltschaft ein. Diese hat mittlerweile die (Ermittlungs)fäden in der Hand. Im Rahmen dessen werden diverse Gegenstände untersucht und geschaut, wer diese angefasst hat. Als Tatortberechtigter durfte ich somit meine Fingerabdrücke abgeben.

Im Vorfeld habe ich lange gerätselt, ob das machen soll oder nicht. Denn es gibt nicht wenige Fälle, in denen die einmal erhobenen Daten irgendwo landen, so nach dem Motto: Könnte man vielleicht noch einmal gebauchen.. Meinen Anwalt konnte ich für einen fundierten Rat nicht erreichen also verließ ich mich auf meinen guten Glauben und Fragen. Ich hatte mir vorgenommen, den Beamten vorher über die befürchteten Konsequenzen auszuquetschen und, falls es unglaubwürdig wäre, die Abgabe zunächst zu verweigern. Aber dazu kam es gar nicht. Denn kaum war ich in seinem Büro angekommen, setzte er zu einer längeren Belehrung an. Demnach werden die Spuren nicht gespeichert, sondern nur mit den am Tatort vorgefundenen verglichen. Die Fingerabdrücke werden nach den Worten des Beamten nicht in Datenbanken gespeichert, sondern nach Abschluss des Falles (oder sagte er, nach Beendigung des Vergleichs?) gelöscht. Wahrscheinlich schaute ich immer noch skeptisch und er meinte zum Schluss, dass sie, selbst wenn sie die Abdrücke aufheben und später auswerten würden, dürften die nicht gegen mich verwendet werden. War da nicht was mit den Früchten des vergifteten Baumes? In der Tat scheint dies nicht so zu sein, wie ich dachte. Die Wikipedia weiß mehr im Artikel zum Beweisverbot. Schließlich bekam ich einmal einen Satz schwarze Hände. Dank eines Spezialwaschmittels sind die aber schon wieder sauber.

Ich fand den Besuch letztlich recht interessant. Denn der Beamte war sehr offen und wir unterhielten uns über einige Themen, u.a. natürlich auch über das Abnehmen von Abdrücken. Interessanterweise nutzt die Polizei dieselbe Methode wie der CCC. Der Unterschied besteht letztlich nur darin, dass es das Ganze für die Polizei als fertige Einheit gibt.

Spätestens wenn der Fall abgeschlossen ist, werde ich mal eine Auskunftsanfrage bei verschiedenen Behörden starten und hoffentlich herausfinden, dass keine Informationen über mich gespeichert sind. :-)

Foto von TheRealGrudge

Daten auf der Festplatte sicher löschen

Vor etwa einem Jahr schrieb ich über die Great Zero Challenge. Bei dem Wettkampf bekam jeder Teilnehmer eine Festplatte, deren Inhalte mit Nullen überschrieben waren. Derjenige, der den Namen eines Ordners oder einer Datei auf der Platte auslesen kann, gewinnt den Wettkampf. Bis heute gibt es keinen Gewinner. Diejenigen, die sich im Usenet oder entsprechenden Webforen rumtreiben, werden sich darüber sicher wundern. Denn es gibt immer wieder Aussagen, dass solche Daten trivial wiederzugewinnen sind. Ein Experte für Computerforensik hat sich jetzt dieser Tatsache angenommen.Nach einem Artikel bei Securityfocus fand er dabei heraus, dass es reicht, die Festplatte einmal mit Zufallswerten zu überschreiben. Die Wahrscheinlichkeit, ein Byte an korrekten Daten wieder zu gewinnen, liegt bei unter einem Prozent. Die korrekte Rückgewinnung von vier Bytes funktionierte nur in neun von einer Million Fällen.

In many instances, using a MFM (magnetic force microscope) to determine the prior value written to the hard drive was less successful than a simple coin toss.

Insofern besteht immer noch eine vage Möglickeit, den obigen Wettkampf zu gewinnen. Doch den meisten meienr Leser dürften die dazu notwendigen Arbeitsmittel nicht zur Verfügung stehen. :-)

Update: Die Diskussion in der Newsgroup de.comp.security.misc Beweise für das Wiederherstellen “überschriebener” Daten hat weitere interessante Details zu dem Thema.

Neue Hardware

Der Titel verrät es. Ich habe neue Hardware und zwar für meinen Rechner. Mal wieder kündigte eine Festplatte ihren Tod an und nach kurzem Überlegen entschloss ich mich zu einem Upgrade.

Festplatten sind in meinem Rechner permanent ausfallgefährdet. Deren Lebenszeit liegt bei unter einem Jahr und das, obwohl ich diese nicht besonders beanspruche. Hier liegen momentan zwei kaputte Western Digital, eine Hitachi und eine Seagate (eher “Siegehtnicht”) sowie noch eine, bei der ich wegen des Herstellers nicht mehr sicher bin. Alles sind IDE-Platten. Jetzt steckt eine Hitachi SATA-Platte im Rechner. Ich bin gespannt, wie lange die halten wird.

Neben der Festplatte habe ich mir ein GB mehr RAM gegönnt und vor allem die CPU auf einen neuen Stand gebracht. Vorher war hier ein 1 GHz Athlon am Werkeln. Jetzt versucht sich ein Athlon64 Dual Core. Momentan bin ich noch dabei, Backups einzuspielen, Daten neu zu strukturieren und auch einige neue Software einzustellen. Daher habe ich noch nicht alles austesten können. Jedoch fühlt sich der Rechner wirklich schneller an.

Montage des Ruby Orb

Eine Herausforderung war die Montage des Lüfters. Die CPU sollte durch einen Thermaltake Ruby Orb gekühlt werden. Laut der Spezifikation versprach der Lüfter leise zu sein und dabei viel Luft durchzupusten. Als ich ihn dann in der Hand hielt, staunte ich nicht schlecht. Von der Größe her, sah es so aus, als ob man eher einen Hubschrauber antreiben kann. ;-) Zum Einbau werden zwei Schellen in das Motherboard geschraubt. Darauf kommt dann der Lüfter. Die Schrauben am Lüfter, die auf die Schellen geschraubt werden, sind mit relativ starken Federn versehen. Da der Lüfter zusätzlich auf der mit Wärmeleitpaste versehenen CPU hin- und herrutscht, ist es sehr schwer, die Löcher zu treffen. Wenn ihr das Teil in eure Rechner verbauen wollt, empfehle ich, das zu zweit zu machen. Ich hätte mir einen dritten Arm oder eine helfende Hand gewünscht.

Nach dem Anschalten fängt der Lüfter an, rot zu leuchten. Für Case-Modder ist der wohl auch geeignet. Und er ist ist wirklich leise. Mein Rechner läuft seit einiger Zeit mit einer Load von mehr als vier und beide CPU-Kerne sind beschäftigt. Vom Lüfter ist dennoch kaum etwas zu hören.

Momentan bin ich mit der Wahl der Hardware also recht zufrieden und hoffe, dass diese (inklusive der Festplatte) mich wieder ein paar Jahre aushält.

Tag zwei und drei der PETS

Trotz guter Netzanbindung habe ich es während der PETS nicht mehr geschafft, meine Erlebnisse zu bloggen. Daher hole ich das hier nach.

Der zweite Tag begann mit einem Vortrag über einen automatischen Beweis: Formalized Information-Theoretic Proofs of Privacy Using the HOL4 Theorem-Prover. Der Vortragende benutzte das Problem der zusammen Mittag essenden Kryptografen¹ (Dining cryptographers problem) für seine Software und versuchte zu beweisen, wie sicher das ist und wieviele Informationen unerkannt fließen.

Es folgte eine recht interessante Abhandlung zu Minx. Minx ist ein Format für anonyme Nachrichten und wurde 2004 von George Danezis und Ben Laurie entworfen. Bisher gab es über die Sicherheit nur Annahmen. Die Vortragenden fanden aufgrund einer neueren Veröffentlichung eine Möglichkeit, ein so genanntes Bitorakel zu konstruieren. Dieses ist dann in der Lage, Minx zu brechen. Die Forscher machten gleichzeitig Vorschläge, wie das Format von Minx geändert werden kann und bewiesen auch, dass dies dann sicher ist. Die Arbeit war aus meiner Sicht sehr anspruchsvoll und hier muss man wirklich erst die Originalarbeit verstanden haben, um sich dann deren Arbeit genauer anzusehen.

Den Abschluss des Vormittags bildete ein Vortrag von Steven Murdoch zu Metrics for security and performance in low-latency anonymity systems. Er forschte, wie sicher die Auswahl der Pfade bei Tor ist und kam zu dem Ergebnis, dass sowohl die existierende wie auch vorgeschlagene Auswahlmethoden sehr unterschiedliche Sicherheitsniveaus bieten. Eine allgemein gültige Aussage kann nicht getroffen werden.

Beim Mittagessen landete ich zufälligerweise am Tisch von Steven Bellovin. Wir hatten eine sehr angeregte Diskussion zu der DNS-Lücke und DNSSEC. Er philosophierte auch ein wenig darüber, wie lange es wohl dauern würde, bis .com auf DNSSEC umgestellt ist (Die Antwort liegt in der Nähe von unendlich. ;-)). Die weiteren Vorträge nach dem Mittagessen habe ich im wesentlichen verpasst. Erst zur Rump Session hielt ich mein Ohr wieder in die Runde. Die Rump Session ist eine Reihe von fünfminütigen Vorträgen. Es sollen jeweils Ideen präsentiert werden. Es kam dort ein sehr breites Spektrum an das Rednerpult. Professoren machten Werbung für ihre Lehrstühle (Kanada scheint gerade auf viel Geld zu sitzen und es freimütig an Unis zu verteilen.), einige der Tor Google Summer of Coders präsentierten ihre Projekte und einige andere Sachen wurden präsentiert.

Abends begaben wir uns auf einen Stadtrundgang. In zwei Stunden erzählte uns ein Stadtführer sehr interessante Details zu Leuven. Irgendwann standen wir im großer Beginenhof und der Führer erwähnte eine Zwiebel auf dem Dach eines Gebäudes. Wir schauten auf Roger Dingledine, der sein Tor-T-Shirt und mussten alle lachen. Einzig der Stadtführer schaute etwas komisch und wusste nicht so recht, worum es ging. ;-) Aber auch er wurde aufgeklärt.

Der dritte und letzte Tag begann mit Vorträgen zu Reputation und Bezahlung in anonymen Netzen. Später gab es einige Kurzvorträge. Der erste, für mich interessante hieß Unlinkability without Infrastructure: Protecting Privacy with Protocol Stack Virtualization. Die Idee hier ist, eine Virtualisierung zu nutzen, um für Außenstehende die Identifizierung des eigenen Rechners zu erschweren. Jede Anwendung (oder Protokoll) gaukelt eine eigene Mac-Adresse vor, bekommt eine eigene IP-Adresse und macht Anfragen. Für einen Beobachter stehen dann vielleicht zehn Rechner im Netzwerk und er tut sich schwer, die Datenströme einer Person zuzuordnen. Bei dem Ansatz tauchen diverse, noch ungelöste Probleme auf. Es wird da noch einiges an Arbeit zu investieren sein, bis das wirklich funktioniert.

Die letzten beiden Vorträge des Tages drehten sich wieder um Tor. Einmal wird versucht, UDP für Tor zu nutzen. Der Forscher erklärte seinen Ansatz und den aktuellen Entwicklungsstand. Im Grunde genommen wird dabei, das aktuelle Design über den Haufen geworfen. Dort sah ich auch das Hauptproblem. Denn wenn man umstellen wöllte, heißt das, dass alle Nutzer auf einmal umstellen müssen bzw. es wird in der Umstellungszeit massive Probleme geben. Ian Goldberg merkte in der Diskussion an, dass seine Uni an einem ähnlichen Ansatz arbeitet. Sie könnten es hinbekommen, dass ihre Software mit dem bestehenden Protokoll funktioniert. Ganz zuletzt erzählte Karsten Loesing noch von seinen Verbesserungen zu Hidden Services. Es kam dabei zu einer lebhaften Diskussion. Am Ende standen sechs oder sieben Leute vor und kritzelten ihre Ideen fleißig an die Tafel. Ein lustiger Anblick.

Damit war die Konferenz zu Ende. In der Abschlussveranstaltung gaben die Organisatoren bekannt, dass die nächste PETS in Seattle stattfinden wird. Der Gastgeber dort ist Microsoft. Des Weiteren gab es eine lebhafte Diskussion über den zukünftigen Weg der Konferenz.

Mir hat die Veranstaltung sehr gut gefallen. Es gab sehr viele hochklassige Beiträge und Diskussionen. Natürlich war es auch eine gute Möglichkeit, mit einigen Leuten direkt ins Gespräch zu kommen. Ich habe ein paar Ideen ausgetauscht und neue mitgenommen und hoffe, dass ich die demnächst auch umsetzen kann.

¹

Das hat nicht mit dem ähnlich klingenden Philosophenproblem zu tun. Hier geht es darum, dass drei Kryptografen zusammen essen und der Kellner alle informiert, dass das Essen bereits bezahlt wurde. Sie wollen herausfinden, ob das einer von ihnen oder ein Geheimdienst war, ohne alle zu fragen. Eine genaue Beschreibung hat der Originalartikel von Chaum.

Tag eins der PETS oder wie man Tor-Nutzer belauscht

Der erste wirkliche Konferenztag startete für mich mit einer Zugfahrt von Brüssel nach Leuven. In Leuven angekommen, wollte ich einchecken. Doch just in dem Augenblick kam eine riesige Menge an Fahrradfahrern rein. Man hatte den Eindruck, dass die Tour de France einen Stop macht. So entschloss ich mich, mein Gepäck einzuschließen und direkt weiter zum Konferenzgebäude zu gehen.

Dort angekommen, gab es Diskussionen zu verschiedenen Wahlsystemen. Der Grund hierfür ist die gleichzeitig stattfindende WOTE-Konferenz. Einer der Forscher stand mit draußen und erzählte zu seinem System. Nach dem gemeinsamen Mittagessen (Ja, es ist perfekt, wenn Konferenzen gleich mit dem Essen beginnen :-)) wurde die PETS mit einer Keynote eingeleitet. Wie sooft, war auch diese eher uninteressant und ich übersetzte ein paar Webseiten. In der Diskussion nach dem Vortrag gab es auch gleich recht kritische Anmerkungen. Insbesondere da der Vortragende einige feststehende Begrifflichkeiten umdeutete, um das Gebiet auch für Politiker kompatibel zu machen.

Der erste richtige Vortrag wurde von Carmela Troncoso gehalten. Sie hat zusammen mit Kollegen eine neue Angriffsmethode, so genannte "Perfect Matching Disclosure Attacks", gefunden. Mit einem Mix aus Graphentheorie und dem Satz von Bayes zeigte sie, wie man recht effektiv, Nutzer deanonymisieren kann. Gleichzeitig verbesserte sie auch einen Angriff, der zuvor von Danezis gefunden wurde. Die Details solltet ihr in der Veröffentlichung nachlesen. Später hielt Andrej Serjantov einen ähnlich gelagerten Vortrag mit dem Titel "On the Impact of Social Network Profiling on Anonymity".

Der letzte Vortrag des Tages hatte es dann in sich. Er trug den Titel "Shining Light in Dark Places: Understanding the Tor Network". Die Forscher hatten einen Tor-Knoten aufgesetzt und den Traffic mitgeschnitten. Zum einen versuchten sie über einen Zeitraum der erste Knoten in einer Verbindungsstrecke zu sein und andererseits waren sie für einige Tage auch Exitknoten. Aus dem erstgenannten versuchten sie Informationen über die Nutzer von Tor zu extrahieren. Insbesondere waren sie daran interessiert, aus welchen Ländern die Nutzer komen. Deutsche Nutzer stellen mit etwa 30% die größte Nutzergruppe. Gleichzeitig stehen in Deutschland auch die meisten Tor-Router, dicht gefolgt von den USA.

Nun werteten die Forscher auch den Traffic aus, der über den Exit ging, d.h sie schnitten mit tcpdump die ersten 120Byte jeder Anfrage mit und werteten die Protokolle aus. Nicht überraschend waren die meisten Pakete HTTP-Pakete. Bei der Auswertung nach Traffic war es für mich überraschend, dass direkt nach HTTP-Traffic der zweitgrößte Posten Bittorrent war.

Nach dem Vortrag begann dann eine rege Diskussion. Diese beherbergte zum einen rechtliche Fragen. Einige Teilnehmer waren der Meinung, dass die Maßnahmen unter einen Wiretapping Act in den USA fallen und demnach illegal waren. Die Forscher hatten sich offensichtlich keine große Gedanken über die rechtliche Seite gemacht. Viel schlimmer wurde es dann als bei der Diskussion über die ethischen Implikationen herauskam, dass die Forscher immer noch die Daten aus dem Exittraffic besitzen. Dies weckt natürlich Begehrlichkeiten bei diversen Behörden und diese könnten versuchen, an die Daten zu kommen. Als sie gefragt wurden, was sie nun mit den Daten machen bzw. wann die gelöscht werden, gaben sie zur Antwort, dass sie die IP-Adressen anonymisieren und die Daten an andere Forscher weitergeben wollen. Jetzt konnte man sehen, wie einigen buchstäblich der Mund offenblieb und sie sich fragten, ob die da Vorn nur naiv oder bösartig sind. Auch später am Abend gab es dazu noch reiche Diskussionen. Der Vortragende hatte es (zu Recht) nicht einfach, denn er bekam sehr viel Gegenwind aus dem Publikum. Vielfach wurde auch die Tatsache kritisiert, dass er Forschung mit reellen Nutzerdaten, die nichts von alldem wissen, betreibt.

Der Abend klang dann mit einem gemeinsamen Dinner aus.

Update: Den Forschern könnte doch einiger Ärger bevorstehen: Researchers could face legal risks for network snooping.

cronjob