Skip to content

Startschuss für die Chemnitzer Linux-Tage 2012

Der Startschuss für die Chemnitzer Linux-Tage 2012 ist gefallen. Sie werden am 17. und 18. März 2012 stattfinden und stehen unter dem Motto »Kernelkraft und erneuerbare Synergien«. Wenn ihr also etwas Interessantes rund um das Thema GNU/Linux zu berichten habt, dann reicht einen Vortrag ein oder versucht einen Stand zu registrieren. Ich freue  mich schon auf zwei spannende Tage im nächsten Jahr.

Vortrag zum Staatstrojaner

Der Stura der Uni Jena hatte mich gebeten, einen Vortrag zum Staatstrojaner zu halten. Dem kam ich natürlich gern nach und gestern war es dann soweit. Dabei muss ich mich entschuldigen, dass ich vergass, das hier anzukündigen. Beschwerden wurden entgegengenommen und ich versuche mich zu bessern. :-)

Bei der Vorbereitung fiel mir wieder ein, dass ich bereits 2008 einen Vortrag und eine Ausarbeitung im Rahmen eines Proseminars schrieb. Die damalige Einleitung nutzte ich dann wieder.  Im Verlauf des Vortrages bewegte ich mich entlang einer Zeitachse von 2005 und griff mir einige wichtige Punkte heraus. Schließlich kam ich zu den gefundenen Trojanern und stellte die erste sowie die aktuelle, zweite Veröffentlichung vor. Beim rechtlichen Teil versuchte ich, einige wichtige Artikel des Grundgesetzes vorzustellen und erklärte, wie das Bundesverfassungsgericht daraus weitere Rechte ableitet. Schließlich ging ich auf das Urteil zur Online-Durchsuchung und die Diskussion ein. Einige weitere Schlaglichter aus der aktuellen Entwicklung rundeten das Ganze ab. Im letzten Teil versuchte ich anhand von Videos und Interviewaussagen von Politikern mal den Spin und teils die Unwahrheiten nachzuzeichnen.

Im Anschluss gab es dann eine längere Diskussion. Für mich war das eine sehr schöne, weil lebhafte Veranstaltung.  Ich kann nur hoffen, dass die Zuhörer das ebenso gesehen haben. Meine Folien befinden sich mittlerweile online. Die PDF-Datei ist knapp 7MB groß.

Fingerprints von SSL-Seiten prüfen

Das Desaster um die niederländische Zertifizierungsstelle DigiNotar zieht derzeit immer noch seine Kreise. Mir scheint es noch zu früh, um hier etwas dazu zu schreiben. Vielmehr will ich ein paar Worte verlieren, wie ich „meine eigene CA betreibe“. Denn schon seit längerem vertraue ich nicht, den von den Browsern mitgelieferten Zertifizierungsstellen (CA). Zumeist lösche ich alle und gebe dann einzeln Vertrauen.

Der beste Weg, um einem SSL-Zertifikat zu vertrauen, wäre, sich bei dem Betreiber zu melden und über einen sicheren Kanal den Fingerprint des Zertifikats zu klären. Mein Browser zeigt mit für die Seite Wikipedia-SSL-Seite den Fingerprint (SHA-1) BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E an. Wenn ich bei der Wikipedia anrufe und diese mir denselben nennen, so habe ich das korrekte Zertifikat. Dabei nehme ich natürlich an, dass das Telefon ein sicherer Weg zum Austausch der Informationen ist. Aber beispielsweise druckt die lokale Sparkasse eben diesen Fingerprint auf ihre Dokumente. Damit kann ich das als Kunde leicht verifizieren.

Wie das Beispiel Wikipedia aber schon zeigt, ergibt sich da ein Problem.Woher bekomme ich den Fingerprint? Muss ich bei Jimmy Wales direkt anrufen oder gar nach FloridaKalifornien¹ reisen? Hier kam nun meine Idee ins Spiel.

Ich habe auf diversen Servern einen Zugang, d.h. ich kann mich von der Ferne einloggen und dann dort arbeiten. Die Rechner stehen in verschiedenen Netzen und zum Teil auf verschiedenen Kontinenten. Nun logge ich mich auf den Servern ein, lade das Zertifikat herunter und lasse mir den Fingerprint anzeigen. Wenn dieser auf allen Rechner gleich ist, dann gehe ich davon aus, dass ich das korrekte Zertifikat angezeigt bekomme. In dem Fall akzeptiere ich das und vertraue dem. Sollten die Fingerprints abweichen, dann akzeptiere ich das nicht und recherchiere dem in der Regel ein wenig hinterher.

Jörg Sommer hat das nun ein wenig automatisiert und ein zsh-Skript (Quelltext weiter unten) geschrieben. Das wird folgendermaßen aufgerufen:

ssl-fp-check [-l] sslsi.te[:port] ssh1 [ssh2] [ssh3] ...

Dabei ist sslsi.te die Webseite, die geprüft werden soll. Ohne die Angabe eines Ports verwendet das Skript standardmäßig 443. Danach wird eine oder mehrere SSH-Verbindungen angegeben. Das Skript wird nun versuchen, sich überall einzuloggen und gibt dann den Fingerprint aus. Für den Fall, dass es auf dem Zielsystem kein OpenSSL gibt, existiert die Option -l. Dabei wird dann ein Tunnel gebaut und das lokale installierte OpenSSL verwendet.

Also für Wikimedia habe ich folgendes eingeben:

ssl-fp-check secure.wikimedia.org a b c d
a: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
b: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
c: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E
d: SHA1 Fingerprint=BA:8A:BE:34:B1:34:3B:AF:06:05:4B:48:A9:27:AA:D9:B4:75:45:6E

Die SSH-Server a, b, c und d gaben also denselben Fingerprint aus. Also würde ich dem ganzen doch vertrauen. :-)

Ich werde das Skript jetzt wahrscheinlich immer verwenden. Es macht das Leben doch deutlich einfacher.

"Fingerprints von SSL-Seiten prüfen" vollständig lesen

Alternativen zu Doodle

In Folge 25 von DeimHart sind Axel Beckert und Martin Ebnöther eingeladen, über Open-Source-Veranstaltungen zu erzählen. Im Podcast erwähnen sie diverse Klone von Doodle. Untenstehend findet ihr diese gesammelt:

Weiterhin gibt es eine Liste von Doodle-Alternativen. Viel Spass beim Terminieren! :-)

CNET porträtiert Niels Provos

Benutzt du OpenSSH? Oder Tor? Oder Google Chrome? Und kennst du Niels Provos? Nein? Das kannst du jetzt ändern. Unter dem Titel Google’s Niels Provos battles malware on the Web veröffentlichte das Magazin CNET einen interessanten Bericht zu dem Entwickler.

Ich war überrascht zu lesen, dass Provos einen deutschen Hintergrund hat. Nach dem Bericht wurde er bei Lübeck geboren und studierte in Hamburg Physik. Danach ging er an die Universität von Michigan, machte seinen Doktor und entwickelte nebenan in Kanada OpenSSH. Die Bibliothek libevent, u.a. eine der grundlegenden Bibliotheken für Tor, stammt ebenfalls aus seiner Feder. Im Jahr 2003 ging er dann zu Google und leitet das Safe-Browsing-Team. Vielleicht ist euch schon einmal aufgefallen, dass Firefox, Chrome und andere Browser vor dem Besuch einer Seite eine fette rote Warnung drucken. Die Seite enthält wahrscheinlich Schadcode und die Warnung soll die Benutzer schützen. Diese Ideen gehen offensichtlich auf Provos zurück.

Lest euch den Artikel mal durch. Ich finde, er ist ein gelungenes Profil zu Niels Provos.

Mit dem Bus zu den Chemnitzer Linux-Tagen

Noch 58 Tage dann starten in Chemnitz wieder die Chemnitzer Linux-Tage. An zwei Tagen geht es wieder um das beste Betriebssystem der Welt. :-) Die FSFE hat in  diesem Jahr ein besonderes Angebot, die Freedom Tours. Wer von Düsseldorf, Dortmund oder Kassel kommt, kann in den Bus einsteigen und mit nach Chemnitz fahren.

via Charly Kuehnast

Filesharing mit Twitter

Um Twitter entstehen immer mehr Dienste. Am bekanntesten ist sicher Twitpic, um Fotos zu twittern. Eine neue Idee ist nun, Filesharing per Twitter zu betreiben. Auf TwileShare loggt man sich mit seinem Twitter-Account ein und kann Bilder, Microsoft-Word- und PDF-Dateien hochladen. Jedem Nutzer stehen derzeit ein GigaByte zur Verfügung.

Dann fehlen nur noch:

via TechCrunch

Popcorn oder Desktopwars reloaded

Sucht ihr einen Vortrag mit hohem Unterhaltungswert? Dann schaut euch mal Desktop on the Linux... (and BSD, of course) an. Der Vortragende will ein wenig über die Desktopsituation bei aktuellen Linuxdistributionen herziehen aka ranten. Insbesondere geht es um d-bus, ConsoleKit und andere. Der Autor dieser Software, Lennart Poettering, nahm vorher Notiz und sitzt mit im Saal. Entsprechend fallen dann die Einwürfe aus. Leider ist der Vortragende darauf wohl nicht vorbereitet und wirkt dann teils schwach. Anschauen und eine Tüte Popcorn bereit halten! :-)

Rückblick zum 27C3

Neben Weihnachten ist für mich vor allem das Jahrestreffen des CCC eine feste Tradition. So fuhr ich auch dieses Jahr wieder zum 27C3.

In den letzten Jahren zeichnete sich der Kongress durch eine stete Überfüllung aus. Insbesondere schlecht erwischte es letztes Jahr viele, die „erst“ zum Starttag anreisten. Ich traf damals morgens gegen 11 Uhr mit Frank ein und da hieß es bereits, dass keinerlei Karten mehr verfügbar seien. Damals musste ich mir glücklicherweise keine Gedanken darum machen, da ich einen Vortrag hatte. Jedoch mussten viele wieder die Segel streichen. Diese Situation sollte im Jahr 2010 nicht wieder auftreten. Daher gab es drei Runden mit Vorverkäufen. Wer hier zum Zug kommen wollte, musste einigermaßen flink handeln. Denn die Tickets waren in kurzer Zeit (weniger Minuten bis Stunden) ausverkauft. Viele Menschen waren hinterher verärgert, dass sie keine Tickets erhielten. Ich halte das aber immerhin für besser, als mehrere Stunden nach Berlin anzureisen und dann vor verschlossenen Toren zu stehen. Ein Trost sei, dass laut der aktuellen Ausgabe von /dev/radio auch „Schwergewichte“ wie Steffen Wernéry ohne Ticket da standen. Für die Tage zwei bis vier wurden Tagestickets an der Kasse angeboten. Solange der Chaos Communication Congress im bcc bleibt, wird wohl die Situation mit den Tickets unverändert bleiben. Kris ist der Meinung, dass die Veranstaltung als By Invitation Only bezeichnet werden solle. Ein Umzug an einen anderen Ort scheint schwierig zu sein, Laut Fefe gibt es in Berlin schlicht keinen besseren Ort.

Ich hatte nun glücklicherweise meine Karte. Allerdings habe ich es weitgehend verpeilt, mich um Anreise und Übernachtung zu kümmern. Der CCC hatte ein schönes Angebot bei der Bahn organisiert. So bin ich letztlich mit einem normalen Ticket gefahren und habe wiedermal eine kleine Verspätung mitgenommen. Glücklicherweise musste ich nicht wieder im ICE übernachten, wie im Dezember. :-)

Pünktlich zur ersten Pause war ich dann im bcc und hatte Zeit, mir die Aufbauten genauer anzuschauen. Eine überraschende Entdeckung war ein Stand des Deutschlandfunk. Er berichtete alle vier Tage vom Congress. Danach schaute ich mir einige Vorträge an und als ich dann den Saal wieder verließ, traf ich einige Bekannte. So verbrachte ich die Zeit bis 23 Uhr mit Gesprächen. Dann kam ein Vortrag zu Stuxnet und den wollte ich mir gern anhören. Gute Entscheidung. Denn aus meiner Sicht war das einer der besten Vorträge, den ich auf dem gesamten Congress hörte. Bruce Dang erzählte etwas, wie sie die diversen Lücken gefunden haben. Sein Vortrag wirkte auf mich natürlich und eher nicht wie eine Marketingshow. Schließlich gab es die Pentanews Game Show und für mich wurde es Zeit, mich um eine Übernachtung zu kümmern. Da es bereits nach eins war, schaute ich, ob es noch Tickets zur Turnhalle gab. Das war der Fall und dieses Jahr war die Turnhalle nicht die Turnhalle, sondern das Cafe Moskau. Dort fand ich dann sogar ein Zimmer mit wenigen Leuten und schlief ruhig ein.

Am nächsten Tag wollte ich früh in Saal 3 sein. Der Vortragende war jedoch nicht aufgetaucht und so hielt Guido Strack vom Whistleblower-Netzwerk e.V. einen Vortrag zu WikiLeaks. Das Ganze schien relativ spontan entstanden zu sein und er kündigte das als Diskussion an. Leider wurde es dann doch ein Vortrag. Ich hatte das Gefühl, dass seine Inhalte für die meisten bereits bekannt waren und es so keinen wirklichen Mehrwert gab. Aus meiner Sicht wäre es besser gewesen, einige Aspekte von WikiLeaks mal zu diskutieren. Bis zum Nachmittag nahm ich mir dann erstmal ein wenig Zeit, redete und schaute mich um. Der Vortrag von Peter Eckersley erschien mir dann wieder interessant. Er hat alle IP-Adressen auf Port 443 nach einem SSL-Zertifikat befragt und dieses dann heruntergeladen. Einige Ergebnisse finden sich auf der SSL-Observatory-Seite. Darin enthalten sind Zertifikate mit schwachen Schlüsseln, mit Namen wie mail oder localhost und viele andere Merkwürdigkeiten. Wer mag, kann sich den Datensatz selbst herunterladen und analysieren. Nach dem Vortrag verlor ich mich wieder in Gesprächen und so verpasste ich unter anderem The Concert. Einige Künstler hatten sich wohl an den CCC gewendet und den Vorschlag gemacht, ein kleines Konzert mit Klavier (Steinway) und Geige (Stradivari) zu spielen. So kamen einige Hacker dann in den Genuss eines großartigen Konzerts. Immerhin die Zugabe erfreute noch meine Ohren. Denn ich wollte mir den Vortrag zu High-Speed Crypto von Daniel J. Bernstein anhören. Daniel begann mit einem Rant gegen DNSSEC. Seiner Meinung nach, ist es ein großartiges DDoS-Tool. Denn eine Anfrage generiert eine Antwort, die 30-50 mal so groß ist. Dann hielt er sich lange bei Grundlagen auf, um dann schließlich zu seiner Lösung CurveCP zu kommen. Diese soll alle Pakete verschlüsseln und über UDP versenden. Der öffentliche Schlüssel steckt in der URL, z.B. wäre die Seite dann über http://72538ab3e4.kubieziel.de zu erreichen. Damit hat der Client den öffentlichen Schlüssel und kann loslegen. Angeblich ist das Verschlüsseln und Senden genauso schnell wie HTTP. Aber hier hätte ich gern Belege in Form von Messungen gesehen. Bernstein sagte, es sei alles ganz einfach und schnell, blieb aber den konkreten Nachweis schuldig. Insgesamt fand ich den Vortrag eher enttäuschend, da ich zu Beginn mehr erwartet hatte. Im Anschluss blieb ich beim Stand des AK Vorrat kleben und verpasste den zweiten interessanten Teil des Abends, Erst durch den Twitterstream von Anne Roth wurde ich darauf aufmerksam. Nick Merrill erzählte von seiner Tätigkeit als ISP und wie er vom FBI eine Gag Order (Redeverbot) erhielt. Er sollte die Daten eines seiner Kunden herausgeben und durfte mit niemandem darüber sprechen. Er tat es trotzdem, nämlich mit Anwälten, und klagte dagegen und erzielte einen Teilerfolg. Den Vortrag muss ich mir auf jeden Fall nochmal anhören. Als ich mich dann von dannen machen wollte, traf ich Sven Guckes. Wir schwatzten und plötzlich waren auch die Künstler vom Konzert an unserem Tisch. So hatten wir noch eine nette Plauderei über Musik, Mathematik und Programmierung.

Die zweite Nacht über schnarchte jemand in mein Ohr hinein und so war ich recht zeitig wieder auf den Beinen. Ich setzt mich in eine Ecke des bc, lud den Akku und genoß das WLAN. Denn ausnahmsweise tat es mal seine Dienste. An meinem Tisch nahm ein junger Hacker Platz und wir kamen ins Gespräch. Er hatte von den gehackten Seiten gelesen und war der Meinung, hier seine H4x0r-Ski||z aufpolieren zu können. Dummerweise war er dabei bei mir an den Falschen geraten. ;-) Denn ich halte das stupide Aufmachen irgendwelcher Foren oder Webseiten nicht für Hacken. Stattdessen versuchte ich ihn ein wenig im Sinne des Hacker-Howto (Original) zu prägen. Andererseits lernte ich durch ihn ein wenig mehr über die diversen Hackerboards und die Kriege zwischen diesen. Der erste Vortrag des Tages wurde dann der zur Navigation mit offenen Karten. Ich fand es sehr spannend mal eine Einführung in das Thema zu bekommen. Denn bislang hatte ich nur eine vage Idee und nun lernte ich, dass es noch komplexer als angenommen ist. Bernhard hat eine abgeschlossene Gemeinschaft von Editoren im Sinn, die eine perfekte Karte erstellen. Nach meiner Ansicht wäre ein offenes Projekt mit einigen Restriktionen jedoch besser. Ich bin gespannt, wie sich das weiter entwickelt. Der weitere Tagesablauf bedurfte dann einiger Planung. Ich versorgte mich zeitig mit Essen. Denn am Abend kamen mit dem Fnord-Jahresrückblick und dem Hacker Jeopardy zwei Publikumslieblinge. Ich kam kurz vor halb acht zurück vom Essen und nahm Kurs Richtung Saal 1. Zu dem Zeitpunkt war der letzte Vortrag gerade zu Ende und schon da stand eine Riesentraube vor den Eingangstüren. Ich machte mich dann auch gleich auf und ergatterte einen guten Platz. Also nochmal in Klartext: Gegen 19:30 Uhr war der Saal voller Leute, die den um 21:45 Uhr beginnenden Vortrag sehen wollten … Nick Farr unterhielt die Massen bis zum Beginn des nächsten Vortrages. Nick ist wirklich ein guter Entertainer und es machte Spass, seinen Ausführungen zu lauschen. Um 20:30 Uhr führte Steven Murdoch wieder vor, dass das Chip-und-PIN-System kaputt ist. Sein Vortrag ist aus mehreren Gründen sehr sehenswert. Zum einen zeigt er, dass die Industrie bei fehlendem öffentlichen Druck nicht auf Schwachstellen reagiert. Stattdessen wird die Schuld auf die Kunden abgewälzt. Selbst wenn dann Öffentlichkeit da ist, gibt es Ausreden und in dem Falle versuchten sie sogar, die Dokumente zu zensieren. Prof. Ron Anderson verschickte eine entsprechend gewürzte Antwort. Zum zweiten hatte Steven eine wirklich sehr gute Präsentation gebaut. Sehr sehenswert! Danach kamen dann Frank und Fefe auf die Bühne. Beide präsentierten mit Hingabe die Show. Das hat einfach einen hoher Unterhaltungswert. Genauso wie die folgende Spielshow. Beide muss man eigentlich live erleben. Hinterher betrachtet, geht wahrscheinlich die Stimmung verloren. Danach endete der offizielle Congresstag.

Der letzte Tag stand für mich schon ganz im Zeichen der Abreise. Dieses Jahr waren wir Veranstalter der Silvesterparty und ich musste diverses besorgen. Daher organisierte ich die Rückfahrt und traf noch einige Bekannte. Gerade als ich mich auf den Weg machen wollte, sprach mich Peter Welchering vom Deutschlandfunk an, ob ich nicht Lust auf ein Interview hätte. Wer lässt sich denn die Chance entgehen? Also verzögerte sich die Abreise noch etwas. Das Interview steht schon online. Jedoch ist die Tonspur kaputt. Mal sehen, wann ich endlich hören kann, was ich da erzählte. :-) Das Gespräch war dann der Schlusspunkt und ich machte mich auf den Heimweg.

Der 27C3 war für mich wieder einmal einer der Höhepunkte des Jahres. Es tut gut, Gleichgesinnte zu treffen, Ideen auszutauschen und wirklich guten Vorträgen zu lauschen. Ich werde nun noch einige verpasste Vorträge nachhören, Ideen aufarbeiten und von dem positiven Gefühl leben. ;-)

Update: Ein S9Y-Plugin hat vorhin den Rest des Beitrages gefressen. Ich habe den daher nochmal neu formuliert.

Liste von Spiegelservern der Wikileaks-Seite

Die Nachrichten zu Wikileaks überschlagen sich in den letzten Tagen. Am Freitag wurde die Domain gesperrt, der Zugang bei PayPal gesperrt und einiges mehr. Auf Twitter sah man daraufhin einige Ankündigungen für Spiegelseiten (Kopie des Originales wird bereitgestellt). Da es soviele waren, habe ich mich dann entschieden, eine Liste anzulegen. Mittlerweile gibt es 230 Seiten, die Wikileaks spiegeln. Neben einer “normalen” Seite gibt es Zugänge für I2P und versteckte Services von Tor. Hier hat also mal wieder der Streisand-Effekt zugeschlagen.

Beiträge für Chemnitzer Linux-Tage einreichen

Das neue Jahr klopft schon heftig an die Tür und die Organisation der Chemnitzer Linux-Tage läuft auf Hochtouren. Im März 2011 ist es dann soweit. Besucher werden wieder aus vielen tollen Beiträgen auswählen können und netten Menschen an Ständen treffen. Doch bevor es soweit ist, braucht es Freiwillige. Daher rufen die Organisatoren zur Einreichung von Beiträgen auf. Die Hauptthemen in diesem Jahr sind:

  • Emulatoren
  • IT-Dokumentation
  • Business Intelligence
  • Kernel

Bis zum 5. Januar 2011 habt ihr nun Zeit, euch Gedanken zu machen und aktiv zu werden.

Gründlicher Stuxnet-Entferner

Am Montag hatte ich in meiner Einstiegsvorlesung über Stuxnet erzählt. Ein kleiner Gag kam leider zu spät. Symantec berichtet von einem Stuxnet-Cleaner. Auf den ersten Blick sieht er aus wie ein Programm von Microsoft. Jedoch sorgt er neben einigen kleineren Manipulationen dafür, dass das komplette Laufwerk C: gelöscht wird. Insofern ist die Bezeichnung Stuxnet-Cleaner gerechtfertigt. :-) Dennoch sollte man das Programm auf keinen Fall auf seinem Rechner ausführen.

via Websicherheit.org.

Fehlersuche beim Linux-Kernel (Bootprobleme)

Vor nicht allzu langer Zeit sass ich entspannt bei einem Kaffee und wollte meinen Rechner starten. Einschaltknopf gedrückt und der Bildschirm lächelte mich mit einer Fehlermeldung an:

error: unexpectedly disconnected from boot status daemon
Begin: Waiting for root file system ...

grml, warum muss das ausgerechnet jetzt passieren? Sehr schnell war klar, dass ich an dieser Stelle nicht weiter komme. Also bootete ich einen alten, funktionierenden Kernel und änderte meine grub-Einstellungen entsprechend. Damit lebte ich einige Zeit gut, bis mir mal wieder der Workaround auffiel. Jetzt wollte ich das Problem mal genauer angehen.

Beispielansicht eines Plymouth-Bootscreen

Die Fehlermeldung, die irgendwas von dem Boot Status Daemon erzählte, schien auf plymouth hinzudeuten. Der Sinn der Software ist es, den Bootprozess zu verschönern. Das heißt, es macht schicke Bildchen anstatt der Kernelmeldungen.

Der Bugtracker von Debian hatte einen Eintrag zu meiner Meldung. Die in dem Bugreport genannten Einstellungen änderten bei mir nichts am Problem. In meinem nächstem Versuch wollte ich plymouth deinstallieren. Aber da gab es eine winzige Abhängigkeit zu mountall(8). Der Zufall führte mich zu einem angepasstem Paket, mit dem plymouth deinstalliert werden kann. In freudiger Erwartung startete ich den Rechner neu. Aber es wäre nur zu schön gewesen, wenn sich das Problem so leicht lösen ließe.

Zu diesem Zeitpunkt kam mir in den Sinn, die Bootoptionen quiet und splash zu entfernen. Siehe da, ein wenig mehr kam zum Vorschein:

Begin: Running /scripts/init-premount ... done.
Begin: Mounting root file system ... Begin: Running /scripts/local-top ... done.
Begin: Waiting for root file system ...

Warten, warten und nochmal warten. Oh, nun noch eine BusyBox-Shell:

(initramfs) Gave up waiting for root device. Common problems:
...
ALERT! /dev/disk/by-uuid/.... does not exist. Dropping to a shell!

Nebenbei stellte ich dann fest, dass die Meldung mit dem Boot Status Daemon nur bei einer speziellen Kernelversion auftrat. Die Meldung oben konnte ich mit jeder Standard-Ubuntu-Kernelversion größer als 2.6.32-20 erzeugen. Für mich wäre es viel wichtiger zu erfahren, woher denn diese Meldung stammt!

Ein Hinweis brachte mich dann zu den Mainline-Builds. Das sind spezielle Pakete des Ubuntu Kernelteams, die recht nahe am Original-Kernel sind. Ich versuchte wieder diverse Versionen. Alle brachten mir die Fehlermeldung. Na gut, dann baue ich eben einen eigenen Kernel.

git clone git://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux-2.6.git
cp /boot/config-2.6.32-24-generic /usr/src/linux-2.6/.config
make oldnoconfig
make deb-pkg
dpkg -i ../linux*.deb
reboot

Beim ersten Reboot startete der Kernel tatsächlich korrekt. Sollte Ubuntu wirklich einen Bug in den eigenen Kernel eingebaut haben? Plötzlich fiel mir ein, dass die Zeile im grub einen kleinen, aber feinen Unterschied zu den restlichen Einträgen aufwies. Ich hatte root=/dev/sda1 angegeben. Alle anderen Einträge trugen root=UUID=.... Also versuchte ich die Änderung bei den anderen Kerneln und es klappte. Jede Kernelversion bootete mit dieser Änderung.

Jetzt muss ich nur noch herausfinden, warum das nicht klappt und ich bin wieder ein glücklicher Mensch. :-)

Das Bild stammt vom Blog Linux und ich

Virenscanner und trügerische Sicherheit

In Abwandlung der Fachbegriffe der Informatik Nummer 264 könnte man schreiben: Virenscanner schützen vor Viren, Trojanern, Kettenbriefen und Taubenscheiße auf dem Autodach. Dem populären Glauben nach ist das auch so. Bredolab, ein neuer Trojaner, zeigt wieder einmal, wie gefährlich dieser Glaube sein kann. Der Trojaner tauchte am 13.Juli erstmalig auf und kein Virenscanner fand ihn. Fünf Tage später fanden ihn weniger als 50% der getesteten Produkte. Nebenan bei Websicherheit.org verfolgt man die Erkennungsraten. Ich bin gespannt, wann alle den Trojaner als solchen erkennen. Virenscanner sind eben nur eine Verteidigungslinie und wer sich ausschließlich darauf verlässt, ist manchmal verlassen.

Der totale Overflow

Meine Anfänge im Internet gehen in das Jahr 1996 zurück. Vielleicht auch etwas eher. So genau weiß ich das nicht mehr. Damals versuchte ich das unbekannte Territorium ein wenig zu erobern. Da gab es so merkwürdig klingende Dienste wie Gopher, Archie oder Veronica. Das, was heute fälschlicherweise als das Internet bezeichnet wird, nämlich das WWW existierte ebenso wie ein Dienst namens Usenet. Das war und ist ein riesiges weltweites Diskussionsforum mit einzelnen Räumen, den Newsgroups oder Gruppen. Das Usenet ist hierarchisch aufgebaut.Beispielsweise gibt es eine deutschsprachige Hierarchie. Darunter gibt es Gebiete für Diskussionen um Computer, um Wissenschaft, um Erholung etc. Diese teilen sich dann weiter auf in Computerhardware oder Mathematik oder Kartenspiele. In den einzelnen Gruppen fanden in der Regel sehr wertvolle Diskussionen statt, es wurden sinnvolle Lösungen weitergegeben etc. Mit dem Aufkommen von Foren, Blogs und guten Suchmaschinen begann der Stern des Usenet zu sinken. Die Diskussionen verlagerten sich an andere Stellen und heute schließen diverse Firmen Newsserver. Die Schreiber der Gruppen gehen andere Wege.

Der große Vorteil des Usenet ist aus meiner Sicht die einfache Bedienung, die Qualität der Beiträge und das Offline-Archiv. Geschrieben und gelesen wird das Usenet in der Regel in einem Programm, dem Newsreader. Google Groups bietet ebenso eine Schnittstelle zum Usenet. Zum Verfassen eines Beitrages kann ich somit den Editor bedienen und seine Stärken ausnutzen. Damit lässt effektiv ein Beitrag verfassen. Dies lassen die Webforen vermissen. Beiträge müssen im Webbrowser verfasst werden. Der bringt in der Regel keine Unterstützung für erweiterte Funktionen (Abkürzungen, Ersetzen etc.) mit. Ein Problem der Webforen ist die Aufsplitterung. Stellt euch vor, ich habe ein Problem mit meinem imaginären Opel und suche nach einem Opel-Forum. Welches von den sechs Millionen Funden ist das Richtige? Im Usenet gab es die Gruppe de.etc.fahrzeug.auto. Dort fanden alle Diskussionen zu dem Thema statt. Die ließen sich herunterladen und, während man mit der Bahn unterwegs war, konnte man sich zu dem Problem mit dem Opel belesen. Wie geht das bei einem Webforum?

Der letztgenannte Punkt ist heute kein großes Problem, dank UMTS und WLAN. Die ungelösten Probleme sterben nicht aus und wenn ich mich auf die Suche nach einer Lösung begebe, stoße ich in letzter Zeit gehäuft auf Stackoverflow. Die Seite richtet sich vorrangig an Programmierer und fiel mir durch qualitativ hochwertige Antworten auf. Die Suchergebnisse sind dementsprechend bei Google immer recht weit oben gelistet.

Stackoverflow ist prinzipiell ein Webforum. Jedoch wählt es einen anderen Ansatz. Einerseits sind alle Beiträge für jedermann lesbar. Das steht im Gegensatz zu manchem Webforum, bei dem man sich erst anmelden muss, um Beiträge zu lesen. Wer macht das schon? Der Ansatz von Stackoverflow geht aber noch weiter. Jeder kann ohne Anmeldung auch Beiträge verfassen. Das heißt, Fragen stellen, kommentieren oder beantworten. Die Macher der Seite setzen hier auf die Weisheit der Massen. Um das Ganze ein wenig zu unterstützen, gibt es ein Bonussystem. Wer sich nämlich bei der Seite anmeldet, bekommt Bonuspunkte für gestellte Fragen, für Antworten und einiges mehr. Je mehr Punkte jemand besitzt, desto mehr Rechte bekommt er. Dieses Bonussystem wirkt sich nach meiner Beobachtung auf die Psyche aus. Wer alte Diskussionen aus dem Usenet kennt, der kennt RTFM und andere Abkürzungen, die einem Fragenden entgegengeworfen werden. Bei Stackoverflow herrscht hingegen eine weitgehend freundliche Atmosphäre. Antworten fallen schon einmal länger aus und enthalten Beispiele. Denn für eine gute Antwort bekommt der Antwortende Punkte. Jeder kann Fragen und Antworten bewerten und die Seite zeigt automatisch, die am besten bewerteten Antworten oben an. Das ist wiederum für den Suchenden sehr praktisch.

Innerhalb von Stackoverflow gibt es Tags, die zu Fragen vergeben werden. Diese stellen eine Art thematische Sortierung dar. Wer Fragen zu PHP, Haskell oder C++ stellen bzw. beantworten will, schaut sich den entsprechenden Tag an. Mehrere tausend Tags sind derzeit vergeben.

Nun stieß ich auf eine weitere Seite aus dem Stackoverflow-Universum, der Area51. Diese setzt eine weitere Idee aus dem Usenet um. Wer nämlich eine neue Diskussionsgruppe im Usenet errichten wollte, musste einen formalen Prozess aus verschiedenen Schritten durchlaufen. Das sollte sicherstellen, dass nicht sinnlos Gruppen für Partikularinteressen gegründet werden. Ähnlich ist Area51. Die Seite erlaubt wieder jedem einen Vorschlag für eine neue Seite einzubringen. Danach findet dazu eine Diskussion statt, d.h. andere müssen Beispielfragen bringen, die gut in das Thema passen würden. Andere diskutieren diese Fragen und vergeben Punkte, ob diese wirklich gute Fragen sind. Nach Abschluss des Prozesses werden Leute gesucht, die sich verpflichten für einen begrenzten Zeitraum Fragen zu beantworten. Kommen genügend Stimmen zusammen, so wird die Seite ins Leben gerufen. Das stellt sicher, dass hier nicht das n-te tote Forum im Web steht. Neben Stackoverflow kenne ich derzeit:

Serverfault
Eine Seite für Sysadmins
Superuser
Allgemeine Computerfragen
Meta
Meta-Fragen zur Seite selbst
Stackapps
Fragen zur Stack Exchange API
Cooking
Die Kochseite ist erst kürzlich der Area51 entsprungen und befindet sich jetzt in der Testphase.

Insgesamt macht es richtig Spass, auf den Seiten herumzustöbern, Fragen zu lesen und auch zu beantworten. Aus meiner Sicht müssen noch ein paar kleinere Usability-Schwächen behoben werden. Aber insgesamt kann ich die Seite nur empfehlen. Werft mal einen Blick und sagt mir eure Meinung. Ich bin gespannt!

cronjob