Unser Kanzleramtsminister Ronald Pofalla hat im Rahmen seiner „Der NSA-Skandal ist beendet“-Tournee erklärt, dass die Bundesregierung gegenüber der US-Regierung die Deklassifizierung von Dokumenten zwecks Aufklärung durchgesetzt habe. Die NSA hat jetzt eine Transparenzoffensive gestartet und die gewünschten Dokumente verschickt, zumindest an das Parlamentarische Kontrollgremium (PKG) im Deutschen Bundestag, dessen Mitglieder über die Inhalte nicht reden dürfen. Aber offensichtlich können sie über die Nicht-Inhalte twittern, denn das hat Thomas Oppermann, der Parlamentarische Geschäftsführer der SPD-Fraktion und Mitglied der PKG, als Foto verschickt:
Laut Thomas Oppermann ist das nicht die einzige geschwärzte Seite, vielleicht ist es aber auch nur Geheimschrift und ein Ratespiel. Man kann das aber auch so positiv sehen, wie Ronald Pofalla:
Mit dem eingeleiteten Prozess sei er „sehr zufrieden“. Die amerikanische Seite habe bereits Unterlagen geliefert, die aus der Geheimhaltung gehoben seien und die er nun dem Kontrollgremium vorgelegt habe.
Könnt Ihr nichts drin lesen? Alexander Svensson hat die Botschaft rausgelesen und ein Video daraus gemacht:
wie immer halt, volksverarschung von höchster dummfalla-ebene. der ist so dumm dass er noch beifall klatscht. aber nur wenn mutti dabei ist.
Der Herr Oppermann imponiert mir immer mehr.
an die typo/krypto-experten: angenommen diese schwarzen seiten wären nicht höchst geheim. könnte man nicht versuchen anhand der länge der schwarzen balken rückschlüsse auf die verwendeten buchstaben zu ziehen?
Wohl kaum: zunächst müsste man alle Zeichenbreiten (inklusive Varianten durch z.B. Kerning) der genutzten Schrift kennen. Wenn das gegeben ist, müsste berechnet werden, welche Einzelbreiten aufaddiert die Zeilenbreite ergibt. Da sich Zeichen nicht so sehr in der Breite unterscheiden, und wir hier über eine Summe von >50 Einzelwerten sprechen, dürfte es hier horrend viele Möglichkeiten geben. Jede einzelne müsste dann noch durch-permutiert werden um herauszufinden, ob eine Zeichenanordnung einen sinnvollen Teilsatz ergibt.
…das halte ich für hoffnungslos.
Man könnte anhand der nicht geschwärzten Texte ein statistisches Sprachmodell erstellen (welche Woerter werden wie haeufig in welcher Reihenfolge verwendet etc., z. B. Hidden Markov Modell) und dies mit einem allgemeinen US-Englischen Sprachmodell verbinden. Mithilfe dieser Modelle könnte man die Vielzahl der möglichen Varianten zumindest drastisch reduzieren.
Auf Wortebene (also bei geschwärzten Wörtern mit Leerzeichen dazwischen) könnte ich mir das bei einer ausreichenden Menge Vergleichstext vorstellen: man vergleicht die Wortlängen für passende „Kandidaten“ und ermittelt dann mittels HMM wahrscheinliche Wortkombinationen.
Da hier aber komplette Zeilen geschwärzt sind, wäre der Ansatz hier denke ich aussichtslos. Es braucht nur ein „unbekanntes“ Wort in einer Zeile, um das Verfahren scheitern zu lassen.
Ich hoffe, dass ihn demnächst ein Journalist mal ausgiebig dazu in die Zange nimmt…
so wie wir das von unserer qualitaetsmedien ja gewohnt sind. falls denn mal fragen zugelasen sind :-)
Der alte Internetausdrucker.
Haben die nicht eh alle iPads im Bundestag?
Wer muss denn da noch Papier verschwenden?
Das sind auch noch die Dokumente die schon seit Wochen durchs Internet schwirren also gar nichts neues, die haben für Pofalla nicht mal neue Seiten geschwärzt ;) http://www.heise.de/newsticker/meldung/NSA-Ueberwachungsskandal-Pofalla-druckt-Abgeordneten-Internet-aus-1948744.html
10 / 14 Seiten sehen so aus.
http://www.dni.gov/files/documents/Joint%20Statement%20FAA%20Reauthorization%20Hearing%20-%20December%202011.pdf