Pofalla hat sich durchgesetzt: NSA startet Transparenzoffensive

Opposition will endlich keine Informationen mehr vorbehalten bekommen.

Unser Kanzleramtsminister Ronald Pofalla hat im Rahmen seiner „Der NSA-Skandal ist beendet“-Tournee erklärt, dass die Bundesregierung gegenüber der US-Regierung die Deklassifizierung von Dokumenten zwecks Aufklärung durchgesetzt habe. Die NSA hat jetzt eine Transparenzoffensive gestartet und die gewünschten Dokumente verschickt, zumindest an das Parlamentarische Kontrollgremium (PKG) im Deutschen Bundestag, dessen Mitglieder über die Inhalte nicht reden dürfen. Aber offensichtlich können sie über die Nicht-Inhalte twittern, denn das hat Thomas Oppermann, der Parlamentarische Geschäftsführer der SPD-Fraktion und Mitglied der PKG, als Foto verschickt:

BTQlrwECUAEkcbh

Laut Thomas Oppermann ist das nicht die einzige geschwärzte Seite, vielleicht ist es aber auch nur Geheimschrift und ein Ratespiel. Man kann das aber auch so positiv sehen, wie Ronald Pofalla:

Mit dem eingeleiteten Prozess sei er „sehr zufrieden“. Die amerikanische Seite habe bereits Unterlagen geliefert, die aus der Geheimhaltung gehoben seien und die er nun dem Kontrollgremium vorgelegt habe.

Könnt Ihr nichts drin lesen? Alexander Svensson hat die Botschaft rausgelesen und ein Video daraus gemacht:

11 Ergänzungen

  1. wie immer halt, volksverarschung von höchster dummfalla-ebene. der ist so dumm dass er noch beifall klatscht. aber nur wenn mutti dabei ist.

  2. an die typo/krypto-experten: angenommen diese schwarzen seiten wären nicht höchst geheim. könnte man nicht versuchen anhand der länge der schwarzen balken rückschlüsse auf die verwendeten buchstaben zu ziehen?

    1. Wohl kaum: zunächst müsste man alle Zeichenbreiten (inklusive Varianten durch z.B. Kerning) der genutzten Schrift kennen. Wenn das gegeben ist, müsste berechnet werden, welche Einzelbreiten aufaddiert die Zeilenbreite ergibt. Da sich Zeichen nicht so sehr in der Breite unterscheiden, und wir hier über eine Summe von >50 Einzelwerten sprechen, dürfte es hier horrend viele Möglichkeiten geben. Jede einzelne müsste dann noch durch-permutiert werden um herauszufinden, ob eine Zeichenanordnung einen sinnvollen Teilsatz ergibt.

      …das halte ich für hoffnungslos.

    2. Man könnte anhand der nicht geschwärzten Texte ein statistisches Sprachmodell erstellen (welche Woerter werden wie haeufig in welcher Reihenfolge verwendet etc., z. B. Hidden Markov Modell) und dies mit einem allgemeinen US-Englischen Sprachmodell verbinden. Mithilfe dieser Modelle könnte man die Vielzahl der möglichen Varianten zumindest drastisch reduzieren.

      1. Auf Wortebene (also bei geschwärzten Wörtern mit Leerzeichen dazwischen) könnte ich mir das bei einer ausreichenden Menge Vergleichstext vorstellen: man vergleicht die Wortlängen für passende „Kandidaten“ und ermittelt dann mittels HMM wahrscheinliche Wortkombinationen.

        Da hier aber komplette Zeilen geschwärzt sind, wäre der Ansatz hier denke ich aussichtslos. Es braucht nur ein „unbekanntes“ Wort in einer Zeile, um das Verfahren scheitern zu lassen.

  3. Der alte Internetausdrucker.
    Haben die nicht eh alle iPads im Bundestag?
    Wer muss denn da noch Papier verschwenden?

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.