Technologie

Cyberwar: Der endlose Krieg

CC-BY 2.0 chrstphre

Um die strategischen Überlegungen von Militärs und Geheimdiensten für Cyberkonflikte zu verstehen, lohnt es, sich kurz in deren Gedankenwelt zu versetzen. Aus ihrer Sicht befindet sich der Westen seit dem 11. September 2001 in einem »endlosen Krieg«. Der Gegner kann überall lauern, das Schlachtfeld ist die Welt.


netzpolitik.org - ermöglicht durch Dich.

Das folgende leicht gekürzte Kapitel „Der endlose Krieg“ ist aus dem Buch „Cyberwar. Die Gefahr aus dem Netz“ von Constanze Kurz und Frank Rieger, mit freundlicher Genehmigung des Verlags C. Bertelsmann und der Autoren.
Frank Rieger ist Hacker und zuweilen auf Twitter aktiv. Über das Buch hat er bei Logbuch:Netzpolitik ausführlich gesprochen.


Schon während des Kalten Krieges, in dem eine offene militärische Auseinandersetzung zwischen der Sowjetunion und den Vereinigten Staaten durch das Nuklearwaffenarsenal der beiden Supermächte zum Ende der Menschheit geführt hätte, etablierte sich eine Vielzahl von Konfliktvarianten, die unterhalb der Schwelle eines großen, offen erklärten Krieges geführt wurden.

Der »endlose Krieg« kann als eine Fortsetzung der »Konflikte niedriger Intensität«, der Guerilla- und Stellvertreterkriege des Kalten Krieges, verstanden werden, bei denen die Großmächte ihren Zwist austrugen, ohne dafür ihre Atomwaffen einzusetzen. Dabei ist es heute zwar nicht mehr so offenkundig wie zu Zeiten des Kalten Krieges, dass es sich um Stellvertreterkriege handelt. Doch dass strategische geopolitische Interessen der Großmächte diese bewaffneten Konflikte bestimmen, daran hat sich wenig geändert. Viele der Paramilitärs und Terrorgruppen, gegen die heute gekämpft wird, sind aus Organisationen entstanden, die zuvor vom einen oder anderen Block politisch und finanziell unterstützt worden sind. Ihre Waffen erhalten sie ohnehin von diesen Staaten, die zugleich auch die größten Waffenexporteure sind und an jedem der »endlosen Kriege« verdienen.

Die unübersichtliche Struktur solcher Stellvertreterkriege mit Dutzenden Gruppen, die abwechselnd verfeindet oder alliiert sind oder schlicht für den höchsten Bieter kämpfen, entspricht der Situation in Cyberkonflikten. Für welche Mächte oder Investoren eine Gruppe gerade agiert, ist oft nicht ohne Weiteres zu erkennen. Die wechselseitige Wiederverwendung von Malware-Komponenten und die Leichtigkeit, mit der geographische Grenzen ignoriert werden können, führen zu einer Gemengelage, die dem der Schlachtfelder des »endlosen Krieges« in nichts nachsteht.

Die Mittel in diesen neuen Kriegen sind oft getarnt operierende Spezialkräfte, wachsende Privatarmeen aus Söldnern, Drohnen sowie die Versorgung temporärer Verbündeter mit Waffen, Ausbildung und Geheimdienstinformationen. Es ist auch zu befürchten, dass in diesen Konflikten künftig die bereits heute angebotenen autonomen Waffensysteme stärker zum Einsatz kommen. Da Methoden der künstlichen Intelligenz und immer umfangreichere Auswertungen und Berechnungen aus Sensordaten in Kampfsysteme einfließen und ihre Kampfkraft sogar definieren, sind Digitalwaffen schon längst ein integraler Bestandteil der Arsenale. Früher verwirrte man den Radar des Gegners, störte seinen Funkverkehr, narrte ihn durch gefälschte Funksprüche und Navigationssignale. Heute kommt der Angriff auf seine digitalen Kommunikationsnetze dazu, die computerisierten Einsatzführungssysteme, das Hacken der privaten Telefone der Soldaten und das Abgreifen der Daten ihrer Fitnesstracker. Und auch die zivilen Netze, die Wirtschaft und die Gesellschaft an sich sind zum Schlachtfeld geworden.

Ein wesentliches Kennzeichen dieser neuen Konflikte ist ihre Vergeheimdienstlichung. Deutlich wurde dies zuerst an den Drohnenkriegen der Vereinigten Staaten, die operativ über einen langen Zeitraum und bis heute von einem Geheimdienst, der CIA, dominiert wurden. Die praktisch nahtlose Integration von Kommunikationsüberwachung, Satellitenbildern, klassischer Spionage, Desinformations- und psychologischen Operationen, Informationen, die aus Digitalgeräten von Gefangenen extrahiert werden, drohnengestützten Raketeneinsätzen und Spezialkräfte-Operationen sowie der ökonomischen Manipulation mit Bombenangriffen hat den klassischen Frontalkrieg mit dem massiven Einsatz von Bodentruppen faktisch bereits abgelöst.

Im »U.S. Army Concept for Cyberspace and Electronic Warfare Operations« aus dem Jahr 2018 wird dieses Zusammenwachsen von militärischen und geheimdienstlichen Mitteln als explizite Strategie vorgeschlagen. Die elektronischen Möglichkeiten, auch in Offensivoperationen, sollen künftig noch stärker und in allen militärischen Feldern miteinander verwachsen.

Cyberoperationen fügen sich also nahtlos in diesen schmutzigen, nicht deklarierten Konfliktmodus ein. Sie haben den Vorteil, im Zweifelsfall die eigene Schuld abstreiten zu können, und ermöglichen Attacken gegen zivile Infrastruktur, die schwer von technischem Versagen zu unterscheiden sind. Informationen, die aus gehackten Netzen und Geräten extrahiert wurden, lassen nicht nur die exakte Ortung von Angriffszielen, etwa für Drohnen, zu, sie sind auch ideales Futter für Desinformations- und Diskreditierungskampagnen.

Das grundlegende Problem dieser Art der Kriegführung ist, dass das wichtigste Element jeder militärischen Strategie verloren geht: ein klares Ziel der Operation. In der Regel gibt es kein definiertes Ende, keinen Friedensschluss, keine Nachkriegsordnung, keine Kodifizierung der entstandenen Machtverschiebungen. Oft genug werden Operationen auch nur durchgeführt, um die Konsequenzen und Nebenwirkungen vorangegangener Einsätze zu adressieren. Das funktioniert ähnlich wie bei der Mafia: Sobald ein Mord angeordnet und durchgeführt wird, zieht das eine endlose Kette von Folgen nach sich: Vertuschung, Ruhigstellung von Zeugen und Mitwissern, Bestechung oder Erpressung von Ermittlungsbeamten und Blutrache. Denn einen Konflikt anzufangen ist bekanntlich sehr viel einfacher, als ihn zu beenden.

Es gibt keine Cyberabschreckung

Diese unerklärten, irregulären Kriege sind das tatsächliche strategische Paradigma für Cyberkonflikte. Mit der statischen, überschaubaren Welt der nuklearen Abschreckung, von deren Wiederbelebung etliche Strategen, insbesondere aus den Vereinigten Staaten, träumen, hat die Kriegführung im Cyberspace nur wenig gemein. »Frieden durch überlegene Feuerkraft«, so lautet das inoffizielle Motto des US-Militärs. Was für die Vereinigten Staaten im Bereich der konventionellen und nuklearen Waffen lange gut funktioniert hat, soll auch im Cyberbereich gelten. Wenn man nur genügend übermächtige Offensivkapazitäten hat, so die These, werde es sich der Feind zweimal überlegen, bevor er einen Angriff wagt.

Vor diesem Hintergrund kann man auch die faktische Bestätigung der US-amerikanischen Regierung interpretieren, dass der Stuxnet-Angriff gegen den Iran unter anderem von den Vereinigten Staaten ausging. Stuxnet, die hoch entwickelte mehrstufige Angriffssoftware, die im Jahr 2010 entdeckt worden war, sollte ein Industriesteuerungssystem der Firma Siemens sabotieren und dadurch die iranische Urananreicherung behindern. Jahre später räumte der damalige US-Präsident Barack Obama indirekt ein, dass der Angriff eine gemeinsame Geheimdienstoperation seines Landes mit Israel gewesen war. Ein Bericht der »New York Times« hatte zuvor die amerikanische Regierung als Auftraggeber der Stuxnet-Waffe offengelegt. Er blieb unwidersprochen.

Ein Kernproblem der Abschreckungstheorie ist, dass die offensiven Digitalkapazitäten und -fähigkeiten dem Gegner zwangsläufig unbekannt sind. Anders als noch im Kalten Krieg, können dem Gegner im digitalen Bereich nicht einfach die eigenen Waffen vorgeführt werden. Für die atomare Abschreckung war die erfolgreiche Demonstration einer funktionsfähigen Nuklearwaffe eine Grundvoraussetzung. Das Cyber-Äquivalent eines Atombombentests, so die Logik der Cyber-Abschreckungstheoretiker, müsste die gleiche Wirkung auf potenzielle Gegner haben.

Stuxnet war eine technisch und organisatorisch beeindruckende, zuvor noch nicht gesehene Demonstration von fortgeschrittenen digitalen Offensivfähigkeiten. Nachdem der Angriff ohnehin enttarnt worden war, lohnte es aus strategischer Perspektive durchaus, erst durch Gerüchte und später durch ausbleibende Dementis zuzugeben, dass die Vereinigten Staaten und Israel dahintersteckten. Erst mit dieser Attribuierung wurde Stuxnet rückblickend zu einem Wendepunkt in der Geschichte digitaler Angriffe. Dass mit der Schadsoftware eine Industrieanlage erfolgreich zerstört werden konnte, bewies die reale physische Gefahr, die von Cyberwaffen ausgehen kann.

labyrinthisch
  CC-BY 2.0 chrstphre

Stuxnet war de facto ein Blick in den Waffenschrank, das neuzeitliche Äquivalent zu einem Atomwaffentest oder zum Auffahren einer neuen Interkontinentalrakete auf einer Militärparade. Jeder Gegner konnte sehen, in welche Liga die US-amerikanischen Cyberfähigkeiten aufgestiegen sind, mit welch enormem Aufwand, mit welchem Nachdruck und welch hoher Komplexität der Angriff betrieben wurde – und wie erfolgreich er letztlich war. In der Theorie der Cyberabschreckung hätte das dazu führen sollen, dass niemand es wagen würde, US-Interessen mit digitalen Waffen zu attackieren. Doch in der Praxis bewirkte Stuxnet genau das Gegenteil.

Es geschah, wovor weitsichtigere Beobachter lange gewarnt hatten: Stuxnet wurde allgemein als Signal interpretiert, dass es jetzt üblich, angemessen und akzeptiert sei, mit Cybermitteln verdeckte Angriffe gegen andere Staaten zu führen. Jeder Staat, der zukünftig noch im geostrategischen Poker mitspielen will, hat den Eindruck gewonnen, eigene Offensivkapazitäten aufbauen zu müssen. Die Abschreckungstheorie ist ad absurdum geführt.

Abschreckung bedeutet im Kern, dass das Wissen um die Gegenschlagsfähigkeit eines Kontrahenten einen selbst davon abhält loszuschlagen. Wenn man nun aber nicht weiß, woher ein Angriff kam oder dies nur anhand von Indizien vermuten kann, ist die Wahrscheinlichkeit hoch, dass ein Gegenschlag den Falschen trifft und damit nicht nur gänzlich ins Leere geht, sondern schlimmstenfalls einen weiteren Gegner auf den Plan ruft, der sich als bislang Unbeteiligter nun provoziert fühlt. Und sobald ein Angreifer damit rechnen kann, dass er unerkannt bleibt – insbesondere, wenn er falsche Fährten legt –, wird er sich schwerlich von noch so grandiosen Offensivkapazitäten abschrecken lassen.

Interessanterweise wird genau dieses Problem von den Geheimdiensten als Argument benutzt, ihre weltweiten Überwachungssysteme weiter auszubauen. Eine funktionierende Abschreckung oder zumindest qualifizierte Gegenschläge würden erst dann wieder möglich, wenn man das ganze Internet überwachte und so den Ursprung jedes Angriffs nachvollziehen könnte. Der fundamentale Denkfehler dabei ist, dass man selbst dann, wenn man etwa den Server findet, von dem eine Malware per E-Mail versendet worden ist, immer noch nicht sicher weiß, wer diesen Server wirklich kontrolliert. Wer am Ende vor der Tastatur sitzt und in welchem Auftrag und mit welcher Intention er handelt, bleibt unsicher. Ein Angreifer, der die umfänglichen Überwachungskapazitäten natürlich kennt, kann sie umgehen oder benutzen, um falsche Spuren zu legen. Mehrere Jahre voller Veröffentlichungen aus den Geheimdienstdokumenten von Edward Snowden waren auch für all jene augenöffnend, die eine Attribuierung ihrer Angriffe vermeiden wollen. Die Risiken von Cyberangriffen nach Snowden noch als Begründung für mehr Überwachung zu benutzen, ist eine mehr als durchsichtige Ausrede.

Politik, Militär, Geheimdienste: Die schwer überschaubare Gemengelage

Obwohl seit Stuxnet klar ist, dass das Abschreckungsparadigma aus dem Kalten Krieg im Cyberbereich nicht funktioniert, hält insbesondere eine Fraktion der US-Strategen weiter daran fest. Die Realität sieht jedoch längst anders aus: Der »endlose Krieg« mit seinem massiven Einsatz geheimdienstlicher Mittel, seiner Regellosigkeit und der Abwesenheit eines klar definierten strategischen Ziels bestimmt die Auseinandersetzung zwischen den Mächten.

Militärisches Denken dreht sich um sogenannte Doktrinen und Einsatzregeln. Darin ist niedergelegt, wie Operationen durchgeführt werden, unter welchen Umständen welche Mittel eingesetzt werden dürfen, wie die Zusammenarbeit der verschiedenen Teilstreitkräfte auszusehen hat und welche Kollateralschäden riskiert werden können. Üblicherweise werden einige Punkte solcher Doktrinen öffentlich gemacht, auch um potenzielle Gegner wissen zu lassen, welche roten Linien sie besser nicht überschreiten sollten. Öffentliche und tatsächliche Doktrinen unterscheiden sich natürlich, man will schließlich nicht alle Karten auf den Tisch legen.

Im Cyberbereich sind solche Regeln nicht so einfach zu formulieren. Auch weil derzeit eigentlich niemand bereit ist, sich an irgendwelche Regeln zu halten. In der NATO läuft schon seit Jahren ein Diskussionsprozess unter dem Namen »Tallinn Manual«, bei dem versucht wird, die verschiedenen praktischen und völkerrechtlichen Aspekte des Cyberkriegs definitorisch zu erfassen, um die Grundlage für eine »Cyber-Doktrin« zu schaffen. Dabei hat sich jedoch herausgestellt, dass bei zentralen Fragen nicht nur die Meinungen der NATO-Partner weit auseinanderklaffen, sondern dass auch innerhalb der Mitgliedsstaaten die Interessenkonflikte zwischen Politik, Militär und Geheimdiensten zu einer schwer überschaubaren Gemengelage führen.

Ein einfaches Beispiel für diese andauernde Diskussion ist die Frage, ob Zugänge in den Systemen eines potentiellen Gegners, die von einem Geheimdienst für Spionagezwecke erhackt worden sind, im Falle einer Auseinandersetzung vom Militär genutzt werden können, um aktive Schadensoperationen durchzuführen. In den Vereinigten Staaten wurde nach einigem Hin und Her versucht, dieses Problem durch die Etablierung des US Cyber Command zu lösen, einer Zwitterkonstruktion aus NSA und Militär. Der Chef der NSA ist gleichzeitig auch der Chef der militärischen Cyber-Teilstreitkraft mit Weisungsbefugnis für beide Bereiche. Dies zementiert de facto die seit Längerem festzustellende Vergeheimdienstlichung von Konflikten auch auf organisatorischer Ebene: Die Trennung zwischen Informationsbeschaffung durch die Geheimdienste einerseits und Angriffe oder Schadenserzeugung durch das Militär andererseits ist nicht mehr nur fließend, sondern faktisch aufgehoben.

labyrinth
  CC-BY 2.0 chrstphre

Die Taktik, sich prophylaktisch Zugänge in die Systeme potentieller Gegner zu verschaffen, ob nun durch Hintertüren oder durch Hacking-Operationen, ist ein wichtiger Baustein in den strategischen Überlegungen der einzelnen Akteure. Im Jargon der Cyberkrieger heißt das »Positionen einnehmen«. Je gründlicher die Netze und Geräte eines potentiellen Gegners infiltriert sind, je umfangreicher die Sektoren von Wirtschaft und Gesellschaft sind, in denen man im Ernstfall erhebliche Schäden anrichten kann, desto stärker ist die eigene Position.

Das Problem dabei: Man kann seine Positionen natürlich nicht zu Abschreckungszwecken offenlegen, nicht einmal abstrakt. Wenn der Gegner weiß, wo er ungefähr suchen muss, wird er die Malware auch finden und entfernen. Jede Verwendung von Angriffswerkzeugen, jedes Ausnutzen einer »Position« birgt das Risiko der Entdeckung. Deshalb konzentrieren sich viele Militärs außerhalb von aktiven Kriegsgebieten – in denen andere Prinzipien gelten – vor allem darauf, ein möglichst aktuelles und detailliertes Bild von den Netzen und den verwendeten Komponenten und Softwareversionen in den IT-Systemen des Gegners zu haben. Ausgehend von diesen Informationen aktualisieren sie dann fortlaufend ihren Bestand an Angriffswerkzeugen, um im Ernstfall rasch und effektiv zuschlagen zu können.

Die Geheimdienste spielen ein deutlich opportunistischeres Spiel. Ihre primären Ziele sind die Beschaffung von Informationen und die Beeinflussung des Gegners. Dazu versuchen sie, in möglichst viele Systeme einzudringen, die direkt oder indirekt nützlich sind oder werden könnten. Welche das genau sind, hängt von den politischen Aufgabenstellungen der Geheimdienste ab, aber auch davon, welche Angriffswerkzeuge ihnen zur Verfügung stehen. Wenn man gerade einen schönen, gut funktionierenden Exploit gegen ein beliebtes Betriebssystem hat, kann man ihn ja auch verwenden, um schon mal prophylaktisch »Positionen einzunehmen«. Vielleicht werden die sich dann bei späteren Operationen als nützlich erweisen.

cyberwar-over
Constanze Kurz und Frank Rieger: „Cyberwar. Die Gefahr aus dem Netz“, C. Bertelsmann, 2018.

Dabei kommt es unweigerlich zu tiefen Expeditionen ins Spiegelkabinett der Ungewissheit. Nicht selten stellt sich heraus, dass auf einem gerade erst gehackten System schon eine andere Gruppe aktiv ist. Dabei kann es sich um einen APT-Trojaner von kriminellen Gruppen, um einen befreundeten oder gegnerischen Geheimdienst oder sogar um eine andere Abteilung des eigenen Dienstes handeln. Bei der Analyse der im Rahmen des »ShadowBrokers«-Leaks veröffentlichten NSA-Einbruchswerkzeuge fand sich unter anderem ein Werkzeug namens »Territorial Dispute« (»Gebietsstreitigkeit«). Der Name des Programms ist nicht etwa ein misslungener Sprachwitz von Geheimdienstlern, sondern die traurige Realität in den Gefilden des Cyberwar.

»Territorial Dispute« sucht auf dem System, in das man eingebrochen ist, nach Anzeichen für andere ungebetene Gäste. Wenn solche Indikatoren gefunden werden, gibt das Programm dem NSA-Operator Hinweise, was zu tun ist. Diese reichen von »Sofort zurückziehen« über »Befreundeter Dienst« bis zu »Sofort Hilfe holen«, also jemanden hinzuziehen, der nicht nur Anwender der Einbruchswerkzeuge ist, sondern sich wirklich damit auskennt. Der Grund für diese Hinweise ist klar: Man will vermeiden, dass eigene oder befreundete Operationen gestört werden oder dass die wertvollen Angriffswerkzeuge in die Hände eines anderen Akteurs fallen.

Interessant dabei ist, dass die NSA offenbar über Kenntnisse zu APT-Trojanern verfügt, die deutlich über das öffentlich bekannte Wissen hinausgehen. Die überprüften »Indicators of Compromise« (Indikatoren für ein kompromittiertes System, kurz IoC) – etwa das Vorhandensein von Dateien mit bestimmten Namen, die charakteristisch für eine spezifische Malware sind – wurden absichtlich eher simpel gehalten, um auch gegenüber den eigenen Leuten, die »Territorial Dispute« verwenden, nicht allzu viel von diesem Wissen preiszugeben.

Die Analyse der Software zeigt zum einen, dass die NSA eine strenge Informationshierarchie betreibt. Sogar die Operatoren, die Angriffe mit Hilfe der Einbruchswerkzeugkästen durchführen, sollen möglichst wenig Details kennen. Zum anderen wird klar, dass man unter allen Umständen vermeiden will, dass eigene Operationen entdeckt werden. Die Geheimdienste verzichten lieber darauf, ein interessantes System unter ihre Kontrolle zu bringen, als aufzufliegen und dabei dem Gegner zu offenbaren, wie man vorgeht. Denn dadurch könnten sie deutlich mehr Positionen verlieren.

Natürlich werden die Gegner der NSA nun das Wissen über »Territorial Dispute« benutzen, um das System auszutricksen. Durch die Simulation von Indikatoren, auf die »Territorial Dispute« reagiert, etwa spezifische Dateinamen auf möglicherweise interessanten Systemen, kann einerseits Fehlalarm ausgelöst und damit der NSA-Operator zum Rückzug bewegt werden. Andererseits kann durch Veränderung von bekannten Malware-Dateinamen die Entdeckung vermieden werden. Die NSA wiederum wird eine neue Version von »Territorial Dispute« entwickeln, die andere Indikatoren benutzt, um nicht an der Nase herumgeführt zu werden. So dreht sich das Rad immer weiter, immer schneller.

Dieser kleine Einblick in die Cyberscharmützel, die bereits heute stattfinden, ohne dass man darüber viel erfährt, macht deutlich, wie komplex und unvorhersehbar die Gemengelage geworden ist. Auf solch einer schwankenden Basis eine rationale Strategie für digitale Offensivoperationen zu entwickeln, ist sehr schwierig bis unmöglich. Schon weil die Unterscheidung von Freund und Feind nicht immer eindeutig ist: etwa wenn die NSA befreundete Länder infiltriert oder eine deutsche Behörde bei den Amerikanern nachfragt, ob sie eine bestimmte Malware kennen, ohne zu ahnen, dass diese eigentlich von der NSA oder CIA selbst stammt.

21 Kommentare
      1. Ich bin immer noch der Ansicht, daß man als erstes den andauernden NATO-Bündnisfall von 2001 politisch bekämpfen sollte. Der gehört aufgehoben. Fällt der erst mal als Grundlage weg, dann wird die rechtliche Luft m.E. recht schnell dünn für die Schnüffler, was deren Rückzug aus einigen Bereichen anstossen dürfte.

        Zumindest müssten die Regierenden in diesem Falle unangenehme Fragen beantworten wie „Wozu brauchen wir das, warum kann das nicht weg?“ Da käme gewiss einiges an mehr Licht.

        1. Bringt nur recht wenig. In Frankreich und Belgien ist der T-Fall zum Beispiel zur andauernden Realität geworden und die Notstandsgesetze wurden zum Dauerzustand.

          1. Bisher herrscht bei uns ja eher der „geheime Notstand“, aber ohne Rechtsgrundlage macht der Deutsche Beamte ja nichts, mit hingegen alles, und dann gnadenlos. Sie müssen sich also eine weltraumtheoretische Rechtsgrundlage für verschärfte Schnüffelei zurechtgelegt haben und ausser „spezielle Spannungsfallvorstufe wegen Bündnisfall“ sehe ich da keine, die die ganzen Ausnahmen von alten Regeln wenigstens theoretisch legitimieren könnte.

            Ich glaube die notwendige echte Debatte in der Wählerschaft gibt es erst, wenn man die Regierung zum offen erklärten Notstand nötigt. Bis dahin schläft das Wahl-Schaf mehrheitlich brav.

  1. Stuxnet kam per USB und solche Extras wie Frau Kanzlerins Regin wohl auch. Die wichtigen Netze dürften aus dem Internet nicht erreichbar sein. Ohne physische Spione, Saboteure und Diversanten läuft da garnichts.

    Das Haupteinsatzfeld der staatlichen Cyberganoven wird mit Lügen und Propaganda hinreichend beschrieben. Dazu sind sie auf „(a)soziale“ Medien angewiesen. Der Wilde Westen des Internets und noch mehr des mobilen Internets hat die Welt nicht besser oder friedlicher gemacht. Wenn die Leute das so wollen, ist es in Ordnung, aber wer so etwas nutzt, hat kein Recht sich über die Folgen wie Vorratsdatenspeicherung, Viren, Würmer und Trojaner zu beschweren. Jeder weiß, dass ein Smartphone eine Wanze IST und jeder weiß, dass Windows10 ein Trojaner IST. Daran kann man nichts ändern, also sollte man, falls man seine Privatsphäre schätzt, auf solche „Technologien“ nach Möglichkeit verzichten.

    Der Skandal ist eher, dass solche Technologien überhaupt verkauft werden dürfen. Warum? Weil unsere Luschen keine Alternativen zu bieten haben.

        1. @marc
          Was mir an buch7.de nicht gefällt ist, dass die dort massenhaft sinnlosen Papierkram lagern. Das verschwendet einerseits möglichen Wohnraum und anderseits stellt das eine Anfrage nach abholzung der Wälder dar. In den Räumlichkeiten wo jetzt tonennweise abgeholze Bäume mit umweltschädlichen Toner beschrmiert rumliegen könnten auch einfach super günstig Menschen wohnen. Hätte einen deutlich höheren Sinn. Dann würde auch oben rechts „… mit der sozialen Seite“ auch wirklich stimmen. Es ist meiner Meinung nach eindeutig asozial Bäume abholzen zu lassen und anschließend überwiegend Diesel-Lieferfahrzeuge (NOx+CO2 uvm) mit der Lieferung von diesen abgeholzten Bäumen zu beauftragen und dann Menschen unwürdig bezahlen dies einem vorbei zu bringen.
          NICHTS spricht für sinnlos abgeholzte und mit umweltschädlichen Toner beschmierten Bäumen!

          1. „NICHTS spricht für sinnlos abgeholzte und mit umweltschädlichen Toner beschmierten Bäumen!“

            Weniger bit rot, siehe antike Schriftrollen.

  2. @Grauhut
    Siehe eingestürztes Stadtarchiv in Köln. Hätte man es rechtzeitig digitalisiert und den sinnlosen Papierkram umweltschonend recycelt, wäre kein Wissen der Menschheit verloren gegangen. Alles älter als 70 Jahren gehört in ein Wissensarchiv ins Internet auf welches jede Person der Welt zugreifen kann und welches auch als .onion Link verfügbar ist, damit miese Menschen wie z.B. Recep Tayyip Erdoğan, Kim Jong-un oder der Winnie-the-Pooh von China, Xi Jinping, den Zugang zu dieses Weltwissen nicht sperren können.
    PS: Antike Schriftrollen gehören ebenfalls digitalisiert und ins Netz gestellt. Anschließend kann man die höchstbietend verkaufen an irgendwelche Menschen, die der Meinung sind sich weshab auch immer solch ein Kram zuhause hinstellen zu müssen. Die Versteigerungserlöse sollten in weitere Aufbereitung des Weltwissens gesteckt werden. Wichtig ist, dass einmal digital aufbereitet und einmal digital in rohform alles zur Verfügung gestellt wird.

    1. Hm, könntest Du bei der Gelegenheit ein funktionierendes Verfahren zur Langzeitarchivierung von Digitalisaten nennen? Siebzig Jahre würden erstmal reichen. *hust*

      1. @constanze

        Ja, klar. Rohdaten einfach nur RAW und kommen aus dem Digitalisierungsgerät völlig unverarbeitet. Das hat kein wirkliches Format sondern dient dazu, damit Leute ggf die Daten anders verarbeiten können.

        Die aufbereitete Daten sind PDF-A Dateien. Heißt also ein Format welches ISO genormt und offen ist und explizit für Archivierung gemacht wurde: https://de.m.wikipedia.org/wiki/PDF/A

        PDF-A ermöglicht es selbst heutigen Suchmaschinen die Dateien durch zu gehen und zu erkennen was sich darin befindet um es vernünftig zu indexieren und durchsuchbar zu machen.
        Das wäre um so viele Ebenen nutzbarer für die Gesellschaft wenn diese eine Suchmaschine derer Wahl anwerfen könnte und 500Jahre alte Dokumente damit durchsuchen könnte. In der aufbereiteten PDF-A Datei kann man auch so etwas wie eine Übersetzung von „alter Sprache in neuer Sprache“ machen damit man mit aktueller Sprache auch auf die 500Jahre alten Informationen kommt.

        1. Mir ging es nicht um das Format, mir ging es um die Langzeitarchivierung der digitalen Daten. Wie wolltest Du denn die PDF-A-Daten speichern, also für Deine Urenkel jetzt?

          1. Mit einem Laser Morsecode in ein Edelstahlblech brennen? :)

            Spass beiseite, Glas Master aus der Bluray Produktion z.B. dürften „relativ ewig“ haltbar sein.
            Präzise gegossenes Glas ist allerdings kein Massenprodukt.

        2. @constanze
          Ach, das ist super einfach. Dachte nicht, dass die Frage darauf bezogen wäre. Wenn man jetzt eine Sache speichern möchte die man für den Rest seines Lebens nicht mehr anfassen möchte, dann nimmt man z.B. eine M-Disk https://en.wikipedia.org/wiki/M-DISC . Die Technologie gibt es seit über 8 Jahren. Ein Rohling dafür kostet als 4,7GB DVD ca 2€ ( https://geizhals.de/?cat=dvdmed&xf=556_M-DISC&sort=r#productlist ) und als 25GB Blu-ray 3€ ( https://geizhals.de/?cat=blumedbdr&sort=r&xf=556_M-DISC%7E556_M-DISC+DL ).

          Ich handhabe es anders und werde gegen mein Lebensende das Passwort meines LUKS-Containers (regelmäßige Backups werden sowieso gemacht, brauche da kein Speichermedium welches jahrzehnte hält, wenn ich das Speichermedium sowieso mehrfach im Monat vollständig neu beschrieben habe) ggf. an den richtigen Menschen mitteilen damit dieser Mensch alle gesellschaftlich relevanten Sachen daraus an die Gesellschaft veröffentlicht. Ich muss mich dann nämlich nicht mehr um mein Datenschutz kümmern.

          1. Ich seh schon, unter Langzeitarchivierung verstehen wir beide sehr unterschiedliche Dinge. Aber ich hoffe mal, Du lagerst Deine DVDs adäquat für Deine Urenkel und machst genaue Angaben zum Auslesen des stetig verlustfrei umgespeicherten Containers. (vielleicht besser auf Papier dann :)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.