Wissen

„Oh-oh-XML“ – Digitale Zeitbombe in deutschen Amtsstuben

ODF-78c8e0a8f69c7b2cDieser Beitrag ist eine Ergänzung zu Matthias‘ Zusammenfassung der LiMux-Debatte in der Stadt München, die mit dem Aufruf endet, dass Bund und Länder Offene Standards unterstützen müssen.


netzpolitik.org - ermöglicht durch Dich.

In der Tat hinkt die deutsche Verwaltungslandschaft Belgien, Frankreich, Großbritannien, Italien, den Niederlanden und Schweden hinterher. Dieser Beitrag erläutert, weshalb das Ignorieren Offener Standards im Bereich der Dokumentenverarbeitung in der Öffentlichen Verwaltung ein strategisches Versäumnis ist, welches zu Datenverlusten, Fehlern in Dokumenten und damit echten finanziellen Schäden führen wird. Es besteht dringender Handlungsbedarf.

Was ist das Problem?

Bei Dokumenten kann die Verwaltung aus zwei Formatstandards wählen: Der eine, OpenDocumentFormat („ODF“, genormt als ISO/IEC 26300) ist ein sog. „Offener Standard“: herstellerneutral, rechtlich und technisch offen zugänglich und öffentlich erarbeitet. ODF ist über mehrere Jahre und Versionen abwärtskompatibel und wird von vielen Office-Programmen unterstützt. Der andere, Office Open XML („OOXML“, genormt als ISO/IEC 29500) wurde von einem Hersteller (Microsoft) entwickelt, ist nicht vollständig offen im o.g. Sinne und wurde insgesamt in drei Varianten spezifiziert: „ECMA“ (nach der Standardisierungsorganisation, die diese Version akzeptierte; ISO lehnte sie wegen Intransparenz ab), „Transitional“ und „Strict“.

Diese drei Varianten von OOXML sind untereinander nicht kompatibel! Der Hersteller hat zwar ECMA und Transitional als obsolet und Strict als aktuelle Version benannt, aber natürlich besitzen alle Verwaltungen, die seit 2007 MS-Office Produkte einsetzen (also alle Verwaltungen in Deutschland), Dokumente in verschiedenen MS-Office Versionen. Das Problem: „Strict“ ist nicht abwärtskompatibel, ältere Versionen von MS-Office können es weder lesen noch schreiben. Das wird auch nichts mehr, denn MS-Office 2007 ist nicht mehr erhältlich und wird auch nicht mehr vom Hersteller unterstützt. Seit damals enden alle MS-Office-Dateien mit dem berühmten „x“ – docx/xlsx/pptx. Der Anwender kann an der Endung also nicht ablesen, welche Formatversion er tatsächlich verwendet, was die Inkompatibilität so gefährlich macht. Als Richtschnur gilt:

  • Office 2007 liest und schreibt in „ECMA“
  • Office 2010 und neuer schreiben „Transitional“
  • Office 2013 liest und schreibt – nicht „Strict“, jedenfalls nicht gemäß ISO/IEC 29500

Michael Meeks, einer der Kernentwickler der Open Source Office-Suite „LibreOffice„, ist davon überzeugt, dass niemand ISO OOXML Strict in der freien Wildbahn verwendet: „Wenn eine Firma oder Verwaltung verschiedene Versionen von MS Office einsetzt, incl. Office 2007 oder 2010, dann erfüllen Dokumente, die von mehreren Leuten ausgetauscht wurden, die strikte Variante von OOXML, wie in ISO/IEC 29500 vorgeschrieben, nicht.“ Dieses Zitat und alle weiteren stammen aus einem ausführlichen, technisch tief gehenden Artikel von Markus Feilner, stellv. Chefredakteur des deutschen Linux-Magazins, der im Juni 2014 für das EU-Portal Joinup, den Zoo an OOXML-Varianten analysierte und mit Experten wie Michael Meeks und anderen sprach. Mit anderen Worten: Es gibt zwar einen von der ISO genormten Dokumentenstandard, der OOXML Strict heißt, aber es existiert keine Software, die dieses Format strikt nach Vorgaben verarbeiten kann – auch nicht vom Hersteller selbst.

Diese Inkonsistenzen führen zu vielfältigsten Problemen, u.a. Verlust an Metadaten, Fehlern in Grafiken und eingebetteten Objekten, proprietären Komponenten in einem „offenen“ Standards, usw. Es ist in der Tat so komplex, dass Open Source Projekte mit enormen Schwierigkeiten zu kämpfen haben, um Filter zu schreiben, die alle Versionen von MS-Office-Dokumenten verarbeiten können. Die schlichte Nichtexistenz einer MS-Office Version, die alle Formatvarianten lesen und schreiben kann, spricht Bände. Björn Lundell, der als Informatikprofessor an der Universität Skövde (Schweden) zu Kompatibilität und Standards bei Office-Programmen forscht, sagt: „Wenn ein Anwender eine Datei in Office 2007 erstellt und in Transitional docx speichert, sollten andere sie in Office 2013 öffnen können und in Strict docx erneut abspeichern, bevor sie schließlich in Office 2010 geöffnet wird. Sie würden sich wundern, was tatsächlich dabei herauskommt.“ (Die geneigte Amtsstube, die über alle drei Versionen verfügt, möge doch den Versuch replizieren und in den Kommentaren berichten, wie es ihr ergangen ist, danke!)

Wie konnte das passieren?

Als klar wurde, dass ein Dokumentenformat, welches nicht aus dem eigenen Haus kam – das offen spezifizierte ODF – Ende 2006 die Zertifizierung als ISO-Standard erhalten würde, musste Microsoft handeln, denn vorhandene ISO-Standards werden häufig als Kriterium bei öffentlichen Ausschreibungen verlangt. Man sah sich der Gefahr gegenüber, mit einem nicht-ISO-zertifizierten Produkt in dem riesigen Geschäftsbereich Public Sector ins Hintertreffen zu geraten. In sehr kurzer Zeit entwickelte der Hersteller also XML-Versionen seiner proprietären Dokumentenformate und ließ sie von der gleichnamigen Organisation als ECMA-Standard durchwinken. Dieselbe Version wurde jedoch von der ISO abgelehnt: Es seien zuviele nicht nachvollziehbare, proprietäre Elemente darin, die zudem häufig direkte Abhängigkeiten zu einzelnen MS-Office-Produkten darstellten. Die ISO-Arbeitsgruppe kam zum Schluß, dass niemand außer dem Hersteller selbst den Standard implementieren können würde – was genau nicht die Idee eines Standards ist.

Nach einem umstrittenen Prozess wurde OOXML Strict von ISO als beabsichtigter Standard definiert. Ohne diesen Kompromiss wäre der Standardisierungsprozess bereits dann zu einem Halt gekommen. ISO erlaubte in einem außergewöhnlichen Schritt sogar eine Variante, wodurch der ISO/IEC 29500 Standard schließlich aus zwei Varianten bestand: ISO/IEC 29500 Strict and Transitional. Transitional für den ÜBergang, um später Strict als beabsichtigten Standard zu erhalten. Um allein die Unterschiede zwischen beiden Varianten zu beschreiben waren 1500 Seiten technische Dokumentation notwendig, doppelt so viele wie die komplette ODF-Spezifikation benötigt. Dieser Prozess war sehr umstritten, weil es weltweit aus den nationalen Standardisierungsgremien immer wieder Meldungen von Einflussnahmen des Herstellers auf die ISO Gremien und den Prozess gab. Die englische Wikipedia hat einen eigenen Artikel dazu.

Die Zeitbombe tickt …

Das Verhalten des Herstellers, um für OOXML ebenfalls einen ISO-Stempel zu erhalten, hat zu einer Situation geführt, in der das fehler- und verlustfreie Speichern und Verarbeiten von Dokumenten über verschiedene Generationen derselben Produktfamilie nicht mehr garantiert ist. Wie groß ist das Problem? Eine sehr grobe Schätzung lässt die Dimensionen erahnen: Die Öffentliche Verwaltung hat rund 4.2 Mio Mitarbeiter (Wikipedia). Angenommen 80% davon arbeiten mit MS-Office und erstellen durchschnittlich ein Dokument pro Arbeitswoche. Das sind bei konservativ angenommenen 40 Arbeitswochen rund 135 Millionen Dokumente jährlich. Die erste Version von MS-Office erschien vor 26 Jahren. Ganz grob sprechen wir also von einem Bestand von ungefähr 3.5 Milliarden Dokumenten, die in irgendeiner MS-Office Version vorliegen und, den gesetzlichen Vorgaben der Verwaltung folgend, archiviert und über Jahrzehnte zugreifbar sein müssen.

Was für den einzelnen Anwender Kopfzerbrechen und Zeitverlust bedeutet, mutiert in diesem Szenario zu einem echten Risiko. Welche Stadtkämmerei kann in solch einem Umfeld dem Budget-Spreadsheet von 2007 noch trauen, wenn es nicht mehr mit Office 2007 geöffnet wird, weil Microsoft den Support eingestellt hat? Wer kann der Verwaltung Garantien geben, wenn es auch der Hersteller nicht tut, z.B. durch eine Office-Version, die alle Formatvarianten sicher und verlustfrei verarbeiten kann? Selbst wenn die Kosten ein Dokument sicher und verlustfrei auf den aktuellen Stand zu bringen nur 1/10 Cent betragen, sind die volkswirtschafltichen Kosten, die der Steuerzahler trägt, enorm. Warum sollte die Kunden diese Kosten tragen, wenn sie sie gar nicht verursacht haben? Und was heißt „aktueller Stand“ – müssen Anwender dafür das neueste MS Office erwerben, welches sich ja gar nicht an den eigenen ISO-Standard hält? Ja, Gates noch, Herr Nadella?

Es gibt dringenden Handlungsbedarf auf allen Ebenen der Verwaltung (und vermutlich in vielen Unternehmen): Die verbindliche Vorgabe eines einzigen offenen Dokumentenstandards ist von fundamentaler Bedeutung für den nationalen Datenaustausch und hat damit höchste Priorität. Während OOXML – ISO-Standard hin oder her – diese Kriterien nicht erfüllt, existiert mit ODF bereits ein offenes Dokumentenformat, dessen Aktualisierung auf Version 1.2 bei ISO noch dieses Jahr erwartet wird. Er ist funktionsfähig, erprobt, vertrauenswürdig und nicht von einem Hersteller abhängig. Dass die europäischen Nachbarn bereits umschwenken, stellt die Frage nach einem EU-weiten einheitlichen offenen Dokumentenstandard in den Raum.

Und München? Mei, man hat sich, quasi als positiven Nebeneffekt der LiMux-Migration dem OOXML Desaster weitgehend entzogen. Aber nicht ganz, weil alle Behörden mit denen München interagieren muss, MS-Office in allerlei Versionen verwenden und selbstverständlich Kompatibilität mit dem Standard verlangen. Dieser Druck muss aufhören! Eine Behörde darf einer anderen nicht vorschreiben, welche Software sie einzusetzen hat, weil sie dadurch Wettbewerbsvorteile auf dem Software-Markt strukturell betoniert und das ist illegal (§1 GWB). Offene Standards befreien Anwender von diesem technischen Druck ein bestimmtes Programm verwenden zu müssen, deshalb muss deren Einhaltung gesetzlich vorgeschrieben werden. Aus Bürger- und Steuerzahlersicht ist es eben nicht Münchens Verantwortung, dass der Datenaustausch mit allen klappt, sondern die Verantwortung aller anderen Behörden. Der IT-PLAN muss etwas TUN.

Es bleibt nur zu hoffen, dass für München’s Oberbürgermeister als „Microsoft-Fan“ auch tatsächlich „das Wohl aller Menschen in München (…) im Mittelpunkt [des] politischen Handelns“ (Antrittsrede) steht.Microsoft ist nicht zimperlich, wenn es um die Erhaltung des Geschäftsmodells und der cash cow darin geht. Es wäre schade, wenn die Gerüchte um den Umzug der Microsoft Zentrale in die Stadt München zutreffen und der neue OB eine ähnliche Rolle spielen würde, wie der ehemalige britische Staatsminister David Willetts, der im Verdacht steht, seine Dienstpflichten verletzt zu haben, indem er Microsoft im Entscheidungsprozess der britischen Regierung, auf ODF zu wechseln, unfair unterstützte.

Werte Politik, tun sie mal etwas Mutiges im Digitalen; nicht so wie hier und schon gar nicht wie hier. Sobald man sich traut, bewegt sich auch etwas: schließlich haben wir uns vor einem Viertelhundert auch dafür entschieden, im Land statt zweien doch nur eine offizielle Fahne – eine Standarte – zu führen.

Der Autor dankt Markus Feilner und Gijs Hillenius für die hilfreichen Kommentare und Markus Beckedahl für die Einladung zu Netzpolitik.

Weitersagen und Unterstützen. Danke!
20 Kommentare
  1. Das scheint mir eher eine positive Meldung! Denn mal ehrlich, wahrscheinlich sind 99,9% der geschätzten 3,5 Mrd. Dokumente nichts als weitgehend sinnfreier, bürokratischer Papierkram. Wenn diese Dokumente schon jetzt oder in Kürze nicht mehr lesbar sind, erübrigt sich auch jede Langzeitarchivierung.
    Denn diese ist im digitalen Zeitalter das wirkliche Problem. Ganz egal mit welcher Software und welchen Formaten Dokumente erstellt wurden, nach längstens 10 Jahren sind die Standards überholt und Abwärtskompatibilität oder Konversion wird immer aufwändiger. Ganz zu schweigen von der Hardware, die sich sogar noch schneller wandelt. Die Halbwertszeit nahezu aller gängigen Speichermedien bemisst sich in Jahren!

    1. Das die Standards überholt sind, spielt doch keine Rolle. Es geht darum die Daten in x Jahren noch lesbar machen zu können und dazu braucht man einen offenen Standard, damit man sich im zweifel die Software zum lesen selber schreiben kann.

      1. Dass das auch tatsächlich mal passiert, kann man beim Avaneya Projekt gut sehen. Dort wurden Bilder einer Marsmission, die in einem unbekanntem, proprietären Format gespeichert wurden erfolgreich wiederhergestellt (das Projekt bietet zur Demonstration die konvertierungssoftware zusammen mit den originaldaten an).

  2. @dirk sehe ich genauso. Wenn um Langzeitarchivierung geht sind ODF und OOXML sowieso uninteressant. Da sind Formate wie PDF/A deutlich interessanter. Nicht alles was eine Verwaltung produziert hat Aufbewahrungszeiten von > 10 Jahren (Datenschutz fordert da häufig eine Vernichtung). Die angesprochene Haushaltsplanung wird im Allgemeinen sowieso als PDF veröffentlicht. Alles andere was länger gespeichert werden muss (z.B. Personenstandswesen), wird entweder in einer proprietären Fachanwendung gemacht (was noch schlimmer ist) oder halt als PDF abgelegt (das machen die Leute schon aus Eigeninteresse) bzw. einige Gesetze fordern auch heute schon bestimmte Formate. http://www.gesetze-im-internet.de/pstv/__9.html

  3. Ich denke dieser Artikel braucht eine knappere Zusammenfassung, so verstehen das nur XML-Experten. Ich versuche es mal:

    Es gibt zwei Standards die eigentlich verlustfreien Austausch von Dokumenten zwischen verschiedenen Softwareware System erlauben soll: ODF (freier Standard) und OOXML („=.docx, .xlsx, .pptx“) (Standard von Microsoft).

    Das Problem ist: ODF ist ein Standard (der durchaus auch Probleme hat), der OOXML-Standard in Office ist aktuell als drei, untereinander nicht verträglichen Varianten implementiert, die die Office-Suiten auch verschieden (je nach Version) speichern (‘ECMA’, ‘Transitional’ and ‘Strict’).

    Das führt dazu jede Software, außer der Ursprungs Microsoft Office Software Version der die Datei erstelle wurde, diese Dokumente eben nicht richtig lesen kann, da sie dazu Annahmen machen muss, die so nicht in der XML-Datei enthalten sind — sondern nur in der jeweiligen Ursprungs-Office Version. Es wird also immer zu kleine und größeren blöden Fehlern führen … wenn nicht ein MS Produkt genutzt wird.

    Dies ist aber entgegen der ursprünglichen Idee offener Standards … die Microsoft gezielt, nach und nach zerlegt hat (siehe auch den Ablauf der OOXML-ISO Zertifizierung).

    Kurz, es wäre weitaus sinnvoller für alle (aus MS) den ODF-Standard verbessern und in öffentlichen Einrichtungen diesen durch die passende Einstellung beim Speichern der Dateien erzwingen. Ähnliche wie heute auch Langzeit PDF/A* erzeugt aus bestimmten Programmen erzeugt werden, was aber eine andere Baustelle ist.

    Verglichen mit den vielen sinnlosen Schnellschussgesetzen in letzter Zeit, wäre eine Vorgabe in dieser Richtung fast schon sinnvoll. Schade nur, dass der Ausdruck „DIN-Norm“ in diesem Zusammenhang nichts mehr bedeutet, das sich das die Einrichtung durch die Annahme des MS-Standards damals selbst disqualifiziert hat.

    Sprecht doch in diesem Zusammenhang auch noch mal DIN (Herr Weisgerber) an, evtl. kann er die damaligen Abläufe „JTC1-Fast-Track“ vs „Inhaltliche Entscheidungen“ noch mal aus seiner Sicht richtig aufklären.

    Zusammenfassend hat MS aber das Ziel erreicht. Es gibt kein Dokumentenaustausch Format. Dies ist aber auch nicht einfach (Rendering vs harte Formatierungen, komplexe Tabellen), aber aktuell gibt es jetzt einfach zwei Standards, die beide nicht wirklich funktionieren, bzw nur für die Software, für die sie eh ursprünglich konzipiert wurden — dieses Ziel wurde also verfehlt, das Lock-in hat sich weiter verfestigt.

  4. Kommentar von einem im öffentlich tätigen Beschäftigten:
    (Annahme: Wenn auf einen offenen Standard gewechselt wird.)
    „Was machen die Personen mit Ihren alten Dokumenten?“ Und:
    „Teilweise wegen den alten Dokumenten musste ich OpenOffice installieren, damit ich diese Dokumente öffnen kann.“

  5. MS und anderen OS-Herstellern geht es schon längst nicht mehr um Datenformate, sondern um Wege, den Datenverkehr möglichst kostenintensiv zu halten. Das wird bei MS durch den Sprung über Windows 8 und Azure schon lange vorbereitet, indem, wie bei Apple zuvor auch, properitäre Programme durch kostenpflichtige, plattformunabhängige Apps ersetzt werden und die Datenablage und deren Transfer durch kostenpflichtige Cloud-Dienste abgelöst werden, die noch dazu die Daten einmal quer durch die Welt schicken – aber wen kümmert das schon, seitdem es alle Wissen und trotzdem der Ohnmacht erliegen.

    Der Endkunde wird seit einigen Jahren stufenweise vom Betriebssystem vollkommen entkoppelt, d.h. er hat keine Kontrolle mehr über native Funktionen wie z.B. den Zugriff auf seine eigene Daten, es sei denn, er speichert diese auf einen mobilen Datenträger – nur wird er durch die beschränkten Export-Funktionen der Apps dort nur die Formate speichern können, die er nicht mehr erneut, ohne weitere Hilfe, ohne zusätzliches Wissen oder kostenpflichtige Apps, verändern kann, also PDF und Bitmaps, oder MP3 und MP4 mit DRM.

    Apple hat diese Wertschöpfungskette schon lange zuvor komplett durch-dekliniert und alle Anderen Hersteller (MS, Samsung, Sony, …) sind dabei dieses Modell zu 100% zu übernehmen – und dabei macht es keinen Unterschied, ob hier freie oder offene Betriebssysteme als Vorlage dienen, denn am Ende taucht immer wieder das gleiche Geschäftsmodell und damit die gleiche, absurde Lösung für eine halbwegs mündigen Nutzer auf, der sogenannte „Jailbreak“.

    Schon allein die Bezeichnung macht aus einem einfachen Konsumenten per se einen Kriminellen. Und nicht nur das – denn Konsument meint hier wirklich, was aus einst mündigen Nutzern geworden ist – ein Service-Empfänger, ein Mensch, der tatsächlich glauben wird, dass er für die Verwaltung und Bereitstellung seiner eigenen Daten bezahlen muss. Ganz besonders wichtig ist dabei die Staffelung nach Datenart, d.h. eigene Filme und Fotos sollten natürlich ganz besonders gesichert werden und benötigen viel Platz, weil die Apps zur Erstellung dieser Inhalte natürlich nicht an die Anforderungen der Nutzer angepasst werden, sondern die Nutzer so erzogen werden sollen, dass diese klaglos den Vorgaben aus dem Geschäftsmodell folgen, d.h. seine selbst erstellten Filme laufen natürlich nicht einfach auf jedem Endgerät eines anderen Herstellers und der Umzug von der eigenen Medienbibliothek in die Cloud eines anderen Anbieters bedarf einer einmaligen Auslösungssumme, denn die Geisel der Neuzeit – und man sieht es heute schon an jeder AGB der Mobilfunkanbieter – das sind unsere eigenen Daten, die wir täglich erzeugen.

    Wir, unsere digitalen Spuren sind damit das Wasser auf den Mühlen der heutigen Geschäftsmodelle, egal ob wir telefonieren, uns informieren, Mitteilungen verschicken oder unsere Gedanken in einem Dokument oder einer Online-Plattform eingeben, wie hier. Wir alle schaffen den Datenberg, den andere täglich versuchen neu zu vergolden, indem sie kategorisieren, bewerten, künstliche Verknappung von Bandbreiten schaffen, sowie sich begrenzte Export- wie Importmöglichkeiten ausdenken und Umsetzen.

    Wer also nicht informiert ist, technisch nicht versiert ist, der landet im Lager der Konsumenten – und wer dort nicht genug Geld hat, der verliert nicht nur das Recht an seinen eigenen Daten, der wird zum digitalen Freiwild, dessen Profil in tausendfacher Nutzung, als Teil einer perfiden Marketingkampagne, auch noch den Rest an Eigenstädigkeit aus den Köpfen der nachwachsenden Generation-Mobil herausklopfen soll, um die Teilung in eine Dreiklassen-Informationsgesellschaft perfekt zu machen: Esel (Platin), Kühe (Premium), Schafe (Eco)

    Es hilft auch nicht wirklich, die alten Geräte wie ein Schatz aus guter alter Zeit festzuhalten, denn irgendwann läuft der Support aus, und die neuen SIM-Karten und ander Schnittstellen wie Video- und Audio-IN verschwinden dann einfach, ganz kalkuliert, aus den Regalen dieser Wertschöpfungskette. Wir brauchen ein Upgrade.

    Was machen wir also – gehen wir mit 51 Jahren wieder an die Uni zurück, holen unseren Ingenieurtitel nach und bauen per Arduino und mithilfe eines 3D-Druckers unser eigenes Handy, unsere eigenen, mobilen, digitalen Werkzeuge, für den täglichen Gebrauch ? Wohl eher nicht.

    Wir sind an der Grenze zwischen der old- und der shared economy angekommen und beide Lager versammeln sich zu einer gigantischen, vollkommen ungleichen Schlacht. Auf der einen Seite die multinationalen Unternehmen mit Ihren strategischen Marschrouten quer durch unsere Wohnzimmer, unsere Privatspäre. Auf der anderen Seite die ständig brodelnde Menge, ungleich aufgestellt, je nach finanzieller und sozialer Lage. Mit dem Hang zum Shitstorm, zu anarchischem Verhalten in der Grauzone der digitalen Kriegsführung, per Ionenkanone, Konsumverweigerung und Google oder WLAN Hacking-Workshops. Nicht zu vergessen die Totalverweigerer sämtlichen Medienkonsums, die schon damals den Buchdruck und das zugehörige Lesen als unanständig empfanden haben, weil, sowas gehört sich eben einfach nicht.

    Und dann sind da ja noch die Politiker, quasi das Bindeglied zwischen Wirtschaft und Gesetzgeber, als Repräsentant des kleinsten gemeinsammen Nenners der gesellschaftliche Kompetenz, soziale und kulturelle Interessen in ein Bruttosozialprodukt umzulenken oder dogmatische Lösungsansetze zu formulieren, denen weder Sinnhaftigkeit noch ein Hauch sozialer Gerechtigkeit anhaftet.

    Da wir alle aber gleich betroffen sind bleibt auch nur eine gleiche Lösung für alle. Jeder einzelne kann sich, im Rahmen seiner Möglichkeiten ‚wehren‘, wenn er negative Erfahrungen macht, wenn er etwas darüber sagen hat, weil er etwas erlebt und durchlebt hat und dadurch eine Entscheidung getroffen hat. Anstatt aus blanker Lese-Faulheit AGBs nicht zu lesen und sich nacher über Abzocke und ‚krumme Touren‘ lautstark zu beschwehren, sollten wir hier genau sein und die Lücken der AGBs offen legen, uns nicht von juristischen Floskeln einschüchtern lassen und jederzeit unsere Rechte kennen, mit denen Andere täglich versuchen unsere zu beschneiden. Ein offenes Netz und offene Standards sind der Grundpfeiler einer freien und informierten und sozial gerechten Gesellschaft, in der Wissen wieder den Wert hat, wie heute nur das Urheberrecht. Denn es gibt kein Recht darauf , einen Gedanken zum ersten mal zu haben, sonst hätten wir uns kulturell niemals entwickelt. Bei Zeiten müssen wir verstehen, dass wir nur gemeinsam eine Chance haben und wir alleine nur solange bequem Leben können, solange andere für uns den Dreck wegräumen und unsere Kriege führen, uns unsere ureigensten Aufgaben abnehmen und wir daher so kraftlos und Ohnmächtig erscheinen, was wir definitiv nicht sind. Für mich ist netzpolitik.org eines dieser herausragenden Beispiele, dass wir noch längst nicht angekommen sind, aber auch noch genug Hoffnung da ist, dass am Ende, wenn auch ganz knapp, der Mensch durch Vernunft glänzt und nicht durch Abwesentheit im Entscheidenden Moment.

    Von Beamten erwarte ich mir an dieser Stelle daher ganz im Besonderen, dass diese Ihrer Pflicht folgen und weiteren Schaden vom Volk abwenden – dass sie nun einmal verwalten – indem sie einfach alles in eine grosse Textdatei als ASCII speichern und per Laser in eine Granistplatte einbrennen. Diese werden dann einmal pro Jahr im Vorgarten des jewiligen Amtssitzes vergraben, um die Archivierung bis in das kommende Jahrtausend zu ermöglichen, denn auch dort werden wir noch in der Lage sein, mit etwas Holzkohle und einem Fetzen Leinen, die Spuren unserer Vergangenheit von einem Stein abzupausen, da bin ich ganz sicher.

  6. Irgendwie sehe ich das Problem gerade nicht ganz. Das wird doch nur dann zum Problem, wenn die Verwaltung verschiedene Office-Pakete verwendet. Wenn es keine Insellösungen gibt, gibt es auch das Problem nicht, oder?

    @Schutzbehauptung: M-Disk geht auch. M-Disk sind besonders beschichtete DVDs, auf denen die Daten (4,7 GB) richtig eingebrannt werden. Haltbarkeit wird vom Hersteller mit 1000 Jahren angegeben. Brennen kann man die M-Disks nur mit speziellen DVD-Brennern z.B. von LG.

  7. Da ist ein Fehler: nicht alle Verwaltungen verwenden MS Office 2007 oder später. Die DRV Bund (und soweit ich weiss auch andere Träger) verwenden hauptsächlich noch MS Office 2003 (noch unter Win XP; bald Win 7).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.