Nach einem Verkehrsunfall oder bei einer gefährlichen Verletzung geht der erste Griff zum Telefon, um die Rettungskräfte zu verständigen. Wer die 112 wählt, setzt eine Rettungskette in Gang: von der Alarmierung über die Erste Hilfe vor Ort bis zum Transport ins Krankenhaus. Nur wenn alle Glieder dieser Kette funktionieren und ineinandergreifen, bekommen Patient:innen die optimale Versorgung.
Gerade in Regionen mit wenigen Krankenhäusern, geringer Bevölkerungsdichte und ländlicher Struktur können die Wege weit und die Unfallstellen abgelegen sein. In der südlichen Lausitz haben sich deshalb Expert:innen zusammengetan, um im Forschungsprojekt „AI Rescue“ zu untersuchen, ob und wie Künstliche Intelligenz helfen kann, die Rettungsmedizin in Deutschland zu verbessern.
Armin Fügenschuh, Professor für Ingenieurmathematik an der Brandenburgischen Technischen Universität Cottbus-Senftenberg (BTU) plant für das Projekt eine Simulation: „Wir wollen die gesamte Rettungskette im Rechner nachbilden, vom Wählen der 112 über die Entscheidung in der Leitstelle und die Behandlungsentscheidung vor Ort bis hin zum Transport in ein Krankenhaus und die Säuberung des Rettungswagens. Wir wollen genau wissen, wie dieses System funktioniert und auch die menschlichen Entscheidungen im Computer abbilden“, erklärt er gegenüber netzpolitik.org.
Dafür brauchen die Forschenden Daten. Doch die sind nicht leicht zu bekommen. Oft werden sie nicht einmal erhoben. Wenn doch, gelten für die sensiblen Gesundheitsdaten strenge Datenschutzbestimmungen. Aber wie lässt sich dieses Problem lösen, dass Forscher wie Armin Fügenschuh diese Daten brauchen, um möglicherweise Leben zu retten, während sie in den falschen Händen großen Schaden anrichten könnten? An Ideen für einen Ausweg aus dem Dilemma mangelt es nicht, doch weit verteilte Zuständigkeiten und mangelndes politisches Bewusstsein erschweren eine Lösung.
Strenger Datenschutz für Gesundheitsdaten
Um mit ihrer Simulation zu zeigen, wo die Rettungskette effizienter gestaltet werden könnten und wo es vielleicht einen weiteren Rettungswagen zur besseren Versorgung braucht, brauchen die Wissenschaftler:innen verschiedene Arten von Daten. „Wir möchten demografische Daten wie Alter, Geschlecht und Einkommen mit Gesundheitsdaten kombinieren. Bei alten Frauen kommen andere Notfälle vor als bei jungen Männern“, erklärt Fügenschuh. „Wenn wir wissen, wo tendenziell mehr alte und wo mehr junge Menschen wohnen, hilft uns das bei der Entscheidung, welches Rettungsmittel wo stehen muss.“ Dazu müsste er wissen, wegen welchem Krankheitsbild welche Menschen wie oft den Rettungswagen rufen.
Es braucht nicht viel Phantasie, um sich auszumalen, wie diese Daten in den falschen Händen zum Problem werden können: Selbst wenn ein Notruf keiner namentlich genannten Person zugeordnet ist, könnte er in Verbindung mit anderen Daten eventuell zurückverfolgt werden. Etwa wenn bekannt wird, dass in einem dünn besiedelten, kleinen Gebiet eine fünfzigjährige Frau wegen einer psychischen Krise den Notruf gewählt hat.
Hass, Hetze und Stigmatisierung bei Krankheiten und Behandlungen
Immer noch können zahlreiche Krankheiten oder Behandlungen zu gesellschaftlicher Ausgrenzung führen. HIV-Infektionen, psychische Erkrankungen, Schwangerschaftsabbrüche – das sind nur drei Beispiele, die mit einem besonders großen Stigma versehen sind. Für die Betroffenen kann es sehr unangenehm oder sogar gefährlich sein, wenn diese Informationen an die Öffentlichkeit gelangen. Personen, die offen mit dem eigenen Schwangerschaftsabbruch umgehen, sehen sich in sozialen Netzwerken beispielsweise oft Hass und Hetze ausgesetzt.
Dass Gesundheitsdaten besonders gut geschützt sein müssen, ist also verständlich. Gleichzeitig können solche Daten für die medizinische Forschung und letztlich das Wohl der Patient:innen sehr wertvoll sein. Denn nur wer weiß, wie das Gesundheitssystem funktioniert, kann es verbessern. In großen Datensätzen können Wissenschaftler:innen unter Umständen nicht nur schon vorhandenes Wissen überprüfen, sondern auch neue Anzeichen für Krankheiten, Nebenwirkungen oder Therapiemöglichkeiten finden und Abläufe im Gesundheitssystem verbessern.
Volle Breitseite gegen den Datenschutz
Der Sachverständigenrat zur Begutachtung der Entwicklungen im Gesundheitswesen hat im März ein Gutachten zur Digitalisierung des Gesundheitswesens vorgelegt [PDF]. Es sollte unter anderem die Frage klären, wie Wissenschaftler:innen Gesundheitsdaten nutzen können.
Im Rat sitzen Expert:innen aus dem medizinischen Bereich, die die Politik bei der Weiterentwicklung des Gesundheitssystems beraten sollen. In der Zusammenfassung des Gutachtens wirkt es, als wäre der Datenschutz schnell als Schuldiger für alle möglichen Miseren ausgemacht und verhindere die Heilung von Krankheiten.
Der Rat möchte das Recht auf informationelle Selbstbestimmung neu verstanden wissen, heißt es da. Nicht nur als Abwehrrecht, das Bürger:innen gegen den Staat zugestanden wird, sondern auch als Recht auf Verarbeitung der eigenen Daten und der Daten anderer.
Der Eindruck aus der Zusammenfassung ist bedauerlich, besonders weil der Rat im Verlauf des Gutachtens praktikable Vorschläge aus der medizinischen Forschung und von Datenschutzseite in seine Bewertung einfließen lässt. Es zeigt sich: Datenschutz und medizinische Forschung schließen sich nicht aus. Man kann der Forschung Daten zur Verfügung stellen und gleichzeitig die Risiken für die Patient:innen so gering wie möglich halten.
Komitees sollen über Datennutzung entscheiden
Dabei könnten etwa sogenannte Use&Access-Komitees (UAC) helfen. Das sind Ausschüsse, in denen sich Vertreter:innen aus Medizin, Forschung, Ethik und Datenschutz zusammenfinden, um für jedes konkrete Forschungsvorhaben zu entscheiden: Welche Daten werden gebraucht? Ist die Forschung ethisch vertretbar? Reichen die Schutzmaßnahmen für die Daten aus? Diese Gremien könnten außerdem zwischen einem möglichen Risiko für Patient:innen und dem potenziellen gesellschaftlichen Nutzen der Forschung abwägen.
Unterstützt wird dieses System unter anderem von Thilo Weichert, dem ehemaligen Datenschutzbeauftragten von Schleswig-Holstein. Er beschäftigt sich schon seit zwanzig Jahren mit Datenschutz im Gesundheitsbereich und hat Anfang des Jahres ein „Plädoyer für ein medizinisches Forschungsgesetz“ veröffentlicht. Die unabhängigen UACs sollen seiner Ansicht nach auch Beschwerden über die Datennutzung nachgehen und die Arbeit der Forschenden kontrollieren.
Außerdem wünscht Weichert sich ein Teilnehmerportal für Patient:innen: „Entscheidungen über Datennutzung im Forschungsbereich müssen wir transparent machen. Die Menschen müssen nachvollziehen können, wer für welches Forschungsvorhaben auf ihre Daten zugegriffen hat.“
Datenschutz ist Bedingung für das Vertrauen der Patient:innen
Bei der Medizininformatik-Initiative (MII) sind UACs an vielen Standorten sogar schon im Einsatz. Die MII will den Datenaustausch und die Aufbereitung von Gesundheitsdaten für die medizinische Forschung fördern und wird vom Bundesforschungsministerium unterstützt. Beteiligt sind bislang alle Universitätskliniken in Deutschland, die – mit Einwilligung der Patient:innen – Daten standortübergreifend verknüpfen und in eine strukturierte Form bringen, damit Wissenschaftler:innen sie bestmöglich und datenschutzgerecht verwenden können.
Angesiedelt ist die Koordinationsstelle der MII bei der Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF), der deutschen Dachorganisation für die medizinische Verbundforschung. Deren Geschäftsführer Sebastian C. Semler betont im Gespräch mit netzpolitik.org, warum Datenschutz im Gesundheitswesen so relevant ist: „Datenschutz ist eine Vorbedingung für das Vertrauen der Patienten in die Datennutzung. Wenn die Patienten kein Vertrauen haben, werden sie der Forschung keine Daten zur Verfügung stellen.“
Abschied von Dogmen des Datenschutzes?
Gleichzeitig fordert der Arzt, bestimmte Aspekte des Datenschutzes neu zu diskutieren: „In einigen gesellschaftlichen Bereichen, zum Beispiel in der Medizin, gibt es laut Umfragen eine hohe Bereitschaft, Daten zu spenden.“ In anderen Bereichen wie bei der Schufa sehe das anders aus. „Eine generische Datenschutzdebatte, die für alle Bereiche auf die gleiche Art und Weise geführt wird, bringt uns nicht weiter“, so Semler.
Dass nach dem Prinzip der Datensparsamkeit so wenig Daten wie möglich erhoben werden, funktioniere für Gesundheitsdaten beispielsweise nicht uneingeschränkt: „Viele Daten einer Patientin sind für deren individuelle Behandlung vielleicht nicht wichtig, könnten aber zusammen mit den Daten anderer Patient:innen der Forschung helfen, die Versorgung zu verbessern, neue Medikamente oder Therapien zu entwickeln.“ Oder, wie beim Projekt AI Rescue in der Lausitz, den Rettungsdienst effizienter machen.
Auch die Anonymisierung, also die Entfernung des Personenbezugs, ist bei Gesundheitsdaten nicht immer sinnvoll. Für viele medizinische Forschungsprojekte ist es nötig, über einen längeren Zeitraum mehrmals Daten derselben Patient:innen zu erheben. Nur so lässt sich erkennen, ob eine Behandlung langfristig hilfreich ist oder gefährliche Nebenwirkungen hat, die erst nach längerer Zeit auftreten. Wären die einzelnen Datenpunkte anonymisiert, könnte man sie den Personen nicht mehr zuordnen und den Verlauf einer Behandlung oder einer Krankheit nicht betrachten. Doch Daten, die man auf reale Personen beziehen kann, sind natürlich wiederum ein größeres Risiko für die Patient:innen.
Föderalistisches Chaos bei Datenschutz- und Krankenhausgesetzen
Entscheidend ist Semler zufolge auch der Moment, in dem Patient:innen entscheiden, ob sie ihre Daten zur Verfügung stellen wollen: „Wenn eine Person, womöglich sogar über die Notaufnahme, stationär in einem Krankenhaus aufgenommen wird, ist das ein belastender Prozess für die Person selbst, aber auch für das Personal. Entscheidungen fallen da oft unter Zeitdruck und ich möchte niemandem zumuten, dann auch noch ein Gespräch über die rechtlichen Grundlagen und Folgen von Datennutzung zu führen. Eine Datenspende, also die Einwilligung, ob Versorgungsdaten künftig für medizinische Forschung verwendet werden dürfen, sollte von der Akutversorgung abgekoppelt werden.“
Eine solche Regelung empfahl Semler gemeinsam mit einigen Kollegen dem Gesundheitsministerium in einem Gutachten zur Datenspende [PDF], das im vergangenen Jahr erschienen ist. Aktuell müssen Patient:innen eine solche Entscheidung noch in dem Moment treffen, wenn sie ins Krankenhaus kommen. Die Medizininformatik-Initiative stellt den beteiligten Krankenhäusern einen Mustertext für die „breite Einwilligung“ zur Verfügung.
Die Einigung auf diesen Text war laut Semler ein langwieriger Prozess: „Bei Fragen zu Forschungsdaten muss man 16 verschiedene Landesdatenschutzgesetze und annähernd genauso viele Krankenhausgesetze beachten und dementsprechend mit allen Landesdatenschutzbeauftragten verhandeln, die alle andere Ansichten zur Auslegung des Datenschutzrechts haben.“ Er sieht dringenden Handlungsbedarf, die Gesetzgebung zu vereinheitlichen, da Forschung nicht an den Grenzen von Bundesländern Halt mache und derzeit Kooperationen erschwert würden.
Keine Daten für internationale Forschungsprojekte
Es gibt im Zuge der Medizininformatik-Initiative noch keine Einigung mit den Datenschutzbehörden, wie mit internationaler, datenbasierter Forschung umgegangen werden soll: „Außerhalb der EU haben wir ein manifestes Problem mit dem Datenschutz, beispielsweise in China oder in den USA. Stand jetzt dürfen keine Daten aus den Unikliniken in Drittländer wie die USA transferiert werden, weil es innerhalb der Behörden unterschiedliche Ansichten zur Rechtslage gibt.“ Das widerstrebe der wissenschaftlichen Realität, in der viele Projekte in internationalen Kooperationen durchgeführt werden und Länder wie die USA wichtige wissenschaftliche Kooperationspartner sind.
Alle diese Bereiche in die „breite Einwilligung“ mit aufzunehmen, würde den Patient:innen eine informiertere Entscheidung ermöglichen. Gleichzeitig würde das den ohnehin schon zwölf Seiten langen Einwilligungstext der MII noch weiter verlängern.
Datenschützer Weichert kritisiert die „breite Einwilligung“ in seinem Plädoyer noch an anderen Punkten. Er beklagt unter anderem, dass die Einigung der MII mit den Datenschutzbehörden rechtlich nicht belastbar sei, da sie keinen Bezug auf gesetzliche Grundlagen nehme. Weichert fordert deshalb ein „medizinisches Forschungsgesetz“, das sowohl den Patient:innen als auch den Forschungsinstitutionen Rechtssicherheit gebe.
Entscheidung über Datennutzung ohne unabhängiges Gremium
Die bisherige Gesetzgebung zum Thema Datennutzung missfällt dem Datenschützer: „Mit der neuen Datentransparenzverordnung hat Gesundheitsminister Spahn die Forschungsdatenzentren, die die Daten aus den gesetzlichen Krankenkassen für die Forschung zugänglich machen sollen, beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelt. Das ist eine Behörde, die ihm direkt untersteht, kein unabhängiges Gremium.“
Ein neues Gesetz schwebt auch dem Sachverständigenrat in seinem Gutachten vor. Der Rat nennt es allerdings „Gesundheitsdatennutzungsgesetz“. Thilo Weichert zufolge sieht man an den unterschiedlichen Namen der Gesetzesvorschläge eine unterschiedliche Geisteshaltung: „Der Rat greift die Diskussion über die Nutzung von Forschungsdaten zwar von Seiten der Forschung auf, dabei unterscheidet sich das Gutachten auch gar nicht wesentlich von den Regelungen, die mir vorschweben. Die Patientenseite kommt im Gutachten allerdings zu kurz.“
Laut dem Gutachten des Rates sollen die Risiken für Patient:innen möglichst minimiert werden. Eine wichtige Forderung hierbei ist „Datensicherheit statt Datenschutz“. Es solle technisch sichergestellt werden, dass nur solche Personen Zugriff auf die Daten haben, die sie für ihre Forschung benötigen.
Datensicherheit statt Datenschutz?
Mithilfe von Zugriffsprotokollen könnten sich beispielsweise Patient:innen darüber informieren, wer auf ihre Daten zugegriffen hat. Das soll den Datenschutz stärken, da jeder missbräuchliche Zugriff nachvollzogen und die Person bestraft werden kann. Doch solche Regeln scheinen dem hohen Schutzbedarf personenbezogener Gesundheitsdaten nicht angemessen. Denn selbst, wenn ein missbräuchlicher Zugriff entdeckt und angezeigt werden würde, wären die Gesundheitsdaten bereits in falsche Hände geraten.
Anders als Adressen oder Bankdaten kann man Gesundheitsdaten nicht einfach wechseln. Sie gelten ein Leben lang, man kann sie nicht verändern, neu beantragen oder anlegen und ihr Verlust kann nicht finanziell ausgeglichen werden. Mit den möglichen Folgen eines Datenverlusts können Betroffene ein Leben lang zu kämpfen haben.
Weichert betont außerdem, dass eine strenge Abschottung bei den Forschenden selbst nicht unbedingt gewährleistet sei: „Das ist noch nicht mal ansatzweise zu Ende diskutiert und taucht auch im Gutachten nicht auf.“ Der Gesetzgeber müsse über ein Forschungsgeheimnis regeln, dass die Daten innerhalb der Wissenschaft verbleiben und nicht zum Beispiel durch die Polizei beschlagnahmt werden dürfen.
Lange Tradition von Sicherheitslücken im Gesundheitssystem
Was passiert, wenn medizinische Daten unzureichend geschützt sind, zeigte sich letztes Jahr in Finnland. Dort gerieten über 30.000 Behandlungsakten eines Psychotherapiezentrums [€] Hacker:innen in die Hände. Sie hatten Zugriff auf die Daten erlangt und die betroffenen Patient:innen erpresst. Seit Ende Januar sind die Akten mit persönlichen Angaben, Therapieprotokollen und Diagnosen frei im Netz verfügbar. Theoretisch können Arbeitgeber diese Daten herunterladen und Bewerber:innen auf mögliche psychische Erkrankungen checken; Neugierige können die Daten nach Prominenten oder Familienmitgliedern durchsuchen.
Vollständige Datensicherheit kann es nicht geben. Sollen Gesundheitsdaten für die Forschung genutzt werden können, wird immer ein Restrisiko bestehen bleiben, gerade wenn Forschungsdaten nicht immer komplett anonymisiert werden können. Daher ist es wichtig, dass die gesetzlichen Vorgaben zur Datensicherheit den Risiken angemessen sind.
Bisher überzeugten Digitalisierungsvorhaben aus dem Bundesgesundheitsministerium nicht gerade mit durchdachten Sicherheitskonzepten. Eine Woche nach Einführung der ersten „Apps auf Rezept“ fanden Sicherheitsforscher vom Chaos Computer Club die ersten Sicherheitslücken. Die Telematikinfrastruktur, über die im Gesundheitssystem sicher Daten ausgetauscht werden sollen, wurde an verschiedenen Stellen von denselben Sicherheitsforschern gehackt.
Katastrophale Ausstattung der deutschen Datenschutzbehörden
Im Februar wurde bekannt, dass Jens Spahn in seinem Ministerium nur zweieinhalb Stellen für IT-Expert:innen besetzt hatte. Ganze neun Stellen ließ der Minister offen.
Auch der Sachverständigenrat beschäftigt sich mit Versagen bei der Datensicherheit im Gesundheitssystem. Dass der Rat zur Lösung dieser Probleme forderte, „IT-Experten, wie z. B. die im Chaos Computer Club Versammelten, sollten, was die Gesundheitsversorgung betrifft, ihre Fähigkeiten in den Dienst des Patientenwohls stellen und dazu beitragen, dass die Gesundheitsdaten der Menschen für bessere Forschung und Versorgung sicher genutzt werden können“, spricht Bände, wo die Gutachter:innen die Expertise bei diesem Thema vermuten und wo nicht.
Auch die Ausstattung der Stellen, die potenzielle neue Regelungen zur Datennutzung kontrollieren würden, lässt zu wünschen übrig. Der ehemalige Landesdatenschutzbeauftragte Weichert stellt fest: „Die Datenschutzbehörden in Deutschland sind katastrophal aufgestellt. Die Politik erkennt hier den Bedarf noch nicht hinreichend an. In der Forschung gibt es aktuell so gut wie keine Datenschutzkontrolle.“ Hoffnung auf Besserung hat er jedoch wenig: „Wenn wir darauf warten, dass die Datenschutzbehörden das nötige Geld und Personal bekommen, könnten wir die Forschung erstmal einstellen.“
All das zeigt: Guter Datenschutz für Forschungsdaten ist möglich. Es gibt sinnvolle Vorschläge und Initiativen, die Gesundheitsdaten für Wissenschaftler:innen nutzbar machen und gleichzeitig deren Schutz gewährleisten. Die politisch Verantwortlichen zeigen hierfür bislang weder die nötige Initiative noch das nötige Bewusstsein für Themen des Datenschutzes und der Datensicherheit. Das gefährdet des Vertrauen der Patient:innen in die Nutzung ihrer so dringend benötigten Daten.
In der Debatte tritt zu oft in den Hintergrund, dass Datenschutz kein Selbstzweck ist, kein Hobby von Nerds und Digitalisierungsverweigerern. Dass fehlender Datenschutz reale, schlimme Folgen für Betroffene haben kann. In wenigen Bereichen wird das so deutlich wie bei personenbezogenen Gesundheitsdaten.
schon, interessant dass technische probleme d.h. digitale daten und ihre zugriffsrechte, sozial geloest werden sollen. (bzw. durch buerokratische administrativa wie z.b. gremienpolitik)
das problem hierzulande, einerseits gibt es den blinden solutionism, andererseits organisierte zoegerlichkeit, die sich in krisen und entscheidungsituationen als fatal erweisen kann.
zu grunde liegt nicht zuletzt bildungsbuergerlich-humanistische trennung von theorie und praxis, von technischen berufen und theoretischen berufen, von hard und soft sciences.
was die weit verbreite technologische lese-schreibschwaeche der diskursbereiche belegt aber auch die soziale inkompetenz von engineering-faechern ueber die gerne berichtet wird, verkoerpert z.b. durch die person von elon musk.
auch die neue generation kritischer digitaler zivilgesellschaft tritt in die fussstapfen der alten fehlerkultur, wie z.b. deutsche technikfolgenabschaetzung als reverse engineering eines monolitischen design ansatzes aus den fruehen siebzigern.
bevor diese und vermutlich die naechste krise vorueber ist darf verkniffen weiter diskutiert werden, die begriffe sind dabei so universell wie nutzlos unspezifisch. so soll „digitale souveraenitaet“ soll fuer staaten, firmen, laender, kommunen, juristische personen und endnutzerinnen zugleich gelten.
auch wenn blockchain sicher nicht die loesung ist, so ist das damit beschriebene problem interessant genug um darueber weiterzudisktieren und zu forschen. #
wie koennten z.b. neue gesetzlich vorgeschriebene. und dynamisch weiterzuentwickelnde datenformate sicherstellen, dass
1. semantische expressivitaet besteht, d.h. datenstrukturen die informationen ueber (semantische) datentypen enthalten.
2. zugriffsrechte granular und durch die datenverarbeitungsketten transparent dezentralisierbar sind.
3. anonymitaet by default gilt sodass open data nutzung ebenso by default moeglich wird.
4. das konzept der identitaet nicht als kernkonzept verwendet wird, sondern das validierter gruppenrechte.
(da faellt uns sicher noch eine reihe weiterer wunschkriterien ein..)
jedenfalls hat der public health sektor in den UK im gegensatz zur service qualitaet des NHS einige erhebliche vorteile gegenueber dem was hierzulande als „digitalisierung“ des gesundheitswesens gehandelt wird.
ein ergebnis ist dabei eine vorliegende epidemeologische studie der UK corona app, auf basis verfuegbarer daten. damit hat zumindest in UK die app das 1. requirement des CCC erfuellt.
https://www.nature.com/articles/s41586-021-03606-z_reference.pdf
hier war das nur an einzelnen orten wie in koeln moeglich durch methoden die der CWA nicht zur verfuegung stehen, und durch eine besondere datenlage eines grossen koellner gesundheitsamts.
https://www.iais.fraunhofer.de/de/geschaeftsfelder/healthcare-analytics/fraunhofer-projekte-corasiv-und-coperimoplus.html
Zum wohle DERJENIGEN Patienten, die mit diesen und folgenden Methoden in naher Zukunft, bei nur wenigen Zugaben aus dem allgemeinen Datensalat, sowie etwas Sozialnetzwerksschärfe, recht präzise und dem Zweck gemäß konform abgeschmeckt werden können.
Die anderen werden dann immer datenschutzkonform zurückgelassen.
In der ganzen Diskussion wird das aus meiner Sicht größte Bedrohungsszenario überhaupt nicht betrachtet: Der Missbrauch der Daten durch den Betreiber der Datenbank – den Staat. Dagegen hilft keine Datensicherheit. Der Datenschutz wurde hingegen genau hierfür erfunden.
Wenn erst einmal eine Gruppe Personen mit einer etwas anderen Moralvorstellung an die Macht kommt ist es für diese mit einer zentralen Gesundheitsdatenbank ein leichtes „lebensunwertes Leben“ auszumachen und anschließend zu liquidieren.
Das ist richtig und wird auf die aktuelle Gesetzeslage bezogen ja auch von Thilo Weichert kritisiert, weil die Forschungsdatenzentren an das BfArM angebunden sind.
Umso interessanter ist in diesem Zusammenhang das Modell der Medizininformatik-Initiative, das ja nicht auf eine zentrale Datenbank setzt, sondern auf ein System, bei dem die Daten erstmal beim jeweiligen Uni-Klinikum verbleiben, sodass andere Kooperationspartner im Falle eines konkreten Forschungsvorhabens auf die Daten der anderen Partner zugreifen kann, kontrolliert von den unabhängigen UACs.
Das löst natürlich nicht alle Probleme, aber es ist ein anderer Ansatz als eine zentrale Datenbank, die beim Staat angesiedelt ist.
Der Staat bleibt aber auch in ihrem Szenario die ZENTRALE Autorität, welche die ach so schön dezentral gespeicherten Patienten-Daten per Rechtsverordnung *Schipp* wieder zusammenführen kann.
So geschehen bereits bei biometrischen Passbildern, die eigentlich bei den Meldeämtern verbleiben sollten.
Eben.
Man sollte realistisch in der Risikoabschaetzung sein: wenn die Machthaber, ob gewaehlt oder gekauft, wollen, werden sie auf alle Daten zugreifen, die sich in ihrem Machtbereich befinden, egal ob zentral oder dezentral.
„Der Staat“ ist an sich kein Akteur, Regierungen sind. Und von allen Akteuren sind die noch am ehesten vom Buerger zu kontrollieren und zu regulieren.
„Der Staat“ ist primaer auch die formale Organisation aller Buerger. „Den Staat“ prinzipiell nur als Bedrohung oder Gegner anzusehen ist fuer den Grossteil der Buerger voellig kontraproduktiv, denn die brauchen einen durchaus starken Staat.
Da ist es nur konvenient, Privatsphäre und Datenschutz den IT-Riesen (durchaus zurecht) aufgittern zu können, um (illegetim) vom eigenen Schadpotential abzulenken.
Natürlich muss der Staat beäugt werden, das ist der Sinn des Grundgesetzes, u.a.
Bei allem Interesse an Forschung:
Bei der Argumentation der Befürworter einer offensichtlichen Aufweichung des Datenschutzes zu Forschungszwecken muss man sich doch die Frage stellen, wie es die Medizin der letzten 100 Jahre ohne die Erhebung bzw. Speicherung von Patientendatensätzen hat soweit bringen können…
Es wird mir keiner erzählen, dass die Erhebung bestimmter (persönlicher) Patientendaten für die medizinische Forschung unbedingt notwendig ist. Detaillierte Begründungen dafür werden nicht gegeben und wenn doch, sind sie zu dünn, um als schlagkräftig gelten zu können.
Daten sind doch das neue Öl. Die Pharma-Industrie will ihren Claim.
Diskussion sind okay, wir dürfen uns auch ein wenig über dies oder jenes echauffieren, gemacht wird es schlussendlich dennoch aus „öffentlichem Interesse“.
In den Medien wird man darüber schwadronieren, wie Big Data regelmäßig Menschleben leben rette und Kosten im Gesundheitswesen einspare. Das merke man selbst daran, dass man noch am Leben ist, und die KK-Beiträge weniger stark steigen als befürchtet. D.h. steigen tun diese natürlich nicht, sie werden nur „angepasst“ an eine „natürliche Entwicklung“ usw, usw…
Das ist ganz einfach: die Forschung hat schon immer im Zugriff auf alle Daten der involvierten Patienten stattgefunden. Waren halt Akten in Papierform, gerne mal heute als unethisch nicht mehr durchfuehrbare Testrunden, und durch die sehr begrenzte Datenmenge hat man sehr vieles weder erkannt noch verstanden.
Glaubst Du, zB das Deutsche Reich hat sich bei der Erruierung und Durchfuehrung der (sehr erfolgreichen) Impfpflicht durch „Datenschutz“ bremsen lassen?
„Der Staat“ dient oft mal als Synonym für die Staatsorgane, Behörden, Apparate, Exekutive. In Gänze… nun gut.
Ich mache nicht ein Gesetz für die Abschaffung sinnvoller Interaktion im Internet, und wähle auch niemanden dafür. Mehr als zu erwarten, dass auf die Fachwelt gehört wird, sowie Ziele transparent benannt werden kann ich nicht tun – wir sind da in einem (Pre-?) Rogue-Zustand angekommen. Aber man sieht schnell, dass der „Wählerauftrag“ sehr lustig interpretiert oder auch ignoriert wird. GROKO ist eine Ausnahmesituation, keine Einladung zur Verantwortungslosigkeit. Ähnlich mit der parlamentarischen Demokratie für sich gesehen.
Interessant wird es mit lauter kleinen Parteien, vielleicht kommt es dann mal zu Reformen. Da ist Visionärstum und Weitsicht erforderlich, nicht Wahrung von X/Y/Z als Grundsatz, sonst könnt ihr eine Zukunft mit Menschheit nicht einmal denken.
Einfach mal vorstellen:
– Nicht alle können arbeiten.
– Fast alle müssen weniger Stunden arbeiten.
– Viele Bereiche sind aus nachhaltigkeitsgründen nicht mehr einfach so zugänglich.
– Es gibt ein ordentliches Grundeinkommen.
– Zugang zu digitaler Kommunikation ist Grundrecht.
– Digitale Organisation und Kommunikation wird vollständig und anlasslos überwacht.
– Bildung ist „frei“ aber man ist schnell durchgefallen, es gibt eine Trennung beim Zugang zu „akademischen Inhalten“, auch mittels Urheberrecht wird der Zugang zu aufgezeichneten oder digitalen Vorlesungen auf Eingeschriebene beschränkt. Das System ist undurchlässig und unnachgiebig. Dritte Chancen gibt es nicht. Kein Reifungsprozess, sondern nur noch Verwertung zählt. Durchlässigkeit und Potential werden in der Physik diskutiert.
Wie lange gibt es euch dann noch?
Peter Adams: So ist es. Und genau dieses sehr treffend beschriebene Einlullen der Bevölkerung ist das Problem. Mit schlagwortartigen, werbeanalogen Parolen wie „Daten sind das neue Öl“, „Hast du was zu verbergen?“, „Big Data ist die Zukunft“, „Nur mit Vorratsdatenspeicherung ist Verbrechensbekämpfung möglich“ wird die Bevölkerung quasi konditioniert und so getan, als sei gutes Leben vorher nicht möglich gewesen.
Analysiert man das Phänomen „Digitalisierung“, dann überwiegen (nach anfänglichen, bis imho ca. 2010 durchaus vorhandenen Vorteilen) mittlerweile die Nachteile, die sich sowohl aus rein wirtschaftsorientierten als auch zur beabsichtigten Kontrolle der Bürger dienlichen Sichtweisen seitens der Politik ergeben. Auf den obigen Artikel bezogen heisst das:
Wenn ich für besagte, digitale Gehirnwäsche die persönliche Entscheidungsfreiheit über meine (Gesundheits-)Daten aufgeben soll, verzichte ich liebend gerne auf das „neue Öl“ und entscheide mich für meine Freiheit.
Wenn eine Dir nahestehende Person im RTW verstirbt, weil das Rettungsnetz mangels Daten nicht die prinzipiell planbare Dichte aufwies, denkst Du vielleicht anders darueber.
Hs: Ich weiss nicht, auf welchen Beitrag Du Dich beziehst, aber wenn es meiner ist, dann vergleichst Du zwei völlig verschiedene Dinge bzw. „Daten“.
Wenn Pharmaunternehmen und mit ihnen verknüpfte Unternehmen etc. Patientendaten erhalten, obwohl diese das nicht wollen oder verhindern können, dann ist das nicht hinnehmbar.
Die planbare Dichte eines Rettungsnetzes basiert dagegen sicher nicht auf Patientendaten, sondern auf der Bevölkerungsdichte und der Altersstruktur einer bestimmten Region, dem Angebot an Material und Personal, Kosten-Nutzen-Analysen etc. und dem politischen Willen, solche Netze auszubauen.
Abgesehen davon gibt es Rettungsnetze (gottseidank) schon länger als es das Internet gibt.
Hast Du den Artikel gelesen, unter dem Du hier kommentierst, der macht naemlich mit dem Beispiel des Rettungsnetzes auf.
Das Spahn natuerlich weder Buerger- noch Patientenrechte im Sinne hat, sondern allein die Profitmaximierung seiner Klientel: geschenkt. Aber auch da muss man halt nicht „Datenschutz“ rufen, sondern aktiv an anderem Wahlergebnissen arbeiten.
Hs: Ich meinte mit meiner Frage, ob Du Dich auf meinen ersten oder zweiten Beitrag oder den von Peter Adams beziehst (ist ein Problem der Reihenfolge, weil manche Kommentare hier später als andere platziert werden und die Reihenfolge nicht stimmt bzw. manche Nicks auch gleich sind).
Mit dem Wahlverhalten hast du natürlich recht, keine Frage. Dass aber für den Ausbau eines Rettungsnetzes konkrete Personendaten samt Einkommen notwendig sein sollen, halte ich für einen Vorwand. Was hat das Einkommen mit der Rettungskette zu tun? Ist es nicht vielmehr so, dass man mit solchen Wünschen schon künftige amerikanische Verhältnisse impliziert, nach denen der, der es sich leisten kann, den Krankentransport in Zukunft selbst bezahlen soll?
Es reicht doch vollkommen aus, die allgemeinen regionalen Verhältnisse zu kennen und den politischen Willen mitzubringen, mehr Personal samt medizinischen Möglichkeiten bereitzustellen.
Ganz abgesehen davon kann man mit simulativen Daten modellhaft arbeiten, denn egal welches Ergebnis mit realen Daten herauskäme – die Entscheidungen über Verbesserungen (oder auch nicht) hängen in Deutschland in allererster Linie von politischen Entscheidungen, der Bürokratie und der Zeit ab, in der – bis eine Entscheidung getroffen wird – die Situation in betreffenden Regionen sich schon wieder verändert haben kann.
Dr. Berit Lange. Leiterin der Klinischen Epidemiologie in der Abteilung Epidemiologie, Helmholtz-Zentrum für Infektionsforschung (HZI), Braunschweig
>>
Auf die Frage, inwiefern man solche Analysen auch auf Basis der Daten über die Nutzung und den Effekt der deutschen Corona-Warn-App durchführen könnte:
„Grundsätzlich wäre eine solche Analyse der Daten über Nutzen und Effekt der deutschen Corona-Warn-App sehr wünschenswert. Allerdings fehlen hierzu sowohl Daten,
die von der Corona-Warn-App erhoben werden müssten – zum Beispiel zur Frage der Kontakte, die pro Fall benachrichtigt werden und der positiven Tests bei denjenigen,
die benachrichtigt wurden. Insbesondere fehlen aber auch gute Übersichten hierzu in Deutschland, die dieselben Parameter für das manuelle Contact
Tracing regional differenziert zeigen würden – also die Kontakte pro Fall und die Anzahl der positiven Kontakte nach einem Fall. Dies wären nicht
nur relevante Daten und Indikatoren zur Berechnung der Effektivität der Corona-Warn-App, sondern auch zur Auslastung der Gesundheitsämter, die aktuell –
nach meinem Wissen – nicht auf überregionaler Ebene für Deutschland regional differenziert vorhanden sind. Sie ließen sich aber aus der Arbeit
Gesundheitsamtes und den Daten, die dort erhoben werden, grundsätzlich generieren.“
<<
https://www.sciencemediacenter.de/alle-angebote/research-in-context/details/news/preprint-studie-zur-wirksamkeit-der-britischen-corona-app/
„Wir wollen die gesamte Rettungskette im Rechner nachbilden, vom Wählen der 112 über die Entscheidung in der Leitstelle und die Behandlungsentscheidung vor Ort bis hin zum Transport in ein Krankenhaus und die Säuberung des Rettungswagens. Wir wollen genau wissen, wie dieses System funktioniert und auch die menschlichen Entscheidungen im Computer abbilden“
Braucht es wirklich diese allumfassende digitale Modellierung? Wozu? Welche Interessen gibt es? Man könnte den Eindruck haben, dass es vorwiegend darum geht an große Datenmengen zu gelangen.
Wer nach Jahrzehnten von Rettungswesen vorgeblich immer noch nicht weiß, wie das System funktioniert, der dürfte sich künstlich dumm stellen, oder schlicht Defizite aufweisen.
Überbordende Kosten im Gesundheitssystem sind auch einem Abrechnungssystem geschuldet, das nicht gerade Transparent ist und daher anfällig für Abrechnungsbetrug, auch im Rettungswesen.
Ich habe hier den Eindruck, dass einige Leute von Medizin und auch KI keine Vorstellung haben. Der Datenschutz wurde während der Corona-Pandemie als eines der wenigen Grundrechte nicht eingeschränkt. Dabei kann ich nicht erkennen, wieso die Bearbeitung von anonymisierten Gesundheitsdaten durch öffentlich finanzierte Forschung zum Zwecke der Verbesserung der Patientenversorgung und Sicherheit verwerflich sein soll. Wer die einschlägige Fachliteratur verfolgt, sieht die riesigen Möglichkeiten. Der medizinische Fortschritt ist keineswegs so weit vorangekommen, wie es möglich wäre. Beispielsweise sterben ca. 15 000 Menschen vermeidbarerweise an Sepsis in Deutschland. Da können KI-Systeme früher warnen.
In zehn Jahren kaufen wir dann die Technologie von den Amis und den Briten, wenn nicht von den Chinesen. Aber nur, wenn wir uns die noch leisten können.