AI ActDeutschland will Basis-Modelle wie ChatGPT nicht regulieren

Während sich die Verhandlungen um die Regulierung von Künstlicher Intelligenz in der EU der Zielgeraden nähern, stellen sich die Regierungen Deutschlands, Frankreichs und Italiens quer: Statt harten Regeln wollen sie für Basis-Modelle nur eine „verpflichtende Selbstregulierung“.

Mann im schwarzen Anzug mit Headset schaut nach unten
Verkehrsminister Volker Wissing: „Anwendungen regulieren und nicht die Technologie“ – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Im Ringen um EU-weite Regeln für den Umgang mit sogenannter Künstlicher Intelligenz (KI) verhärten sich die Fronten. Deutschland, Frankreich und Italien haben sich auf eine gemeinsame Position zu sogenannten Basis-Modellen verständigt. Das entsprechende Positionspapier hatte Politico gestern hinter einer Paywall veröffentlicht.

Die Regierungen der drei größten EU-Länder sprechen sich dagegen aus, gesetzlichen Vorschriften für die Basis-Modelle zu erlassen. „Wir sind gegen die Einführung von unerprobten Gesetzen und schlagen deshalb vor, zunächst auf eine verpflichtende Selbstregulierung durch einen Verhaltenskodex zu setzen“, heißt es in dem zweiseitigen Papier. Das sei ausreichend, um für die notwendige Transparenz und Sicherheit der Modelle zu sorgen. Auch Sanktionen solle es zunächst keine geben.

Die Einigung ist eine Schlappe für die Verhandlungen zu einem der derzeit wichtigsten Gesetzesvorhaben der EU. Die geplante KI-Verordnung soll das weltweit erste Gesetz werden, das Künstliche Intelligenz umfassend reguliert. Es geht um Themen wie biometrische Gesichtserkennung im öffentlichen Raum oder KI-Systeme an den EU-Außengrenzen. Das Vorhaben ist derzeit in der letzten Phase des Gesetzgebungsverfahrens. EU-Kommission, der Rat und das Parlament handeln gerade im Trilog die endgültigen Regeln im Detail aus. Am 6. Dezember ist dafür der nächste Termin angesetzt.

Doch die Verhandlungen sind mit der neuesten Entwicklung nicht gerade einfacher geworden. Die Vorbereitungen für das Gesetz liefen schon seit Jahren, als die Veröffentlichung von ChatGPT im November vergangenen Jahres die Karten neu mischte. Der Chatbot des Unternehmens OpenAI gehört in die Kategorie der sogenannten General Purpose AI. Das sind KI-Systeme, die für verschiedene Zwecke eingesetzt werden können. ChatGPT basiert aktuell auf einem Sprach-Basismodell namens GPT-4. Solche Modelle und die mit ihnen verbundenen Risiken sind seit rund einem Jahr in aller Munde – doch die EU hatte sie nicht auf dem Schirm gehabt.

„Modellkarten“ statt harte Auflagen

Das Parlament bezog nach der Veröffentlichung von ChatGPT schnell Position: Auch für Basismodelle müssten in jedem Fall strikte Regeln gelten. Bei einem Treffen am 10. November kam es jedoch offenbar im Trilogverfahren zum offenen Streit. Frankreich, Deutschland und Italien hatten sich zuvor gegen jede harte Regulierung von Basismodellen ausgesprochen, wie Euractiv berichtete. Unterhändler:innen des Parlaments hätten das Treffen daraufhin demonstrativ verlassen.

Die nun im Papier ausformulierten Positionen klingen teils so, als seien sie von den KI-Unternehmen selbst verfasst worden. Die einzige ihnen drohende Auflage: Die Unternehmen sollen zu den von ihnen entwickelten Basismodellen „Modellkarten“ zur Verfügung stellen. Diese sollen, als eine Art Inhaltsangabe, „alle relevanten Informationen enthalten, um die Funktionsweise des Modells, seine Fähigkeiten und Grenzen zu verstehen“.

Vor allem das französische Unternehmen Mistral wehrt sich Berichten zufolge derzeit vehement gegen die Auflagen, die mit Verabschiedung der KI-Verordnung drohen würden. Sein Cheflobbyist Cédric O behauptete zuletzt, die Verordnung könne das Unternehmen „töten“. Mistral baut Sprachmodelle und gilt als eines von wenigen Tech-Unternehmen in Europa, die es mit Branchengrößen wie OpenAI oder Google aufnehmen könnten. Das Unternehmen wäre von den neuen Regeln für Basismodelle direkt betroffen. Die Rolle von Cédric O ist umstritten: Als französischer Digitalminister wollte er einst KI strenger regulieren, als Cheflobbyist von Mistral feuert er heute dagegen.

„Kein Überbietungswettbewerb“

In Deutschland wäre wiederum das Heidelberger Start-up Aleph Alpha betroffen. Es entwickelt ebenfalls Sprachmodelle, die mit jenen von OpenAI konkurrieren sollen. Gründer Jonas Andrulis, das berichtet die Frankfurter Allgemeine Zeitung, war zuletzt im Wirtschaftsministerium zu Gast und sagte dort: „Ich persönlich glaube, Basistechnologie müssen wir gar nicht regulieren, Anwendungsfälle ja, Basistechnologie gar nicht.“ Das scheint auch bei Wirtschaftsminister Robert Habeck (Grüne) angekommen zu sein. Beim KI-Gipfel im britischen Bletchley Park von zwei Wochen sagte er: „Wir wollen nicht die Technik regulieren, sondern die Anwendungsmöglichkeiten.“

Mit ähnlichen Worten hatte Digitalminister Volker Wissing (FDP) jetzt die neue Einigung kommentiert: „Wir müssen die Anwendungen regulieren und nicht die Technologie, wenn wir weltweit in der ersten KI-Liga mitspielen wollen.“ Es dürfe zu keinem „Überbietungswettbewerb kommen, wer am schnellsten und am stärksten reguliert“. Geht es um die heimische KI-Branche, besteht bei der Ampel derzeit also Einigkeit.

Die US-Regierung, die lange Zeit sehr im Interesse der Tech-Unternehmen im eigenen Land handelte, geht einen anderen Weg. US-Präsident Joe Biden erließ vor wenigen Tagen ein Dekret, das sich explizit mit Basismodellen beschäftigt – und den Unternehmen zahlreiche Auflagen macht.

 


An innovation-friendly approach based on European values for the AI Act

– Joint Non-paper by IT, FR and DE –

  • We acknowledge the need for a comprehensive regulation of AI systems and from the beginning welcomed the Commission proposal for an AI Act in this regard. The AI Act will provide EU citizens with protection and confidence in the AI products distributed on the single market.
  • This new regulation will complement the comprehensive legal toolbox already applicable in the EU, for instance on data privacy with GDPR, or with Digital Services Act or the Terrorist Content Online regulation.
  • The EU intends to position itself at the forefront of the AI revolution. This requires a regulatory framework which fosters innovation and competition, so that European players can emerge and carry our voice and values in the global race of AI.
  • In this context, we reiterate our common commitment for a balanced and innovation-friendly and a coherent risk-based approach of the AI Act, reducing unnecessary administrative burdens on Companies that would hinder Europe ́s ability to innovate, that will foster contestability, openness and competition on digital markets.
  • We welcome the efforts from the Spanish Presidency to find a compromise with the European Parliament and Commission to reach a satisfactory solution for all parties and stakeholders.
  • Together we underline that the AI Act regulates the application of AI and not the technology as such. This risk-based approach is necessary and meant to preserve innovation and safety at the same time.
  • Legal certainty, clarity and predictability are of utmost importance.
  • Special attention should be paid to definitions and distinctions. We should continue to follow a thorough discussion on this topic. Definitions should be clear and precise. To this regard we strongly underline and welcome the efforts of the Spanish presidency.
  • We suggest a distinction between models and general purpose AI systems that can be available for specific applications.
  • We believe that regulation on general purpose AI systems seems more in line with the risk-based approach. The inherent risks lie in the application of AI systems rather than in the technology itself. European standards can support this approach following the new legislative framework.
  • When it comes to foundation models we oppose instoring un-tested norms and suggest to instore to build in the meantime on mandatory self-regulation through codes of conduct. They could follow principles defined at the G7 level through the Hiroshima process and the approach of Article 69 of the draft AI Act, and would ensure the necessary transparency and flow of information in the value chain as well as the security of the foundation models against abuse.
  • We are however opposed to a two-tier approach for foundation models.
  • To implement our proposed approach, developers of foundation models would have to define model cards.
  • Defining model cards and making them available for each foundation model constitutes the mandatory element of this self-regulation.
  • The model cards must address some level of transparency and security.
  • The model cards shall include the relevant information to understand the functioning of the model, its capabilities and its limits and will be based on best practices within the developers community. For example, as we observe today in the industry: number of parameters, intended use and potential limitations, results of studies on biases, red-teaming for security assessment.
  • An AI governance body could help to develop guidelines and could check the application of model cards.
  • This system would ensure that companies have an easy way to report any noticed infringement of the code of conduct by a model developer to the AI governance body. Any suspected violation in the interest of transparency should be made public by the authority.
  • No sanctions would be applied initially. However, after an observation period of a defined duration, if breaches of the codes of conduct concerning transparency requirements are repeatedly observed and reported without being corrected by the model developers, a sanction system could then be set up following a proper analysis and impact assessment of the identified failures and how to best address them.
  • European standards could also be an important tool in this context as this also creates the adaptive capacity to take into account future developments. Further standardization mandates could be foreseen in this regard

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

13 Ergänzungen

  1. >Wirtschaftsminister Robert Habeck (Grüne)… Beim KI-Gipfel im britischen Bletchley Park von zwei Wochen sagte er: „Wir wollen nicht die Technik regulieren, sondern die Anwendungsmöglichkeiten.“

    Also nicht Algos regulieren … wenn da was in die Hose geht, kann man immer noch „red-teaming machen“…
    Das relevante Wortgefecht zum nachsehen/hören:
    https://youtu.be/8UUnXNhv6aM?t=5341

    Und wieder eine Startup-Floskel gelernt: Red-Teaming! Wow was für ein Sprech-Akt von einer ehemaligen Investment-Bankerin.

  2. >Wirtschaftsminister Robert Habeck (Grüne)… Beim KI-Gipfel im britischen Bletchley Park von zwei Wochen sagte er: „Wir wollen nicht die Technik regulieren, sondern die Anwendungsmöglichkeiten.“

    Also nicht Algos regulieren … wenn da was in die Hose geht, kann man immer noch „red-teaming machen“…
    Das relevante Wortgefecht mit Habeck zum nachsehen/hören:
    https://youtu.be/8UUnXNhv6aM?t=5341

    Und wieder eine Startup-Floskel gelernt: Red-Teaming! Wow was für ein Sprech-Akt von einer ehemaligen Investment-Bankerin.

    1. Für Spielkamp sind Modelle, die Proteinsequenzen generieren können also Bioterrorismus? Also quasi ProGen oder ProtTrans?

      Ist lustig, dass du Investment-Bankerin erwähnst, aber woher die Fachkenntnis von Spielkamp kommt (der ist VWLer & Politologe) ist dann irgendwie nicht so wichtig?

      Red Teaming – was keine Startup-Floskel ist – kann man zum Beispiel hier nachlesen:

      https://arxiv.org/abs/2202.03286

      Oder andere interessante Ansätze wie hier:

      https://arxiv.org/abs/2103.00453

      Komisch, dass auch niemand bei netzpolitik konkret auf diesen Tweet (von Mistral) verweist:

      https://twitter.com/arthurmensch/status/1725076260827566562

      und auf die Auswirkungen auf Open Source Entwicklung & Veröffentlichungen hinweist.

  3. Diese Position werden die Länder solange behalten bis irgendeiner mit dem Argument kommt: „KI wird dazu genutzt um KiPo zu produzieren!“

    Die FAZ hatte dazu einen Artikel vor wenigen Tagen rausgebracht, wo sie über japanische Firmen berichten, welche die Technologie lt. lokalen Nachrichten gewerbsmäßig dafür nutzen. Das Thema wird noch ordentlich für Gesprächsstoff sorgen.

    1. Noe, ueberhaupt nicht. Es ist bereits absolut trivial, derartige fiktive aber voll strafbare „KiPo“ zu produzieren, das umfasst naemlich auch entsprechende Schriften.

      Davon abgesehen hat Japan im Rahmen des dort zulaessigen bereits eine sehr produktive Wirtschaft.

      1. „Es ist bereits absolut trivial, derartige fiktive aber voll strafbare „KiPo“ zu produzieren, das umfasst naemlich auch entsprechende Schriften.“

        Verstehe nicht was damit gemeint sein soll. Es gibt auch EU-Staaten, wo sowas produziert wird, da es das EU-Recht ihren Mitgliedsstaaten das einräumt. Ich bin aber der Meinung das fotorealistische Sachen auch EU-weit verboten sind, oder irre ich mich? Zumindest haben selbst sehr liberale Staaten es in ihrem StGB erfasst.

        Hat alles aber keine wirkliche Relevanz da frei zugängliche K.I meist sowieso das generieren von Pornos usw. blockiert.

        1. „Hat alles aber keine wirkliche Relevanz da frei zugängliche K.I meist sowieso das generieren von Pornos usw. blockiert.“

          Nee nee, man kann durchaus sein eigenes Modell schnitzen, und es gibt bereits solche und ähnliche (Modelle und Dienste) woanders.

          Es ist sogar unabdingbar, dass KI lokal trainierbar wird, auf möglichst schwachen Geräten. Vielleicht nicht diese Generation von KI. Cloud bleibt Mist, Riesenmist, Fürstenhöfe. Vor allem aber wird es so zu nutzloser Pseudotechnologie. Wir kommen nicht um eine Regulierung auf Basis ethischer Grundsätze umhin. Der wesentliche Interaktionsraum wird uns sonst komplett zerschossen.

    2. Warum sollte jemand noch Missbrauchsmaterial produzieren, oder sich beschaffen, wenn die Personen auf KI generierte Inhalte zurückgreifen können? Wenn es sich von Fotos nicht mehr unterscheiden lässt dann gibt es auch keinen wirklichen Grund. Das Wissen das hinter dem Bild echtes Leid steckt wäre der einzige der mir einfällt. Wirtschaftlich und rein von der bequemlichkeit erst; da können solche Menschen ihre „krankesten“ Fantasien von Zuhause aus wahr werden lassen. Quasi luzides Träumen auf Knopfdruck.

      Keine dieser Unternehmen würde es in Kauf nehmen reale Bilder zu handeln und wird sicherlich ein Prozess entwickeln der aufzeigt das es sich um ein erzeugtes Bild handelt. Es klingt absurd, aber das Copyright wäre eine Art Fingerabdruck.

      Schwieriges Thema, aber niemand wird hier mehr hinterherkommen insb. wenn es demokratische Staaten gibt, wo sowas massenweise legal produziert wird. Wie damit umgehen?

      1. Das Thema hat zumindest in Japan bereits eine Debatte ausgelöst. Denn viele Unternehmen nutzen dies wohl aus und zu den Kritikern sagte eines dieser Firmen:

        „The representative added that the firm would continue to make images available because they were popular, and operations would only be halted under new regulation.

        Klagen gab es auch, aber sind alle vor Gericht gescheitert:

        „Courts previously ruled the industry was protected under the constitution’s position on the freedom of speech and artistic rights, because the pictures were not of real children.“

        Man müsste die japanische Verfassung ändern und dafür braucht man widerum eine Zweidrittelmehrheit. Stelle es mir schwierig vor diesen Zustand zu erhalten. Wenn jetzt noch massiv Druck von anderen Staaten kommt dann wird sich die Regierung sich dazu äußern müssen.

        1. Das bezweifle ich. Japan wird deswegen regelmäßig angegriffen und verteidigt es immer wieder. Hier bspw. Zitate aus einem Schreiben an den UN-Menschenrechtsrat:

          „The Government of Japan considers that the “child pornography” in the Optional Protocol does not include pornography of a virtual child.

          b) Council of Europe Convention on Cybercrime (article 9-2 c):
          Regarding article 9-2c of the convention, each party may reserve the right not to apply it (article 9-4). The Government of Japan reserved the right not to apply article 9-2c on the basis of article 9-4, when it concluded the convention.“
          […]
          The report of the Special Rapporteur only reflects her personal views or opinions which cannot be considered to form the international human rights norms and standards.“

          Source: A/HRC/31/58.Add.3 – Comments by the Government of Japan on the report of the Special Rapporteur regarding her mission to Japan*

  4. Weil es in der Vergangenheit auch immer so toll funktioniert hat, wenn sich der Markt und insbesondere internationale Megacorps selbst „reguliert“ haben.

    Was für ein Schmierentheater…

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.