Im Reallabor
Rechtliche Ausnahmen für Start-ups
von Félix Tréguer

Wie wäre es, wenn junge Tech-Unternehmen nicht an Recht und Gesetz gebunden wären, damit sie ihre Produkte ohne juristische Risiken testen können? Genau das ermöglichen regulatory sandboxes („regulatorische Sandkästen“), auf Deutsch auch „Reallabore“ genannt.
Reallabore eröffnen nach Meinung der maßgeblich von Google und Microsoft finanzierten Datasphere Initiative, die sich für sie starkmacht, einen kontrollierten „kooperativen Raum“, in dem „innovative Technologien und Verfahren“ auf die Einhaltung der für sie geltenden Rahmenregeln getestet werden können.1
Praktisch geht es darum, dass der Staat und öffentlich-rechtliche Institutionen für junge Unternehmen bestimmte regulatorische Vorgaben außer Kraft setzen, damit diese ihre Innovationen schneller auf den Markt bringen können. Erstmals erprobt wurde dieses Instrument in Großbritannien und in der Schweiz zugunsten neuer Finanztechnologien („Fintechs“).
Seit im Jahr 2018 etliche Regierungen eine nationale Strategie zur Förderung der künstlichen Intelligenz (KI) verabschiedet haben, erfreuen sich die Reallabore wachsender Beliebtheit. Weltweit gibt es mittlerweile immer mehr, und das vornehmlich im Gesundheits- und Transportsektor. Ein Beispiel ist der Pilotversuch von 2023 im brasilianischen Bundesstaat Rio de Janeiro, mit dem die Lieferung von Kaltgetränken per Drohnen erprobt wurde.
Reallabore sind ein anschauliches Beispiel dafür, wie staatliche Politik im Sinne der Privatwirtschaft und zugunsten ihrer Innovationen umgemodelt wird. Aus Sicht ihrer Fürsprecher nutzen die „Sandkästen“ beiden Seiten: Die Unternehmen, die „disruptive Innovationen“ entwickeln, haben mehr Rechtssicherheit; der Staat wiederum kann „partnerschaftlich“ an den unternehmerischen Strategien mitwirken und den Markt mittels „marktorientierter“ Regeln mitgestalten. Kurz gesagt: Die Intervention der öffentlichen Hand soll so ausfallen, dass sie die „disruptiven“ Investitionen der Start-up-Champions begünstigen.
Doch was hat die breite Bevölkerung davon? In der EU, wo die seit 2018 geltende Datenschutz-Grundverordnung (DSGVO) massiv und ständig als „innovationsfeindlich“ attackiert wird, entstehen immer mehr Reallabore auf dem Feld der Überwachungstechnik. Ein einschlägiges Beispiel ist die intelligente Videoüberwachung, die Kameras im öffentlichen Raum mit KI verknüpft, um Personen zu identifizieren und Alarm auszulösen, sobald sie verdächtige Vorkommnisse registriert.2
„Europa ist sehr spät dran“, klagt François Brémond vom französischen Forschungsinstitut für Digitaltechnologie (Inria): Die DSGVO mache „das Datensammeln praktisch unmöglich“.3
Ähnlich lautet der Tenor eines im Jahr 2019 veröffentlichten Gutachtens zur Gesichtserkennung, verfasst von einer Gruppe von Rechtsanwälten, Forscherinnen und Industrievertretern unter Vorsitz von Florence Fourets, Leiterin der Rechtsabteilung
der französischen Datenschutzbehörde (CNIL). Der „extrem restriktive Rahmen“ behindere die Entwicklung von Algorithmen, die fähig sein sollen, „mit Datenbeständen zu arbeiten, die aus einer sehr großen Zahl unterschiedlicher Gesichter von Menschen unterschiedlicher Herkunft bestehen“.4
Zur Beseitigung solcher „Hindernisse“ bieten sich die Reallabore offenbar als probates Mittel an, da sie der Logik des Experimentierens Gesetzeskraft verleihen. 2018 verfasste eine Kommission unter Leitung des Mathematikers Cédric Villani, der als Abgeordneter der Macron-Partei La République en Marche in der Nationalversammlung saß, eines der ersten französischen Gutachten zu der Frage, wie der Staat KI-Projekte unterstützen könnte.
Das Gutachten befasste sich schon damals konkret mit der Möglichkeit, KI für „Verteidigungs- und Sicherheitszwecke“ einzusetzen. Und es befürwortete nicht einfach nur „Experimente“, sondern explizit „Abweichungen von bestehenden Vorschriften gemäß der Sandkastenlogik“.5
Anknüpfend an diesen Villani-Report, wird das französische Parlament zunächst für die Armee und dann für die Nachrichtendiensten gesetzliche Ausnahmeregelungen schaffen, damit diese ihre KI besser trainieren können. Nach derselben Logik liefen 2023 bereits die Tests der intelligenten Videoüberwachung, die das Sicherheitsgesetz für die Olympischen Spiele 2024 in Paris vorsah: Start-ups wie Wintics oder die Holding ChapsVision durften ihre Produkte im staatlichen Auftrag und in Absprache mit den Sicherheitsbehörden „unter realen Bedingungen“ testen.
Die Krönung des Ganzen ist die KI-Verordnung der EU, die im Juni 2024 verabschiedet wurde. Sie verpflichtet in Artikel 57 alle Mitgliedstaaten, „mindestens ein KI-Reallabor auf nationaler Ebene einzurichten, das bis zum 2. August 2026 einsatzbereit sein muss“.6
CNIL-Präsidentin Marie-Laure Denis, die auch dem Staatsrat (Conseil d’État) angehört, sieht mit diesem Artikel 57 die Rolle ihrer Institution gestärkt und verspricht, „KI und Innovation in Einklang mit dem Datenschutz zu bringen“.7 Damit droht freilich die Gefahr, dass diese versuchsweisen Sonderregelungen das allgemeine Recht und die darin verankerten Bürgerrechtsgarantien überlagern.
Für Unternehmen, die neue Produkte auf den Markt bringen, ist eigentlich ein strenges Prozedere vorgesehen: Sie brauchen Vorabgenehmigungen, unterliegen Kontrollen und müssen Sanktionen fürchten. All diese lästigen Regelungen entfallen mit den „Reallaboren“, was die Vorliebe der neoliberalen Kreise für diese Ausnahmeverfahren erklärt. Die seien aus Sicht der Manager flexibler und anpassungsfähiger, erklärt die Juraprofessorin Pascale Idoux. Und zwar bei „kontinuierlicher Begleitung“ des ganzen Vorgangs durch öffentliche Institutionen, die in der Lage seien, „unmittelbaren und umfassenden Einfluss“ auf das Verfahren auszuüben.8
Die Politologen und Soziologen Benjamin Lemoine und Antoine Vauchez sehen darin eine „Gegenkultur des Regierens“, „die das offizielle und maßgebliche Staatsverständnis, das als hinderlich gilt, infrage stellt und damit das bestehende Staats- und Strafrecht zu untergraben droht“.9

Verachtung für die Grundrechte
Im digitalen Überwachungssektor wird damit eine Logik auf die Spitze getrieben, die sich schon in den 2010er Jahren weitgehend durchgesetzt hatte, als die CNIL von der in den 1980er Jahren praktizierten kontrollierenden Betreuung auf das Modell der „Konformität“ (oder „Compliance“) umsattelte. Die CNIL gab also die Überprüfung der Legalität aus der Hand und begnügte sich damit, die Marktakteure zu „begleiten“. Damit ist der „Wächter über die personenbezogenen Daten“ zu einer Agentur zur Innovationsförderung geworden.
Gibt es eine Analogie zwischen rechtlichen Ausnahmeregeln, vorgeblich zugunsten technologischer Innovation, und wirklichen Notstandssituationen, die eine massive Verschärfung staatlicher Befugnisse legitimieren?
Die Notwendigkeit der „regulatorischen Sandkästen“ lässt sich nicht mit einem Ausnahmezustand begründen, der polizeiliche Aktionen ohne „verfahrensrechtliches Korsett“ rechtfertigen würde. Sie wird vielmehr damit gerechtfertigt, dass die Markteinführung bestimmter technologischer Innovationen Priorität haben müsse, also angesichts des verschärften ökonomischen Wettbewerbs nicht durch rechtliche Hürden „unnötig“ verzögert oder behindert werden dürfe.
Doch eines haben die „regulatorischen Sandkästen“ und der Machtzuwachs der Exekutive unter Berufung auf den Notstand gemeinsam: Die Grundrechte werden als Verlustposten abgeschrieben, die alte liberale Rechtsordnung wird schrittweise durch technologische und sicherheitspolitische „Zwänge“ außer Kraft gesetzt.
Für die laufende Rückabwicklung des „allgemeinen Rechts ohne Ansehen der Person“, das seit dem 18. Jahrhundert ein Grundpfeiler des politischen Liberalismus war, gibt es durchaus historische Vorläufer.
Im Deutschland der 1930er Jahre kritisierten die marxistischen Rechtswissenschaftler der Frankfurter Schule die „dezisionistische“ Rechtstheorie ihres politischen Gegenspielers Carl Schmitt, die das konservative Lager schon in die Praxis umgesetzt hatte, bevor die Nazis an die Macht kamen.10
Franz von Papen, 1932 kurzzeitig Reichskanzler, war erklärter Verfechter eines Staats, der die Interessen der Großindustrie absichert und mit Repression und Freiheitseinschränkungen vor demokratischen Zumutungen schützt. Er wollte um jeden Preis verhindern, dass „neue künstliche Konstruktionen die Beweglichkeit der Wirtschaft weiter unterbinden“. Stattdessen müssten „Bindungen gelockert werden“, die den Markt einschnüren.11
Die theoretisch-praktische Legitimation für diese Politik lieferte Carl Schmitt mit seiner Kritik an einem „rationalistischen“ Rechtsverständnis. Dem „abstrakten“ Gesetz setzt er die situative, der „Notwendigkeit“ entspringende „Maßnahme“ entgegen, zu der die Exekutive ermächtigt sei.12
Auf dieser Grundlage konnten die Regelungen an die Gegebenheiten angepasst oder gleich einer „wirtschaftlichen Selbstverwaltung“ überlassen werden, de facto also oligopolistischen Großkonzernen, die der Staat als Akteure von „öffentlichem Interesse“ anerkannte. Das Ziel war, die Weimarer Republik niederzureißen, um das Fundament für eine Rechtsordnung zu schaffen, die zunächst von den Konservativen und dann von den Nazis übernommen wurde.
Linkssozialdemokratische Juristen wie Franz Neumann oder Otto Kirchheimer prangerten dieses Abdriften ins Autoritäre damals an. Sie erinnerten daran, dass der Rechtsstaat mit seinen abstrakten und allgemeinen Grundsätzen, mit seiner Hierarchie von Normen und Wertvorstellungen die notwendige – wenn auch nicht hinreichende – Bedingung ist, um das Versprechen der Gleichberechtigung einzulösen, und ebenso das klassisch liberale Versprechen, die staatliche Gewalt zu zügeln.
Geschichte wiederholt sich zwar nicht, aber auch unsere Epoche erlebt neuerdings das Wiedererstarken des Staatsautoritarismus und den Aufstieg einer Neuen Rechten, die zunehmend die Interessen der Großkonzerne bedient.
1 „5 min intro to Sandboxes“, Datasphere Initiative.
2 Siehe Thomas Jusquiame, „Schlaue Kameras“, LMd, Februar 2023.
Aus dem Französischen von Andreas Bredenfeld
Félix Tréguer ist Wissenschaftler und Mitglied der NGO La Quadrature du Net. Der Text ist ein adaptierter Auszug aus „Technopolice. La surveillance policière à l’ère de l’intelligence artificielle“, Paris (Divergences) 2024.
Erstmal ausprobieren
Reallabore sollen Innovationen beschleunigen und parallel dazu die passende Regulierung entwickeln. Doch was neu und innovativ klingt, ist ein alter Hut. Früher hieß es nur anders, etwa Modellversuche oder Pilotprojekte.
Gesetze gelten grundsätzlich für alle. So sichern sie Gleichbehandlung und schaffen Rechtssicherheit. Aber natürlich sind Gesetz heute nicht mehr für die Ewigkeit gemacht wie einst die Zehn Gebote. Gesetze sind auch Instrumente der Politik. Sie können novelliert werden, wenn sich die politischen oder realen Verhältnisse ändern.
Doch manchmal weiß eine Gesellschaft noch nicht so genau, was sie von neuen Ideen halten soll. Dann kann sie diese erst einmal in kleinerem Format praktisch testen. Das Gesetz wird nicht für alle geändert, man erlaubt lediglich Experimente, die sonst verboten wären.
Seit dem gesellschaftlichen Aufbruch in den 1960er Jahren erlaubten Gesetze per Experimentierklausel immer wieder Modell- oder Pilotversuche, meist auf Dauer von einigen Jahren, oft mit wissenschaftlicher Begleitforschung.
Man denke nur an die vielen Schulversuche, oft mit reformpädagogischen Ansatz, wie bei der prominenten Laborschule Bielefeld. In Österreich gab es zeitweise mehr Schulversuche als Regelschulen. Wichtig waren Modellversuche auch in der Drogenpolitik, etwa der Schweizer Versuch mit der kontrollierten Abgabe von Heroin in den 1990er Jahren, der weltweit beachtet wurde.
Auch die Zulassung privater Rundfunksender in Deutschland war in den 1980er Jahren von Kabelpilotprojekten begleitet, wie sie etwa in Ludwigshafen liefen. Hier dienten die Pilotvorhaben weniger dazu, neue Erkenntnisse zu gewinnen, als für Akzeptanz in der Bevölkerung zu sorgen. Als die Projekte ausgewertet waren, hatte sich der Privatfunk schon etabliert.
Modellversuche sind also je nachdem mal progressiv, mal neoliberal und zudem vom Zeitgeist abhängig.
Seit 2018 arbeitet das Bundeswirtschaftsministerium an einer Strategie für Reallabore. Auch hier sollen Experimentierklauseln das Erproben neuer Geschäftsmodelle und Technologien ermöglichen.
Vorreiter war damals Wirtschaftsminister Peter Altmaier (CDU). Sein Nachfolger Robert Habeck (Grüne) schrieb auf Grundlage des Ampel-Koalitionsvertrags die Reallabor-Strategie fort. Ende 2024 beschloss das Bundeskabinett sogar einen eher wolkigen Gesetzentwurf zur Förderung von Reallaboren, der mit dem Ampel-Aus jedoch obsolet wurde.
Sehr viele Reallabore gibt es in Deutschland noch nicht. Am bekanntesten ist eine Versuchsklausel, derzufolge in einigen Jahren das autonome Fahren mit fahrerlosen Autos gestattet werden kann. Habecks Ministerium verweist auch gern auf die 14 Reallabore, um Techniken der Energiewende vor Ort zu testen.
Auch das Bundesjustizministerium plante Reallabore, die an einigen Amtsgerichten Online-Zivilprozesse erproben sollten. Dieses Gesetz hat das Ampel-Aus ebenfalls nicht überlebt.
Am folgenreichsten für die Praxis ist wohl die EU-weite Vorgabe in der EU-KI-Verordnung (AI Act). Sie verpflichtet alle EU-Staaten, bis August 2026 mindestens ein KI-Reallabor zur Erprobung von Vorhaben mit künstlicher Intelligenz anzubieten.⇥Christian Rath
© LMd, Berlin