Rückblick 19. Bayerischer IT-Rechtstag 2020
„Künstliche Intelligenz und Recht“

Der 19. Bayerische IT-Rechtstag am 15. Oktober 2020 tagte erfolgreich live-online

Gut 140 Teilnehmer nahmen an der vom Bayerischen Anwaltverband in Kooperation mit der Arbeitsgemeinschaft Informationstechnologie im Deutschen Anwaltverein und der Universität Passau, Lehrstuhl für Sicherheitsrecht und Internetrecht veranstalteten Tagung teil.

Auch in Zeiten von Corona fand am Donnerstag, den 15.10.2020 zum 19. Mal der Bayerische IT-Rechtstag statt; natürlich dieses Mal coronakonform online über „edudip“ und nicht wie sonst als Präsenzveranstaltung in München. Trotz anfänglicher IT-Probleme, vor denen eben sogar IT-Anwältinnen und Anwälte nicht gefeit sind, gewöhnte man sich schnell an das neue Format: So konnten die rund 140 Teilnehmerinnen und Teilnehmer den live übertragenen Vorträgen zum Thema „Künstliche Intelligenz und Recht“ nicht nur folgen, sondern sogar per Chatfunktion eigene Fragen einbringen, die der Moderator RA Prof. Dr. Peter Bräutigam (Noerr LLP), München dann etwas gebündelt an die Referentinnen und Referenten richtete.


Da sich RA Michael Dudek, Präsident des Bayerischen AnwaltVerbandes, München wegen Krankheit entschuldigen musste, übernahm Frau RAin Dr. Christiane Bierekoven (Dr. Ganteführer, Marquardt &
Partner mbB), Düsseldorf (GfA DAVIT) allein die freundliche Begrüßung der Teilnehmerinnen und Teilnehmer. Sie unterstrich die wichtige Rolle der IT-Rechtler bei der Mitgestaltung der Zukunft sowie der neuen Realität nach Corona, die nur durch neue, innovative IT-Lösungen möglich sein werde.


RA Prof. Dr. Bräutigam leitete anschließend zur keynote des Tages „KI – Ethik und Recht“ über, die von seinem „langjährigen Freund und schon mehrmaligen Referenten auf dem bayerischen IT-Rechtstag“ Prof. Dr. Dirk Heckmann, Lehrstuhl für Recht und Sicherheit der Digitalisierung an der Technischen Universität München, TUM School of Governance, gehalten wurde. Heckmann betonte zunächst sehr, dass Ethik mehr sei als Recht: Falls ein Verstoß gegen Grundrechte bei der Nutzung von KI vorliege, sei dies nicht nur ethisch verwerflich, sondern eben auch und vor allem rechtswidrig. Daher sei eine breite, gesellschaftliche, ethische Debatte über KI wünschenswert, müsse sich aber von der Klärung bzw. Gestaltung der Rechtslage klar abgrenzen. Zwar seien durch Corona KI Anwendungsfälle wieder mehr in den Fokus gerückt wie beispielsweise im Rahmen der medizinischen Forschung, der Automatisierung von Verwaltungsprozessen oder Überwachungstechnologien.

Als Beispiel für einen möglichen legislativen Umgang mit diesen Entwicklungen berichtete er von seiner eigenen Erfahrung bzgl. der bayerischen Verordnung zur Erprobung elektronischer Fernprüfungen (BayFEV). Für ein allgemeines KI-Gesetz sei es aber (immer noch) zu früh, da es nach wie vor an einer klaren Konturierung fehle und die Gesellschaft erst noch weiter lernen bzw. möglichst breit diskutieren müsse, bevor eine Regulierung sinnvoll sei.

Als nächster Redner folgte Axel Voss, Mitglied des Europäischen Parlaments für die CDU/EVP, der unter dem Titel „KI und Haftung“ Einblicke in seinen neuen „Bericht mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz“ gab (vgl. hierzu auch https://www.europarl.europa.eu/doceo/document/A-9-2020-0178_DE.pdf sowie https://www.europarl.europa.eu/news/de/press-room/20201016IPR 89544/parliament-leads-the-way-on-first-set-of-eu-rules-for-artificialintelligence).
Ziel sei es, für Hochrisiko-KI-Systeme eine neue Gefährdungshaftung einzuführen. Dabei sei natürlich schwierig, wie dieses Risiko ex ante zu bestimmen sei, da man sich nur bei Kenntnis als Betreiber dagegen versichern könne, wie auch seitens des Publikums in den späteren Fragen angemerkt wurde. Vorerst seien daher v.a. zwei Kriterien gewählt worden: Das System müsse die gewichtigen Rechtsgüter Körper, Leben, Eigentum potentiell schädigen können und zweitens dürfe nicht vorhersehbar sein, wer geschädigt werden kann; unjuristisch könne man also sagen, wer im Öffentlichen Raum getroffen werden könne. Ein Gegenbeispiel sei hierzu der Chirurgie-Roboter, bei dem der jeweilige Patient klar erkennbar sei. Positiv-Beispiele für solche high-risk-Systeme seien hingegen z.B. das autonome Fahren, Drohnen oder auch automatische Verkehrsleitsysteme. Gleichzeitig habe man der Kommission auferlegt, eine Liste solcher Systeme zu erstellen sowie eine permanente Risiko-Bewertung  vorzunehmen; man sei aber bis 2021 auch für weitere Hinweise aus der Praxis sehr dankbar.


Nach einer kurzen digitalen Kaffee-Pause folgte der Vortrag von Frau Dr. Lea Katharina Kumkar,
Institut für Medien- und Informationsrecht, Abt. I: Privatrecht, an der Albert-Ludwigs-Universität Freiburg im Breisgau zum Thema „Künstliche Intelligenz im Vertrags- und Kartellrecht“. Für den Bereich des Vertragsrechts stelle sich das Problem mit KI vor allem im Zusammenhang mit der Frage vom Zustandekommen von Verträgen: d.h. genauer gesagt bei der Thematik von Vertragsschlüssen durch KI. Dazu sei es aber zunächst erforderlich, automatisierte von autonomen Systemen abzugrenzen, da sich nur bei Letzteren die Frage nach der Zurechnung von Willenserklärungen stelle.

Bei automatisierten, d.h. konditional operierenden Systemen, deren Entscheidungen sowohl vorhersehbar als auch nachvollziehbar seien, nehme die h.M. bereits jetzt die Zurechnung der Willenserklärungen durch die Figuren der „elektronischen Willenserklärung“, der „Computererklärung“ als auch der „automatischen Willenserklärung“ vor. Bei autonomen, selbstlernenden Systemen seien deren abgegebene Erklärungen aber eben gerade nicht vorhersehbar als auch nicht nachvollziehbar. Mangels e-person de lege lata – und ihrer Ansicht nach auch mangels Bedarf einer solchen de lege ferenda – stelle sich hier die Frage der Zurechnung der Erklärung; wenn auch in der Praxis noch nicht weit verbreitet: Ihrer Ansicht nach gingen jedoch die bisher angedachten
Ansätze einer „Botenlösung“ oder einer „Analogie zu den §§ 164 ff. BGB“ sowie einer Bemühung des „Minderjährigenrechts“ an der Lösung des Problems vorbei. Vielmehr sei eine Zurechnung bereits über die allgemeinen Gedanken der Risikozuweisung bei hier meist nicht konkret vorliegendem Geschäftswillen des Systembetreibers möglich; vergleichbar mit der analogen Blankettunterschrift.
Für den Bereich des Kartellrechts sei – kurz gesagt – der kartellrechtliche Rechtsrahmen derzeit grundsätzlich ausreichend für den aktuellen Einsatz von Preisalgorithmen, wobei neue Gefährdungspotentiale durch innovative Geschäftsmodelle möglich seien.

Nach einer Mittagspause folgte der Vortrag zum Thema „Softwareentwicklung durch KI“ von Herrn
RA Dr. David Bomhard, Noerr LLP, München. Zunächst führte er technisch in dieses neue, spannende
Themengebiet ein und erläuterte, dass – stark vereinfacht anhand des Wasserfall-Modells – drei
Voraussetzungen erfüllt sein müssten, damit eine KI selbständig neue Software entwickeln könne:
Die Schritte eins und drei, die Anforderungen an den von der Software zu lösenden Aufgaben seien genauso wie das Testing am Ende digitalisierbar. Das erforderliche Coding, d.h. die Kombinationsfähigkeit als Schritt zwei, sei inzwischen durch stark gestiegene Rechenkapazitäten
autonom möglich geworden. Fraglich sei nur, wem der durch die KI entwickelte Code anschließend gehöre. Er leitete im Folgenden seine These her, dass Software, die von KI entwickelt wurde, dauerhaft gemeinfrei sei. Grundvoraussetzung sei dafür jedoch zunächst, dass es sich überhaupt um von KI entwickelten Code handele, d.h. die KI tatsächlich „geistiger Schöpfer“ und nicht nur „Hilfsmittel“ zur Entwicklung gewesen sei. Genauso wie bei nicht-personenbezogenen Maschinen-Daten, die ebenfalls im Regelfall gemeinfrei seien, stelle sich mangels de lege lata vorhandenem Leistungsschutzrecht
das Problem von großen wirtschaftlichen Werten, die rechtlich jedoch nicht wirklich geschützt sind. Daher sei bislang die einzige Möglichkeit, schuldrechtlich urheberrechtliche Positionen nachzubilden
und Geheimhaltungspflichten sowie Vertragsstrafen durchzusetzen. Dies alles wirke aber eben nur vertraglich inter partes und nicht gegenüber Dritten. Daher werde man zukünftig über die Einführung eines neuen Leistungsschutzrechts zur Investitions-Sicherung nachdenken müssen. Dies könnte  jedoch auch neue Herausforderungen wie drohende Monopolbildungen der big player mit sich bringen, weshalb der weitere Verlauf erst einmal abzuwarten sei.


KI -Rechte und Strafen für Roboter? Prof. Dr. Karsten Gaede, Lehrstuhl für Deutsches, Europäisches und Internationales Strafrecht und Strafprozessrecht, einschließlich Medizin- Wirtschafts- und Steuerstrafrecht, an der Bucerius Law School in Hamburg, folgte mit seinem Vortrag „Künstliche Intelligenz – Data ante portas?“ in dem er zunächst den momentanen Forschungsstand zu künstlicher Intelligenz skizzierte. KI könne mittlerweile künstlich Wissen aus Erfahrung generieren („maschinelles Lernen“). Allerdings beschränken sich die Möglichkeiten in dieser Hinsicht noch auf Imitation und Optimierung sowie auf die Lösung vordefinierter Aufgaben.

KI sei also noch nicht in der Lage, gesamthafte substanzielle autonome Entscheidungen zu treffen, denn dafür müsste sie über ein Bewusstsein verfügen, was auch mittelfristig nicht zu erwarten sei. Zu erwarten sei allerdings für die nahe Zukunft, dass fieberhaft in die Entwicklung von KI investiert und die Rechenkraft enorm gesteigert werde. Womit wir hier genau rechnen müssen, ist jedoch ungewiss: Weil die Forschung in hohem Maße reine Privatsache sei, sei unser Informationsstand ziemlich ungesichert.

Sodann ging der Referent auf die Frage ein, ob und inwiefern wir eine schwache, aber nicht vollständig kontrollierbare KI bestrafen bzw. in Haftung nehmen und Menschen, die mit ihnen in Kontakt stehen,
diesbezüglich entlasten können (z.B. autonome Fahrzeuge, Operationssysteme bis hin zu Pflegerobotern). Es folgte ein Gedankenexperiment: Wenn wir es eines Tages mit einer „echten“, starken KI zu tun haben werden, die ein Bewusstsein entwickelt und andere Subjekte erkennen und respektieren kann, müsste KI dann den Status als Rechtssubjekte bekommen? Dies würde nämlich wiederum bedeuten, dass sie auch bestraft werden könne trotz der fehlenden Fähigkeit, Leid zu empfinden. Der Referent plädierte dafür, sich mit solchen Fragen bereits jetzt zu beschäftigen und ein internationaler Rechtsrahmen zu schaffen – nicht zuletzt um unkontrollierbare Entwicklungen zu verhindern.


Nach der Pause ging es mit dem Vortrag von RA Markus Hartung zum Thema „KI und Legal Tech im berufsrechtlichen Dickicht“ weiter. Der Referent nahm die Zuhörer mit auf eine spannende Spurensuche nach den Ursprüngen von Legal Tech.

So habe man bereits seit den 50er Jahren präzise Vorstellungen von Robotern. Zwar wurde der Zugang zu Leistung immer einfacher (insb. mit der Entwicklung der Handys zum iPhone). Allerdings hinke der
Zugang zum Recht hinterher: Sowohl dem Juristen als auch dem Nicht-Juristen präsentiere sich das Recht insgesamt sehr verschlossen, was die Frage nach einer Vereinfachung provoziert. Hier biete Legal Tech in seinen konkreten Ausprägungen zahlreiche Potentiale, bspw. die bessere Durchsetzung von Verbraucherrechten und die Bewältigung von Massenverfahren. Der Referent betonte jedoch, dass Menschen – insb. Juristen – Informationen in unstrukturierter Form austauschen, weshalb es für Software so schwer sei Sprache zu erkennen und zu verstehen.

Auch wenn die Automatisierungswahrscheinlichkeit der Tätigkeit als Anwalt von Studien auf 3,5 % beziffert wurde (bei Richtern: 40 %), gebe es in der Anwaltschaft mit Blick auf Legal Tech eine hohe
Verunsicherung. Der Referent ging auf die zentrale Frage ein, wie sich das aktuelle Spannungsverhältnis zwischen RDG und Legal Tech auflösen lassen. Die Diskussion dreht sich dabei zentral um den Begriff der Rechtsdienstleistung und die Frage, inwiefern Softwareanwendungen
darunter fallen können.


Anschließend folgte ein Impuls-statement von Christin Schäfer, die die These in den Raum stellte, technische Systeme seien nicht „autonom“ und daher gebe es keine „künstliche Intelligenz“. Künstliche Intelligenz sei vielmehr ein sugges-tives Flügelwort, das bestimmte Assoziationen hervorrufe, die wenig zielführend seien. Statt sich von Assoziationen tragen zu lassen, sollten Juristen noch viel mehr mit Praktikern reden und sich mit datengetriebenen Systemen beschäftigen.

Die Referentin verdeutliche zudem, dass Compliance aufgrund zahlloser Anforderungen für FinTechs zur existenziellen Kostenfrage werden können. Früher hieß es “Too big to fail.”, heute heißt es “Too small to exist.” Die Referentin appellierte an die Juristen, sich bewusst zu sein, dass Änderung von
Softwaresystemen oft nicht so einfach umzusetzen seien wie der zugrundeliegende juristische Text, „Wort ungleich Technik“. Bei Regulierung sei daher immer ein Systemblick erforderlich.


Schließlich folgte ein Impulsstatement von Prof. Dr. Moritz Hennemann, der dazu aufrief, bei der Regulierung differenzierter vorzugehen: Statt pauschal von „allgemeinen KI-Gesetzen“ zu sprechen sei es wichtig, sowohl globale und nationale Perspektiven zu berücksichtigen, also auch zwischen Staat-Staat-, Staat-Bürger- und Bürger-Bürger-Verhältnis zu unterscheiden. Der Referent verdeutlichte unter Verweis auf die DSGVO, dass man sich auch als Gesetzgeber immer wieder klarmachen müsse, dass heutige Regelungen weltweit ausstrahlen können.


Abgerundet wurde der 19. Bayerische IT-Rechtstag mit einer Diskussionsrunde zur Frage, on und wie sich KI sinnvoll regulieren lässt.“


Damit ging ein spannender online-Tag zu Ende und es blieb einem eigentlich nur noch, sich auf das nächste Jahr – dann hoffentlich wieder analog – in München zu digitalen Themen auf das Jubiläum des 20. Bayerischen IT-Rechtstags zu freuen!


Simon Tannen, Universität Bayreuth
RA Dr. David Bomhard, Noerr LLP, München