Interview. Mit dem AI Act will die EU negative Auswüchse der Künstlichen Intelligenz (KI) zügeln: Das Pionierprojekt ist begrüßenswert,doch erste Probleme sind absehbar, sagt Dominic Gerstenberger, KI-Experte in der Anwaltskammer (ÖRAK) und europäischen Anwaltsvereinigung CCBE.
Extrajournal.Net: Der AI Act ist beschlossen: Das EU-Gesetz zur Künstlichen Intelligenz soll nach dem Willen von EU-Parlament und EU-Rat die sichere Anwendung von KI-Systemen gewährleisten. Welche der durch den AI Act geregelten Themen sind aus der Sicht der Anwälte am bedeutsamsten?
Dominic Gerstberger: Künstliche Intelligenz (KI; zu Englisch: AI) ist seit Jahren in aller Munde. Begrifflich ist diese schwer zu fassen. Dies zeigen nicht zuletzt die langwierigen Diskussionen um die Begriffsdefinition im AI Act. Die letztlich gewählte Definition umfasst einen weiten Bereich an Systemen vom einfachen KI-unterstützten Recherchetool bis hin zu kritisch zu hinterfragenden generativen KI-Systemen, die beispielsweise Verträge und Schriftsätze generieren können.
Der AI Act ist international der erste umfassende Gesetzgebungsakt zur Regulierung künstlicher Intelligenz. Die grundsätzliche Zielsetzung des Gesetzgebungsvorhabens wurde und wird vom Österreichischen Rechtsanwaltskammertag (ÖRAK) sowie dem Europäischen Rat der Anwaltschaften (CCBE) gutgeheißen. Im Zentrum stand dabei die Einführung einer auf den Menschen ausgerichteten, vertrauenswürdigen künstlichen Intelligenz sowie der Schutz der Grundrechte und der europäischen Grundwerte, einschließlich der Demokratie und Rechtsstaatlichkeit. Vom AI Act betroffen sind Anwältinnen und Anwälte in mehrerlei Hinsicht:
- In der Standesvertretung legen wir den Fokus auf den Schutz der grundrechtlich geschützten Kernwerte des Anwaltsstandes. Im Vordergrund stehen dabei betreffend den AI Act etwa der Schutz der anwaltlichen Verschwiegenheit (insb. der Schutz vertraulicher Klientendaten), der Rechtsstaatlichkeit (zB Recht auf einen menschlichen Richter) und der Schutz der Grundrechte (zB Verhinderung eines Überwachungsstaats, etwa durch Methoden wie Social Scoring und biometrische Identifikation).
- Als praktizierende Anwältinnen und Anwälte betrifft uns der AI Act aber natürlich ebenfalls. Dies zum einen in der Beratung unserer Mandantin beim Einsatz oder der Entwicklung von KI, aber auch selbst als Anwender oder gar Entwickler von KI. Letzteres wird durch Anbieter von Legal Tech aktuell immens befördert.
„Detailprobleme zeigen sich oft erst im Rahmen der Anwendung“
Extrajournal.Net: Sie sitzen in den IT-Gremien der Anwälte sowohl in Österreich (ÖRAK) als auch auf Europa-Ebene, in der europäischen Anwaltsvereinigung CCBE. Ist aus Sicht dieser Gremien absehbar, ob der AI Act Lücken aufweist, wie ihm Kritiker manchmal vorwerfen? Ist er zu weit gefasst oder zu streng – kurz gesagt, werden Aspekte durch künftige Novellen neu geregelt werden müssen?
Dominic Gerstberger: Wie bei neuen Rechtsakten üblich zeigen sich die Detailprobleme häufig erst im Rahmen der Anwendung der Regelungen. Aus Sicht der Standesvertretung blieb der AI Act aber – nicht zuletzt deshalb, weil die Veröffentlichung von und der Hype um ChatGPT und der dadurch entstandene politische Druck den Gesetzgebungsprozess erheblich beschleunigte – an einigen Stellen hinter dem Gewünschten zurück. Drei Beispiele seien hierzu angeführt:
- Ein Defizit aus Sicht des CCBE ist etwa bereits im Anwendungsbereich zu erkennen. So soll der AI Act in Angelegenheiten der nationalen Sicherheit keine Anwendung finden und fehlen daher in diesem Bereich wichtige Rechtsschutzmöglichkeiten Betroffener, etwa in zuletzt medial wieder sehr präsenten Fällen von Spionage.
- Seitens des CCBE beanstandet wurde auch die erst spät im Gesetzgebungsprozess eingeführte abgestufte Qualifikation von Hochrisiko-KI-Systemen. KI-Systeme sind danach nicht bereits deshalb als hochriskant zu qualifizieren, weil sie in eine der im Anhang III genannten Hochrisiko-Kategorien fallen. Vielmehr müssen sie zudem ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen darstellen. Diese weitreichende Ausnahmeregelung des AI Act bringt unseres Erachtens ein erhebliches Maß an Rechtsunsicherheit und schränkt den Kreis der Hochrisiko-Systeme zu sehr ein. Auch betroffene Hersteller und Betreiber, die letztlich selbst zu beurteilen und zu dokumentieren haben, ob ihr KI-System als Hochrisiko-System zu qualifizieren ist, werden es im Rahmen der dabei erforderlichen Folgenabschätzung sehr schwer haben.
- Weitergehende Einschränkungen hätte man sich aus Sicht der Anwaltschaft auch bei Systemen der biometrischen Identifikation gewünscht. Biometrische Identifikation greift stets tief in die Grundrechte, beim Einsatz im Rahmen von Strafverfolgung auch in strafprozessuale Rechte der Betroffenen ein. Zwar soll der Einsatz von biometrischer Identifikation in öffentlich zugänglichen Bereichen grundsätzlich untersagt sein. Das Verbot wurde jedoch mit einer Vielzahl an Ausnahmen versehen. So sollen etwa Bereiche der Grenzkontrollen nicht als öffentlich zugängliche Bereiche qualifiziert werden.
KI-Einsatz in Anwaltskanzleien: „Gewissenhafte Überprüfung muss erfolgen“
Extrajournal.Net: Der ÖRAK bzw. seine Arbeitsgruppen geben den Anwälten derzeit schon Empfehlungen, wie sie unter anderem Datenschutz und Sicherheit bei der Verwendung von IT gewährleisten können. Wie groß ist die Umstellung, die durch für solche Berufsprofis den AI Act jetzt notwendig sein wird – ist sie weitreichend oder im Wesentlichen bereits berücksichtigt?
Dominic Gerstberger: Das Ausmaß des Anpassungserfordernisses für Anwältinnen und Anwälte hängt jedenfalls vom Digitalisierungsgrad der jeweiligen Kanzlei und insbesondere von der Verwendung von KI-Systemen im Kanzleibetrieb ab. Insbesondere aufgrund der in Anwaltskanzleien regelmäßig verarbeiteten sensiblen Klientendaten und der hohen Qualitätsstandards des Anwaltsstandes sind zum Einsatz gebrachte KI-Systeme genau zu prüfen. Dies war beim Einsatz von Software in Anwaltskanzleien freilich aufgrund standesrechtlicher und -ethischer Vorgaben sowie nicht zuletzt deshalb, weil schon Art 22 der Datenschutz-Grundverordnung einen rechtlichen Rahmen für automatisierte Verarbeitung personenbezogener Daten vorsah, bereits bisher der Fall.
Trotz der Sensibilität, die der Anwaltsstand bereits bisher im Hinblick auf derartige Systeme an den Tag legte, macht der AI Act aber freilich auch in Anwaltskanzleien eine Umstellung bzw. Einstellung auf den damit einhergehenden Pflichtenkatalog erforderlich.
Ungeachtet der Zulässigkeit und der Praktikabilität der Anwendung von Applikationen Künstlicher Intelligenz (zB KI-gestützte Recherchetools, Assistenzsysteme für Vertragsprüfungen und -errichtungen) muss aber die hohe Qualität der Leistungen unserer Standeskolleginnen und -kollegen gewahrt bleiben. Letztlich hat demnach jede Anwältin / jeder Anwalt die Arbeitsergebnisse inhaltlich zu prüfen und für die Qualität derselben einzustehen. Ob gewisse Arbeitsschritte (z.B. einfache Recherchen oder das Zusammenfassen von Texten) nun mithilfe künstlicher Intelligenz vorbereitet werden, darf für die verantwortliche Anwältin / den verantwortlichen Anwalt, aber auch aus Sicht der Klientin/des Klienten keinen Unterschied machen. In beiden Fällen hat eine gewissenhafte Überprüfung und gegebenenfalls Überarbeitung zu erfolgen.
Im Interview
Dominic Gerstberger ist Rechtsanwalt und Partner bei Kanzlei GLTP Grassner Lenz Thewanger + Partner in Linz. Er ist als Mitglied im Arbeitskreis IT und Digitalisierung des österreichischen Rechtsanwaltskammertages (ÖRAK) und als Experte im IT Law Committee in der europäischen Anwaltsvereinigung CCBE mit dem Thema AI Act befasst.