Open menu
x

Bequem up to date mit dem Newsletter von Extrajournal.Net!

Jetzt anmelden, regelmäßig die Liste der neuen Meldungen per E-Mail erhalten.

Weitere Informationen finden Sie auf unserer Newsletter-Seite sowie in unserer Datenschutzerklärung.

Business, Recht, Tools, Veranstaltung

Sichere AI für das Recht am 4Gamechangers Festival

Plank, Mortimore, Rock, Georgieva, Velsberg ©4GAMECHANGERS

Wien. Sichere und verlässliche AI (KI) war Thema beim 4Gamechangers Festival: Google, LexisNexis, Tributech u.a. zeigten die Entwicklung.

Wie LexisNexis sichere und verlässliche AI entwickelt, schilderte Susanne Mortimore am 4Gamechangers Festival bei der Podiumsdiskussion mit Ott Velsberg (Chief Data Officer Estland), Lucy Georgieva (Google) und Thomas Plank (CEO Tributech) zum Thema „Safeguarding the Future: The Crucial Role of Security in AI“.

Insgesamt zeigte die Diskussion, dass AI auch Risiken birgt, aber vor allem große Chancen biete, heißt es dazu: Wenn Sicherheit von Anfang an mitbedacht werde, biete AI sowohl wirtschaftlich als auch gesellschaftlich ein immenses Potenzial.

Über Qualität und das Vermeiden unzulässiger KI-Rückläufe

Susanne Mortimore (CEO LexisNexis Österreich) betonte, dass technische Expertise und Umfeld wichtig sind für das Training einer AI, und vor allem Datenschutz eine Grundvoraussetzung ist (zum Beispiel, dass eingegebene Infos nicht zurücklaufen, um das Modell zu trainieren oder um das Wissen des Modells zu erweitern). Daneben spielen thematische Expertise bei Rechtsinhalten eine herausragende Rolle.

LexisNexis folge dabei der internen Richtlinie „human in the loop“, also  menschliche Aufsicht beim Finetunig der AI Ergebnissen: LexisNexis beteilige viele Rechtsexpert:innen direkt an der Entwicklung von AI, um zB die Ergebnisse der AI zu kontrollieren. Firmen müssen bei Ihren AI Produkten transparent sein, mit welcher Wahrscheinlichkeit richtige Antworten geliefert werden. Die EU hat vor wenigen Monaten eine Einigung beim AI Act erzielt – LexisNexis habe schon längere Zeit konkrete interne Richtlinien für verantwortungsvolle AI.

Nicht Anwälte ersetzen, sondern mehr Zeit für spannende Aufgaben schaffen

Grundlegende Forderungen des AI Acts seien in LexisNexis’ Regeln bereits enthalten: Lösungen sollen erklärbar sein, menschliche Aufsicht & Datenschutz muss eingehalten werden und Vorurteile in Daten sollen vermieden werden. Neben verantwortungsvoll entwickelten Anwendungen müsse AI auch verantwortungsvoll genutzt und eingesetzt werden.

Mortimore unterstrich, dass eine AI zB eine Anwältin niemals ersetzen soll, und wies darauf hin, dass jedes Ergebnis von Jurist:innen kontrolliert und hinterfragt werden soll, die Letztentscheidung müsse beim Menschen bleiben. Mortimore möchte mittels AI das Versprechen einlösen, unser Arbeitsleben besser zu machen; Zum Beispiel, dass wir Routinen an AI delegieren können, um mehr Zeit für spannenden Aufgaben zu haben.

Der Suchmaschinen-Riese auf neuen Pfaden

Es werden noch viele neue Anwendungen für KI gefunden werden, hieß es beim 4Gamechangers Festival: Derzeit nutzen nur 8% der Industrieunternehmen und 15% der Leitbetriebe AI als signifikanten Teil des Geschäftsmodells. Bei Google gibt es AI schon seit Jahrzehnten, so Expertin Lucy Georgieva: Textvorschläge oder Wortverbesserungen sind AI, die wir tagtäglich nutzen. Generative AI sei ein Spezialfall, der nun Marktreife erlangt und daher noch viel Potenzial habe – und die Unternehmen seien dabei diese neue Technologie nun Schritt für Schritt zu übernehmen.

AI und Security spielen bei Google eine große Rolle, zB bei Gmail wird AI genutzt um 99% der Phishing Emails abzufangen, was freilich keine einmalige Lösung, sondern ein ewiges Wettrennen mit den Spammern ist: Täglich wird die KI mit neuen Gefahren gespeist, um den Filter aktuell zu halten. Georgieva glaubt, dass AI einen gesamtgesellschaftlichen Wert hat und erwähnte Alphafold (es errechnet 3D Proteinstrukturen und beschleunigt Forschung enorm), Überschwemmungsvorhersagen und Medizinscreening, die vor allem Entwicklungsländern zu Gute kommen.

KI im Baltikum: Ausbau in knappen Zeiten

Ott Velsberg ist für die Datenpolitik von Estland verantwortlich. Seit einem Jahrzehnt arbeitet er mit internationalen Partnern zusammen, denn Cybersicherheit ist eine weltweite Angelegenheit. Vor 20 und 12 Jahren und auch heute gebe es besonders viele Attacken auf estnische Infrastruktur, da macht es sich bezahlt, dass sie auch bei Budgetknappheit immer weiter investiert haben. Er setzt vor allem auf eine ganzheitliche Sicht: Man soll laufend neu bewerten, ob man Diensteanbietern, oder einzelnen Programm-Erweiterungen vertrauen kann und auch nicht den Blick auf die Technik beschränken: oft sind Personen oder Leitlinien innerhalb einerOrganisationen das schwächste Glied.

Estland nutze AI, um Anomalien in Daten bzw. Cyberbedrohungen zu erkennen, und beschäftigt sich bereits mit Quantenkryptografie. Die Bedrohungslage ist stets in Veränderung. Es gibt nun Scamanrufe, wo Stimmen von Verwandten mittels AI immitiert werden, um für einen vorgetäuschten Notfall Geld zu fordern. Es brauche neue Fähigkeiten und neue Lösungen für diese Probleme. Beispielsweise könne man mit Bekannten ein Losungswort ausmachen, um die Identität zu bestätigen – ein Losungswort, welches man niemals digital kommunizieren darf. Prinzipiell sei er Technologieoptimist und sieht es als Mission der Allgemeinheit persönliche AI-Assistenten bereitzustellen, zum Beispiel für Bildung und für individualisierte Gesundheitsempfehlungen.

Vergiftete Trainingsdaten lassen die KI-Lösung umkommen

Thomas Plank (CEO Tributech) verwies auf eine aktuelle Bedrohungslage im Bereich KI: Datapoisoning, also die Manipulation von Trainingsdaten, sowie Manipulation und Diebstahl von AI-Modellen. Wichtig sei, dass man in den Unternehmen Bewusstsein und Vorsicht schaffe. Bei AI zeige sich der Konflikt, dass sich Unternehmen zwischen „fast to market“ vs „secure to market“, also zwischen Entwicklungsgeschwindigkeit und Sicherheit entscheiden müssen. Das ist in der Vergangenheit bekanntlich nicht immer gut gegangen – Plan nannte die Entwicklungen bei IOT (Internet of Things) als Negativbeispiel. Millionen von Geräten, die keine Updates mehr erhalten, aber von ihren nichtsahnenden Eigentümern weiterhin verwendet werden, stellen durch Sicherheitslücken ein weltweites Risiko dar.

Als Best Practice empfiehlt Plank bei Daten auf den ganzen Lebenszyklus zu schauen, also Nachvollziehbarkeit und Fälschungssicherheit bis zum Tag 1 der Datenaufzeichnung. Er sei optimistisch, dass der Standort Europa noch die Möglichkeit hat, bei kritischer AI aufzuholen.

Weitere Meldungen:

  1. Manz feiert 175 Jahre mit Jubiläumsfest für die Mannschaft
  2. Aira Home erhält 200 Mio. Euro für Wärmepumpen mit Hogan Lovells
  3. Zwei neue Chefinnen für den Manstein Verlag
  4. Storyblok erhält 80 Mio. US-Dollar mit Schönherr und Wolf Theiss