Open menu
x

Bequem up to date mit dem Newsletter von Extrajournal.Net!

Jetzt anmelden, regelmäßig die Liste der neuen Meldungen per E-Mail erhalten.

Weitere Informationen finden Sie auf unserer Newsletter-Seite sowie in unserer Datenschutzerklärung.

Business, Recht, Tools, Veranstaltung

Event: „Ein Drittel der Informationen von ChatGPT ist falsch“

Flora Schmudermayr, Rudolf J. Melzer, Clemens Pig, Alexandra Ciarnau, Roland Fleischhacker, Isabella Mader, Marcus Hudec, Verena Krawarik ©IFWK

Wien. Wie vertrauenswürdig ist die Information, die ChatGPT produziert und wo liegen Potenziale für Unternehmen, Medien und Bildungssystem? Diesen Fragen widmete sich ein Talk des Internationalen Forums für Wirtschaftskommunikation (IFWK).

„ChatGPT ist kein Recherchewerkzeug“, erklärte Verena Krawarik, Leiterin der Stabsstelle Innovationsmanagement und des Medialab der Austria Presse Agentur (APA) in ihrer Keynote:„Während Experimente beim Vereinfachen und Zusammenfassen von Texten gute Ergebnisse zeigen, ist ChatGPT – entgegen der noch weit verbreiteten Meinung – nicht imstande, Wissen zu generieren. Wir haben ChatGPT anhand vieler Fallbeispiele getestet.“

Krawarik warnte vor einem „enormen“ Fakenews-Potenzial, wenn Informationen ungeprüft weiterverwendet werden, und „gerade, wenn es um Copyright geht, stehen wir noch ganz am Anfang der Debatte.“ Um „gewissenhaft und sinnvoll“ mit der Software umgehen zu können, braucht es laut Krawarik „neue Kompetenzen“, aber auch „Guidelines für den ethischen Umgang“. „Hier sind neben den Unternehmen selbst vor allem auch das Bildungssystem gefordert, neue Technologien wie ChatGPT aktiv in den Unterricht einzubauen“, so Krawarik.

Verbesserungspotenzial beim Umgang mit Falschinformationen

Bundesschulsprecherin Flora Schmudermayr sah in Schulen und Hochschulen großes Verbesserungspotenzial beim Umgang mit Falschinformationen: „Gut ist, dass im neuen Fach ‚Digitale Grundausbildung‘ nicht mehr nur das Zehn-Finger-System gelehrt wird, sondern eben auch das Erkennen von Fake News und wie Quellen richtig verwendet werden. Es ist unumgänglich, ChatGPT im Unterricht einzubauen und vor allem, sich als Lehrkraft bewusst zu werden, wie ich Angaben schreiben muss, damit eine Aufgabe eben nicht mit ChatGPT gelöst werden kann.“

Schmudermayr stellte fest, dass das Programm kürzlich die Zentralmatura bestanden hat. „Da stell ich schon die Frage, ob unsere Matura noch die richtigen Kompetenzen abfragt“, so die Bundesschulsprecherin. „Im Idealfall unterrichtet man an Schulen und Hochschulen Methoden und nicht nur Auswendiglernen. Denn diese Methoden sind die Basis für Berufe von morgen, die es momentan noch gar nicht gibt“, ergänzte Isabella Mader, Vorstand von Excellence Research, Informationswissenschaftlerin und Lehrende für IT-Strategie an der FH Hagenberg.

„Wir dürfen nicht den Fehler machen, zu glauben, dass uns künstliche Intelligenz oder Technologie Jobs wegnimmt. Richtig eingesetzt, kann es Wissensarbeit massiv entlasten. Gerade bei Quellenangaben arbeitet das Programm noch nicht ausreichend gut. Der beste Faktencheck sitzt immer noch zwischen unseren Ohren“, so Mader.

„KI wird Menschen nicht entmachten“

Marcus Hudec, CEO von Data Technology, meinte, dass man grundsätzlich zwischen dem Produkt ChatGPT und der zugrundeliegenden Technologie, den Large Language Models, unterscheiden muss: „Die Large Language Models haben einen großen Wert für die Wissenschaft, sie haben aber kein Wissen. Wenn es gelingt, Systeme der Wissensverwaltung und -speicherung mit Large Language Models näher zusammenzubringen, dann erleben wir den nächsten Quantensprung.“

„Derzeit sind die Systeme wirklich dumm und führen eher zu Halbwissen“, so Hudec. Die Technologie ist laut dem Data Technology CEO „sehr relevant“ für die Wissenschaft und „es ist klar, dass wir uns intensiv damit auseinandersetzen müssen, um die Technologie intelligent zu nutzen. Künstliche Intelligenz wird Menschen nicht entmachten, aber klug genutzt kann sie uns künftig entlasten.“

„Ein Drittel der ChatGPT-Informationen ist falsch“

Roland Fleischhacker, CEO von Deepsearch, ergänzte: „Es ist wichtig, zu wissen, dass momentan ein Drittel der Informationen, die ChatGPT ausspuckt, falsch ist. Wenn man die Software aber mit konkretem Wissen füttert, zum Beispiel mit Informationen zu einem Unternehmen, kann es gute Texte und präzise Antworten liefern. Und das ist schon ein Quantensprung für viele Unternehmensprozesse, nämlich das Wissen aus langen Texten mit konkreten Fragen und Antworten zusammenzuführen.“

Derzeit liegt laut Fleischhacker die Gefahr bei ChatGPT im „unverarbeiteten“ Content, auf den ChatGPT zurückgreift, also zum Beispiel von Chatforen oder Plattformen, die nicht redaktionell bearbeitet werden.

KI kann nicht Urheber sein

Ein wesentlicher Aspekt zum Thema ChatGPT ist die rechtliche Perspektive. „Laut Gesetz ist der Urheber eine natürliche Person. Dem folgend kann eine KI nicht Urheber sein“, erklärte Alexandra Ciarnau, Wirtschaftsanwältin und Co-Leiterin der Digital Industries Group bei der Anwaltskanzlei Dorda: „Wenn die KI nur meine Befehle ausübt, dann gehören die Resultate mir. Das ist eine spannende Abgrenzungsfrage. Denn wie viel Anweisungen muss ich der KI geben, damit es mein Werk ist?“

Die Anwältin analysierte auch das Thema Haftbarkeit: „Künstliche Intelligenz ist noch lange keine juristische Person, sie ist ein Werkzeug. Wer ist also für Schäden verantwortlich, die durch KI entstehen? Zum Beispiel ist Diskriminierung, die durch einen Chatbot entstanden ist, schwer nachweisbar. Künftig wird man hier sehr viel in Security und die Umsetzung der neuen Anforderungen nach dem AI Act investieren müssen.“

Weitere Meldungen:

  1. Eisendle kommt neu in den Vorstand der RegionalMedien Austria
  2. Techbold macht Ralph Wenighofer zum ersten Chief Security Officer
  3. Hg verkauft SaaS-Softwarehaus F24 mit Latham & Watkins
  4. Datacenter: Nexspace startet in Österreich mit Latham und E+H