Dieser Artikel wurde einerseits durch die dynamische Entwicklung und Einführung künstlicher Intelligenz in die rechtliche Praxis angeregt, die sowohl Potenzial als auch Risiken mit sich bringt, und andererseits durch mehrere Fälle, in denen wir mit Hilfe künstlicher Intelligenz erstellte Rechtsgutachten erhielten, von denen wahrscheinlich eher eine formelle Bestätigung als eine eigenständige rechtliche Analyse erwartet wurde.
In den letzten zehn Jahren hat sich die Entwicklung der künstlichen Intelligenz zu einer der größten Herausforderungen für Bereiche entwickelt, die auf menschlichem Urteilsvermögen und persönlicher Verantwortung basieren, darunter auch die Rechtsberufe. Obwohl die künstliche Intelligenz Möglichkeiten zur Steigerung der Effizienz, Vereinfachung und Optimierung im Rechtsbereich bietet, stößt ihr Einzug in einem Bereich, der traditionell auf rationaler Bewertung, Werten und moralischer Verantwortung basiert, auf natürliche Grenzen. Die Technologie kann den Zugang zur Justiz erleichtern, Verfahren transparenter machen und ihre Vorhersehbarkeit erhöhen, aber sie kann weder allein für Gerechtigkeit sorgen noch die persönliche Analyse des Juristen ersetzen.
I. Künstliche Intelligenz in verschiedenen Rechtsbereichen
Künstliche Intelligenz wird im Rechtsbereich auf vielfältige Weise eingesetzt – je nachdem, um welchen Rechtsberuf es sich handelt. Gerichtsverfahren umfassen oft riesige Mengen an Unterlagen und Beweismaterial. Künstliche Intelligenz kann Unterlagen innerhalb von Minuten systematisieren und zusammenfassen – eine Aufgabe, die einen Menschen Wochen kosten würde – und ermöglicht es den Parteien, Ermittlungsbehörden und Richtern, sich leichter in einem Fall zurechtzufinden. Diese Funktionen ersetzen nicht ihre Rolle, sondern ermöglichen es ihnen, sich auf das Wesentliche zu konzentrieren: die moralische und rechtliche Bewertung, Gerechtigkeit und Verantwortung gegenüber den vom Verfahren betroffenen Personen.
In notariellen Verfahren kann künstliche Intelligenz nur bei streng formalisierten Aufgaben helfen – beispielsweise bei der Überprüfung von Vorlagen oder Mustern, ob diese korrekt ausgefüllt sind und alle erforderlichen Angaben enthalten. Dies ist eine rein technische Unterstützung und hat keinen Einfluss auf die notarielle Beglaubigung selbst. Der Notar ist verpflichtet, die Parteien zu identifizieren und ihren Willen zu beurteilen. Daher kann das Endergebnis nicht einer automatisierten Entscheidung überlassen werden, und die Verantwortung liegt weiterhin vollständig beim Notar.
II. Der Rechtsanwalt und die künstliche Intelligenz
Der Einfluss der künstlichen Intelligenz auf den Anwaltsberuf ist besonders stark und umstritten. Von einem Anwalt wird erwartet, dass er ein Rechtsexperte, Stratege, Psychologe und Vertrauter seines Mandanten ist. Paradoxerweise verfügt künstliche Intelligenz theoretisch genau über diese Fähigkeiten – dennoch wird sie wohl niemals auch nur teilweise die Rolle eines Anwalts ersetzen können.
Die Tätigkeit eines Anwalts ist vielseitig und komplex – neben der Recherche und Analyse sowie der Vorbereitung von Dokumenten umfasst sie rationalisierte Handlungen, die einer Logik, Regeln oder Verfahren folgen, um ein bestimmtes Ergebnis zu erzielen – am deutlichsten kommt dies in der Prozessvertretung, in Verhandlungen und in der Beratung zum Ausdruck.
Tatsächlich kann KI die technische und administrative Arbeit von Anwälten erheblich erleichtern. In der Rechtspraxis wird ein Großteil der Arbeit mit Formularen erledigt – Anträge, Mustererklärungen, Rechnungen, sogar Vertragsvorlagen werden massenhaft verwendet. Obwohl künstliche Intelligenz bei solchen Tätigkeiten ein hervorragender Helfer ist, verlangt die Professionalität, dass die Arbeit selbst mit sogenannten „Musterdokumenten“ nicht unterschätzt wird. Selten gibt es zwei völlig identische Fälle, und manchmal kann schon ein kleines Detail die Bedeutung und den Inhalt eines Dokuments verändern, aus dem sich rechtliche Konsequenzen ergeben. Künstliche Intelligenz kann die Erstellung von Vorlagen und Routinetexten erheblich erleichtern, aber man sollte sich niemals ohne eigene Überprüfung darauf verlassen.
III. Probleme bei der Vorlage eines Rechtsfalls vor künstlicher Intelligenz
Die Neugier und der Wunsch, die Möglichkeiten eines so leistungsstarken Systems wie der künstlichen Intelligenz zu testen, sind völlig natürlich, und es ist verständlich, dass manchmal Laien und Nichtpraktiker persönliche Fälle zur Lösung vor das System bringen. Eines der größten Risiken bei der Verwendung von künstlicher Intelligenz ist hier eine falsch formulierte Frage. Ein Rechtsfall lässt sich selten genau in die Sprache der Algorithmen „übersetzen“, daher ist es bei der Arbeit mit KI von entscheidender Bedeutung, die Eingabedaten sorgfältig auszuwählen und eine anschließende Überprüfung der Ergebnisse sicherzustellen.
Fehlende Fakten, ein falscher Kontext oder unklare Formulierungen können zu völlig falschen rechtlichen Analysen führen. Außerdem "denkt" künstliche Intelligenz nicht wie ein Anwalt. Sie bewertet keine Beweise, wägt keine Argumente ab und trifft keine Entscheidungen – sie erstellt lediglich Texte, die logisch und überzeugend klingen, aber nicht unbedingt richtig sind. Für Anwälte, die sich bei einem wesentlichen Teil ihrer Arbeit auf künstliche Intelligenz verlassen möchten, besteht eines der größten Risiken darin, sie für die Recherche von Rechtsprechung zu verwenden. Künstliche Intelligenz funktioniert nicht wie eine juristische Datenbank – sie „sucht“ nicht nach realen und aktuellen Gerichtsentscheidungen, sondern generiert Inhalte auf der Grundlage der Modelle, auf denen sie trainiert wurde.
Wenn keine konkrete Präzedenzfall bekannt ist, kann die KI einen solchen „erfinden“ – mit einem fiktiven Namen des Falles, einer Nummer und sogar überzeugenden Begründungen. Dies liegt daran, dass sie mit Wahrscheinlichkeitsmodellen arbeitet, die ungenaue oder irreführende rechtliche Informationen liefern können, wenn sie nicht mit einer professionellen Überprüfung kombiniert werden.
Es entsteht auch das Problem der Verwechslung von Konzepten aus verschiedenen Rechtssystemen. Häufig treten sogenannte „Halluzinationen“ auf – erfundene Fakten, fiktive Zitate, nicht existierende Präzedenzfälle oder veraltete Rechtsnormen. Dies kann sogar bei Nutzung der wichtigsten Vorteile der kostenpflichtigen Versionen einiger Systeme passieren, trotz der besseren Personalisierung ihrer Antworten. Künstliche Intelligenz kann Lösungen oder Konzepte vorschlagen, die nicht dem bulgarischen Recht entsprechen, falsche juristische Formulierungen und komische Wortkombinationen, die meist aus der automatisierten Übersetzung des Systems aus dem Englischen stammen. Die am häufigsten verwendeten KI-Plattformen führen keine direkte Suche im Internet durch, sondern generieren Antworten auf der Grundlage der Texte, mit denen sie trainiert wurden. Die besten und genauesten Ergebnisse werden in englischer Sprache erzielt, da die Modelle über riesige Mengen englischer Texte verfügen, darunter wissenschaftliche und juristische Quellen. Bei weniger verbreiteten Sprachen wie Bulgarisch kann das Modell zwar helfen, aber die Genauigkeit nimmt ab, sodass bestimmte juristische Fachbegriffe und Nuancen fehlen oder unnatürlich klingen können.
IV. Künstliche Intelligenz im Beweisverfahren
Das Beweisverfahren ist das Herzstück des Gerichtsverfahrens und gleichzeitig vielleicht das deutlichste Beispiel für die Grenzen der künstlichen Intelligenz. Die Analyse von Beweisen ist ein komplexer Prozess, der Interpretation, Bewertung, kausales Denken und Verständnis des Kontexts, ja sogar Fingerspitzengefühl erfordert – Fähigkeiten, über die künstliche Intelligenz nicht verfügt.
Bei wenig Erfahrung in diesem Bereich: Wenn man KI auffordert, Fragen für die Befragung von Zeugen in einem bestimmten Gerichtsverfahren zu formulieren, Das Ergebnis ist selten hilfreich – die Fragen sind in der Regel schlecht strukturiert und logisch unzusammenhängend, sie führen in die falsche Richtung in Bezug auf die Verteidigungsstrategie – das System unterscheidet nicht zwischen den Parteien im Gerichtsverfahren und versteht nicht, wer sich wovon oder womit verteidigt. Jede Frage in einem Gerichtsverfahren erfordert ein Verständnis des Gesetzes, der Beweisregeln und der Ziele der Befragung. Hier hat die KI keine „Intuition” für den Kontext oder die Konsequenzen einer bestimmten Frage, und genau dieser Teil des Beweisverfahrens ist entscheidend für das Endergebnis.
Andererseits wirft die Verarbeitung schriftlicher Materialien durch KI eine komplexe und vielschichtige Frage hinsichtlich der Verarbeitung personenbezogener Daten auf. Jede Information, die eine bestimmte Person identifiziert – Name, Personalausweisnummer, Adresse usw. – gilt als personenbezogene Daten. Bei der Verwendung realer Dokumente mit KI besteht die Gefahr, dass diese Daten an einen externen Server gesendet werden oder – da KI die Eingabedaten für das weitere Training oder die Verbesserung ihres Modells extrahieren kann – indirekt in zukünftigen generierten Antworten verwendet werden, wodurch die Unverletzlichkeit personenbezogener Daten verletzt wird. Dieses Thema wird sicherlich lebhaft diskutiert werden, insbesondere angesichts der Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) diskutiert werden, dessen grundlegende Bestimmungen (Kapitel I und II) bereits seit dem 2. Februar 2025 gelten.
V. Zwischen Algorithmus und Erfahrung: Wie erkennt man den Einsatz von KI?
Vertrauen ist ein wesentlicher Bestandteil der Beziehung zwischen Anwalt und Mandant. Es basiert auf Professionalität, Erfahrung und persönlicher Verantwortung. Die Verteidigung dieser Grundsätze und der Ruf des Berufsstands stehen vor einer schweren Herausforderung durch den unkontrollierten Einsatz künstlicher Intelligenz zur Erstellung von Rechtsgutachten, Antworten auf Klageschriften oder Beschwerden. Es ist nicht besonders schwierig, einen mit KI generierten Rechtsrat zu erkennen. Solche Texte sind oft formal korrekt, aber steril. Ein erfahrener Anwalt fügt Begründungen, eine Bewertung der Beweise, Prognosen über die Reaktionen des Gerichts und konkrete Verweise auf die Rechtstheorie hinzu. Sich bei der Rechtsanalyse und der Erstellung von Stellungnahmen vollständig auf die Hilfe der KI zu verlassen, ist sowohl aus Sicht der Berufsethik als auch in Bezug auf die Verantwortung gegenüber dem Mandanten nicht gerechtfertigt. Künstliche Intelligenz sollte nur als Hilfsmittel eingesetzt werden, und ihre Anwendung sollte sich auf technische und unterstützende Aufgaben beschränken, die die eigentliche rechtliche Beurteilung, das strategische Denken und die Verantwortung gegenüber dem Mandanten nicht beeinträchtigen. Jede Abweichung von diesen Rahmenbedingungen birgt das Risiko, dass die berufliche Entscheidung durch ein automatisch generiertes Ergebnis ersetzt wird, für das weder eine rechtliche noch eine ethische Verantwortung besteht.
Was die umgekehrte Hypothese betrifft, rate ich meinen Mandanten als Anwalt: Schicken Sie keine vorgefertigten Stellungnahmen, die von künstlicher Intelligenz erstellt wurden, in der Hoffnung, dass der Anwalt sie einfach „korrigiert”. Versuchen Sie auch nicht, diese Texte selbst zu überprüfen und im Internet nach vorgefertigten Antworten zu suchen. Die Beziehung zwischen Mandant und Anwalt basiert auf Vertrauen – und auch das lässt sich nicht automatisieren.
VI. Schlussfolgerung
Obwohl wir betonen, dass der menschliche Faktor in der Anwaltschaft unersetzlich ist, können wir nicht leugnen, dass künstliche Intelligenz die Art und Weise, wie Recht praktiziert wird, sicherlich verändern wird. Es ist wichtig, sich auf Aufgaben zu konzentrieren, bei denen KI die Arbeit des Anwalts unterstützen kann, ohne Entscheidungen zu treffen oder rechtlich bindende Interpretationen vorzunehmen. KI sollte keine Rechtsdokumente erstellen – weder Verträge noch Klageschriften, noch Notizen oder Stellungnahmen – und sollte keine Rechtsberatung leisten. Jede Analyse- und Bewertungsphase muss von einem Menschen überprüft werden. Eine angemessene Überprüfung ist immer erforderlich, da der Anwalt für die Inhalte verantwortlich ist, die er dem Mandanten oder den Institutionen vorlegt, unabhängig davon, ob ein Teil davon von KI generiert wurde.
Der realistischste und sicherste Einsatz von KI in der Anwaltspraxis ist die Erstellung von Standarddokumenten. In diesen Fällen kann KI als Ausgangspunkt dienen, den der Anwalt anpasst, korrigiert und finalisiert. Darüber hinaus kann KI die Automatisierung von Fristen, Erinnerungen und der Organisation von Dateien unterstützen – beispielsweise durch Sortierung nach Stichwörtern, Daten, Prozessparteien und anderen Kriterien, was die Koordination in der Kanzlei und die Verwaltung mehrerer Fälle gleichzeitig erleichtert.