KI-Glossar

Dieses Glossar enthält alle wesentlichen Begriffe rund um Künstliche Intelligenz (KI), die für Steuerberater und Steuerfachangestellte relevant sind, inklusive technischer, rechtlicher und praktischer Aspekte.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A


Accountability (Verantwortung)

Zentrales Thema beim KI-Einsatz in der Rechtsberatung. Auch wenn eine KI beteiligt ist, bleibt die Verantwortung beim Menschen.

AI Act (EU-KI-Verordnung)

Europäische Verordnung zur Regulierung von KI-Systemen. Sie definiert Anforderungen an Sicherheit, Transparenz, Risikoklassen und Verantwortlichkeiten von Anbietern und Betreibern. Ziel ist es, Risiken zu minimieren und Rechtsklarheit zu schaffen. Der EU AI Act (offiziell Verordnung (EU) 2024/1689) wurde am 12. Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht und trat am 1. August 2024 in Kraft.

AI-Compliance-Officer

Erweiterte Rolle des Datenschutz- oder IT-Beauftragten – überwacht, ob KI-Systeme in Kanzleien gesetzes- und berufsrechtskonform genutzt werden.

AI Officer (KI-Beauftragter)

Person in einer Organisation, die für die rechtskonforme Implementierung und Überwachung von KI-Systemen zuständig ist.

AI Sandbox

Gesicherte Testumgebung zur gefahrlosen Erprobung neuer KI-Systeme unter realitätsnahen, aber risikofreien Bedingungen – relevant für innovative Kanzleien oder Kooperationen mit Legal-Tech-Startups.

Algorithmus

Eine systematische Anleitung oder Rechenvorschrift, die von Computern ausgeführt wird. In der KI sind Algorithmen entscheidend für die Verarbeitung und Analyse großer Datenmengen – z. B. bei der Vorhersage von Rechtsprechungstendenzen.

Anbieter (im Sinne der KI-Verordnung)

Natürliche oder juristische Person, die ein KI-System entwickelt oder in Verkehr bringt.

Anonymisierung

Technik zur Entfernung oder Verfremdung personenbezogener Daten aus Dokumenten, um Datenschutzanforderungen zu erfüllen, besonders relevant bei der Verarbeitung von Mandantendaten.

Auditierbarkeit

KI-Systeme sollten prüfbar und nachvollziehbar sein – z.B. durch Protokollierung von Entscheidungen. Dies ist wichtig bei gerichtlichen Auseinandersetzungen oder Compliance-Prüfungen.

Auftragsverarbeitung (Art. 28 DSGVO)

Beim Einsatz externer KI-Dienste ist i.d.R. ein Auftragsverarbeitungsvertrag (AVV) erforderlich – z.B. bei Nutzung von Cloud-KI-Diensten für Dokumentenanalyse.

Automatisierte Verlinkung von Rechtsquellen

Funktion, bei der KI Verweise in Texten erkennt und direkt mit den entsprechenden Fundstellen verknüpft, um Recherche und Prüfung zu erleichtern.

B

Berufsrechtliche Risiken

Spezifische Gefahren für die Einhaltung anwaltlicher Pflichten (z. B. Verschwiegenheit, Unabhängigkeit, persönliche Leistungserbringung), die durch KI-Einsatz entstehen können.

Berufsgeheimnis (§ 43a BRAO)

Die Pflicht zur Verschwiegenheit gilt auch bei der Nutzung von KI-Tools. Werden vertrauliche Mandantendaten durch externe Tools (z.B. Cloud-KI) verarbeitet, ist sicherzustellen, dass keine Offenbarung ohne Einwilligung erfolgt.

=> vertiefende Hinweise hierzu erhalten Sie in der Aufzeichnung zum Thema „Nutzung von KI aus Sicht des anwaltlichen Berufsrechts“ 

Berufspflichten (BRAO / BORA)

Der Einsatz von KI muss mit den anwaltlichen Berufspflichten vereinbar sein – z.B. in Bezug auf Verschwiegenheit, Unabhängigkeit, Eigenverantwortlichkeit und Vermeidung von Interessenkonflikten.

=> vertiefende Hinweise hierzu erhalten Sie in der Aufzeichnung zum Thema „Nutzung von KI aus Sicht des anwaltlichen Berufsrechts“ 

Betreiber (Operator)

Juristische oder natürliche Person, die ein KI-System in eigener Verantwortung nutzt, z. B. eine Kanzlei als Betreiber eines Recherche-Tools

Bias (Verzerrung, Diskriminierung)

Systematische Verzerrung in den Ergebnissen eines KI-Systems, verursacht durch einseitige oder fehlerhafte Trainingsdaten. Kann zu diskriminierenden Entscheidungen führen.

Bias Auditing

Systematische Überprüfung eines KI-Systems auf diskriminierende Tendenzen – notwendig, um berufsrechtlich unzulässige Diskriminierungen z.B. bei der Mandantenauswahl oder Entscheidungsunterstützung zu vermeiden.

Big Data

Sehr große und komplexe Datenmengen, die von KI-Systemen verarbeitet werden, um Muster zu erkennen und Entscheidungen zu treffen.

Blackbox-KI

Systeme, deren Funktionsweise nicht transparent nachvollzogen werden kann – für den Einsatz in der anwaltlichen Praxis problematisch, da Nachvollziehbarkeit (§ 11 BORA) und Haftungspflichten gefährdet sein könnten.

Bot

Ein automatisiertes Softwareprogramm, das Aufgaben eigenständig ausführt – z.B. ein Chatbot für Mandantenkommunikation oder Vertragsprüfung.

C


Chatbot / KI-Agent

Automatisierte Dialogsysteme, die mit Nutzern kommunizieren, z. B. zur Mandatsannahme, Beantwortung juristischer Fragen oder Dokumentenanalyse.

ChatGPT

Ein generatives Sprachmodell von OpenAI, das menschenähnliche Texte verfasst. In Kanzleien kann es zur Erstellung von Schriftsätzen, Zusammenfassungen oder Mandantenkommunikation genutzt werden.

=> Schauen Sie sich hierzu das Video-Tutorial zum Thema „Überblick über Nutzung und Funktionen von ChatGPT“ an.

Classification (Klassifikation)

Ein Machine-Learning-Verfahren zur automatisierten Einordnung von Daten in Kategorien. Anwendungsbeispiel: automatische Sortierung von Schriftsätzen nach Rechtsgebiet.

Cloud Act (USA)

US-Gesetz, das US-Behörden Zugriff auf Daten bei US-Anbietern gewährt – relevant bei Nutzung amerikanischer KI-Tools wie ChatGPT in deutschen Kanzleien (Datenschutzkonflikt!).

Computer Vision

Teilgebiet der KI zur Verarbeitung und Analyse von Bildern oder Videos. In Kanzleien z.B. zur Erkennung von Texten in gescannten Dokumenten einsetzbar.

Compliance

Einhaltung aller rechtlichen und berufsrechtlichen Vorgaben beim Einsatz von KI, z. B. Datenschutz, Mandatsgeheimnis und Verschwiegenheitspflicht.

=> vertiefende Hinweise hierzu erhalten Sie in der Webinaraufzeichnung zum Thema „KI-Tools in der Kanzleipraxis: Rechtliche Fallstricke vermeiden“.

Cybersicherheit

Maßnahmen zum Schutz von IT-Systemen und Daten vor Angriffen. KI bringt neue Herausforderungen und Chancen in der Cybersicherheit mit sich.

D


Data Leakage (Datenleck durch KI-Nutzung)

Begriff für unbeabsichtigtes „Preisgeben“ sensibler Informationen, etwa wenn vertrauliche Mandatsinhalte unbeabsichtigt in öffentlich trainierte KI-Modelle gelangen (z.B. bei Nutzung nicht datenschutzkonformer Tools).

Datenanalyse

Automatisierte Auswertung großer Datenmengen zur Erkennung von Mustern, Trends oder Auffälligkeiten, z. B. in Mandantendaten oder bei der Fallbearbeitung.

Datenschutz-Folgenabschätzung (DSFA)

Pflichtprüfung bei „voraussichtlich hohem Risiko“ für Rechte von Personen bei KI-Einsatz gemäß Art. 35 DSGVO – z.B. bei KI-gestützter Mandantenscreening-Software.

Datenschutz-Grundverordnung (DSGVO)

Europäische Verordnung zum Schutz personenbezogener Daten – grundlegend bei jeder KI-Nutzung in der Rechtsberatung.

Datenintegrität

Sicherstellung, dass Daten während der Verarbeitung durch KI-Systeme vollständig, korrekt und unverändert bleiben

Datenverarbeitung in der Cloud

Auslagerung von KI-basierten Arbeitsprozessen auf externe Server, wobei besondere Datenschutzanforderungen zu beachten sind.

Deep Learning

Ein spezielles maschinelles Lernverfahren, das auf künstlichen neuronalen Netzen basiert. Kommt bei komplexen Aufgaben wie Spracherkennung oder Bildanalyse zum Einsatz.

Deep Research

Fähigkeit eines KI-Systems, komplexe Fragestellungen über mehrere Quellen, Zusammenhänge und Argumentationsebenen hinweg zu durchdringen und strukturierte, zuverlässige und kontextreiche Ergebnisse zu liefern.

=> Schauen Sie sich hierzu das Video-Tutorial  zum Thema „Überblick über Nutzung und Funktionen von ChatGPT“ an.

Delegation

KI kann als „digitaler Assistent“ fungieren, jedoch ersetzt sie keine qualifizierte anwaltliche Prüfung. Eine „digitale Delegation“ darf nicht zur vollständigen Auslagerung der anwaltlichen Kernaufgaben führen.

=> vertiefende Hinweise hierzu erhalten Sie in der Aufzeichnung zum Thema „Nutzung von KI aus Sicht des anwaltlichen Berufsrechts“.

Digitale Sorgfaltpflichten

Kein gesetzlich kodifizierter Begriff, aber zunehmend relevant: Rechtsanwälte müssen bei der Auswahl von KI-Tools angemessene technische und organisatorische Maßnahmen prüfen (z.B. Datenschutz, Fehleranfälligkeit, Auditierbarkeit).

Dokumentenautomatisierung

Automatische Erstellung, Prüfung oder Zusammenfassung juristischer Dokumente durch KI, um Effizienz und Genauigkeit zu erhöhen.

DSGVO (Datenschutz-Grundverordnung)

EU-Verordnung, die den Schutz personenbezogener Daten regelt. KI-Anwendungen in Kanzleien müssen DSGVO-konform sein.

E


Explainable AI (XAI)

Erklärbare KI. Besonders wichtig in der Rechtsanwendung, da Entscheidungen von KI-Systemen nachvollziehbar und überprüfbar sein müssen.

Embedding

Mathematische Darstellung von Wörtern oder Texten, um sie für KI-Modelle „verstehbar“ zu machen – Grundlage für semantische Suche in Rechtsdokumenten.

Eigenverantwortlichkeit (§ 3 BRAO)

Auch bei Nutzung automatisierter Tools bleibt die Entscheidungshoheit beim Rechtsanwalt. KI darf keine eigenständigen Rechtsentscheidungen treffen – sie darf nur unterstützen.

=> vertiefende Hinweise hierzu erhalten Sie in der Aufzeichnung zum Thema „Nutzung von KI aus Sicht des anwaltlichen Berufsrechts“.

Ende-zu-Ende-Verschlüsselung

Wichtiger technischer Standard, um Mandantendaten bei der Kommunikation mit oder innerhalb KI-gestützter Systeme zu schützen.

F

Fine-Tuning

Anpassung eines vortrainierten KI-Modells auf spezielle Anforderungen – z.B. durch Training mit juristischen Fachtexten für passgenaue Antworten.

Forecasting (Prognose)

Vorhersage künftiger Ereignisse mithilfe von KI – z.B. Erfolgsaussichten in Verfahren anhand früherer Gerichtsurteile.

G

Generative KI

KI-Modelle, die eigenständig neue Inhalte (Texte, Bilder, Code) erzeugen können, z. B. ChatGPT. Besonders relevant für die Erstellung von Rechtstexten, aber mit Risiken wie Halluzinationen.

GPT (Generative Pre-trained Transformer)

Ein weit verbreitetes Sprachmodell, das auf großen Textmengen trainiert wurde und natürliche Sprache generieren kann. Grundlage vieler KI-Chatbots.

H

Halluzination (KI-Halluzination)

Fehlerhafte Ausgaben von Sprachmodellen, die zwar plausibel, aber sachlich falsch sind – kritisch im juristischen Bereich, da sie zu falscher Argumentation führen können.

Human-in-the-Loop (HITL)

Menschliche Kontrolle von KI-Ergebnissen – essenziell in der juristischen Praxis zur Qualitätssicherung und Verantwortung.

I

Intelligente Suche / Semantische Suche

Suchtechnologie, die nicht nur Stichworte, sondern Bedeutungszusammenhänge erfasst, um relevantere Ergebnisse zu liefern. Erleichtert juristische Recherche.

Inference

Die Anwendung eines trainierten KI-Modells auf neue Daten – z.B. das Auswerten eines Mandantenschreibens durch eine KI zur Zuordnung zum passenden Rechtsgebiet.

Informationspflichten (§ 11 BORA)

Wird KI gegenüber dem Mandanten eingesetzt (z.B. bei automatisierter Kommunikation), muss ggf. über deren Einsatz informiert werden – etwa bei Vertragsgeneratoren auf der Kanzleiwebsite.

=> vertiefende Hinweise hierzu erhalten Sie in der Aufzeichnung zum Thema „Nutzung von KI aus Sicht des anwaltlichen Berufsrechts“.

Input/Prompt

Eingabe, die ein Nutzer einem Sprachmodell gibt – z.B. eine Anfrage wie: „Erstelle ein Mietvertragsmuster nach deutschem Recht“.

=> Schauen Sie sich hierzu die Aufzeichnung des Webinars „Prompting für Juristinnen und Juristen“ an.

Intent Recognition (Mandantenerkennung)

Erkennung der Absicht eines Mandantenanliegens – KI kann eingehende Anfragen automatisiert analysieren und korrekt zuordnen.

J

Juristische Recherche mit KI

Automatisierte Suche und Analyse von Rechtsquellen durch KI, die schneller und umfassender als manuelle Recherche ist.

Judgment Analytics (Urteilsanalyse)

KI-gestützte Auswertung gerichtlicher Entscheidungen – z.B. zur Argumentationsoptimierung oder für Litigation Forecasting.

K


Kanzleisoftwarekonformität

KI-Lösungen müssen kompatibel sein mit Kanzlei-Managementsystemen, die DSGVO-, BRAO- und Sicherheitsanforderungen erfüllen (z.B. bei Dokumentenmanagement oder E-Aktenführung).

KI (Künstliche Intelligenz)

Überbegriff für Technologien, die menschenähnliches Denken, Lernen und Entscheiden simulieren – insbesondere relevant in der Automatisierung von Rechtsprozessen.

KI-Angebote/Marktüberblick

Verzeichnis oder Übersicht über verfügbare KI-Tools und -Dienstleister speziell für den juristischen Bereich.

KI-Einsatzrichtlinie / Kanzlei-KI-Richtlinie

Internes Regelwerk, das den sicheren, rechtskonformen und einheitlichen Einsatz von KI-Tools innerhalb einer Kanzlei regelt (ähnlich einer Datenschutzrichtlinie).

KI-Governance

Rahmenwerk aus Richtlinien, Prozessen und Verantwortlichkeiten für den rechtssicheren Einsatz von KI in der Kanzlei – zunehmend Bestandteil der beruflichen „Digital Compliance“.

KI-Kompetenz

Fachliche und praktische Fähigkeit, KI-Systeme sachkundig auszuwählen, einzusetzen und deren Risiken sowie Potenziale richtig einzuschätzen.

KI-Risikoerklärung (Risk Statement nach AI Act)

Pflichtdokumentation für Anbieter/Betreiber bestimmter KI-Systeme. Kann für Kanzleien relevant werden, wenn eigene KI-Systeme (z.B. Chatbots) öffentlich angeboten werden.

KI-System

Ein Software- oder Hardwaresystem, das auf KI-Technologien basiert und Aufgaben ausführt, die menschliche Intelligenz erfordern.

KI-Tool

Ein KI-Tool ist eine Softwareanwendung, die auf künstlicher Intelligenz basiert und bestimmte Aufgaben automatisiert, unterstützt oder analysiert. In der anwaltlichen Praxis sind das beispielsweise Programme zur Vertragsprüfung, Texterstellung, Urteilsanalyse, Fristenkontrolle oder Mandantenkommunikation (z.B. Chatbots).

KI-gestützte Fallanalyse

Einsatz von KI zur automatischen Bewertung oder Priorisierung von Fällen, z. B. zur Prognose von Erfolgsaussichten.

Knowledge Graph (Wissensgraph)

Strukturierte Darstellung von Wissen in Form von verknüpften Begriffen – hilfreich bei der juristischen Recherche oder Wissensmodellierung.

Kollisionsprüfung

Auch wenn KI zur Aktenanalyse oder zur Mandatsannahme eingesetzt wird, muss gewährleistet bleiben, dass berufsrechtliche Kollisionsprüfungen korrekt durchgeführt werden.

L

Labeling

Die manuelle oder automatische Zuweisung von Kategorien zu Daten – z.B. eine E-Mail als „fristgebunden“ markieren.

Legal Tech

Technologien, die juristische Arbeitsprozesse unterstützen oder automatisieren – häufig unter Einsatz von KI (z.B. Dokumentanalyse, Mandatsannahme, Vertragsprüfung).

Legal Tech vs. Rechtsdienstleistungsgesetz (RDG)

Wird KI mandantenwirksam eingesetzt (z.B. zur automatisierten Vertragsberatung), darf dies nur im Rahmen erlaubter Rechtsdienstleistungen nach RDG erfolgen. Für Kanzleien gilt: Keine vollständige Automatisierung zulässiger Kerntätigkeiten.

LLM (Large Language Model)

Große Sprachmodelle, die auf umfangreichen Textdaten trainiert sind und komplexe Sprachverarbeitung ermöglichen, z. B. GPT-4 – kann juristische Texte analysieren, schreiben oder zusammenfassen.

Legal KI-Tool

Sammelbegriff für spezialisierte KI-Anwendungen, die auf juristische Arbeitsprozesse zugeschnitten sind.

M


Machine Learning (Maschinelles Lernen)

KI-Teilbereich, bei dem Systeme aus Daten lernen und Muster erkennen, um Vorhersagen oder Entscheidungen zu treffen.

Mandatsannahme mit KI

Automatisierte Erfassung und Verwaltung neuer Mandate durch KI-Chatbots oder Software, oft mit Integration in Kanzleisoftware.

Mandatsgeheimnis

Auch außerhalb des § 43a BRAO (z.B. durch Strafgesetz § 203 StGB) ist sicherzustellen, dass bei Nutzung von cloudbasierten KI-Tools keine unbefugte Offenbarung erfolgt.

Mandantenerkennung (Intent Recognition)

Erkennung der Absicht eines Mandantenanliegens – KI kann eingehende Anfragen automatisiert analysieren und korrekt zuordnen.

Model Card

Dokumentation eines KI-Modells mit Informationen zu Trainingsdaten, Risiken, Stärken, Einschränkungen und empfohlenem Einsatzgebiet. Wichtig für Kanzleien, die auf erklärbare KI setzen oder mit KI-Anbietern kooperieren.

Model Drift

Veränderung der Leistung eines KI-Modells im Laufe der Zeit, z.B. durch veränderte Rechtslage oder Datenstruktur – erfordert regelmäßige Nachjustierung in der Kanzleinutzung.

N

Natural Language Processing (NLP)

Technologien zur Verarbeitung und Analyse natürlicher Sprache durch Computer, z. B. für Textverständnis und -generierung.

Neurales Netz

Struktur in KI-Systemen, die dem menschlichen Gehirn nachempfunden ist. Grundlage für viele moderne KI-Anwendungen.

O

Operator / Betreiber (im Sinne der KI-Verordnung)

Person oder Organisation, die ein KI-System nutzt oder betreibt.

OpenAI

US-Unternehmen, das führende Sprachmodelle wie GPT entwickelt. Viele KI-Tools im Rechtsbereich basieren (teilweise) auf deren Technologien.

Overfitting

Phänomen, bei dem ein KI-Modell zu stark auf Trainingsdaten angepasst ist – Risiko für schlechte Leistung bei neuen, echten Fällen.

P


Prompt

Eingabeaufforderung oder Frage an ein KI-System, die dessen Antwort oder Handlung steuert. Im juristischen Kontext dient ein Prompt etwa der Erstellung von Entwürfen, Analysen oder Zusammenfassungen. Die Qualität des Prompts beeinflusst die Ergebnisqualität.

Prompt Engineering

Die Kunst, Eingaben an Sprachmodelle so zu formulieren, dass möglichst brauchbare Ergebnisse entstehen. Zunehmend eine Schlüsselkompetenz für KI-Anwender.

Prompt Library / Prompt-Vorlagen

Vorbereitete Eingabeformate für KI-Systeme, etwa zur Vertragserstellung, Klauselprüfung oder Mandantenkommunikation. In der Praxis hilfreich für standardisierte Kanzleiprozesse mit KI.

Predictive Analytics

Datenbasierte Vorhersagen – etwa über die Erfolgswahrscheinlichkeit einer Klage auf Basis vergangener Entscheidungen.

Privacy by Design / Default

KI-Systeme, die von oder für Kanzleien eingesetzt werden, sollten datenschutzkonform konfigurierbar sein – standardmäßig auf minimaler Datennutzung basierend.

R


Rechtsdienstleistung durch KI

Frage, ob und inwieweit KI-Systeme eigenständig juristische Dienstleistungen erbringen dürfen, z. B. nach § 2 Abs. 1 RDG.

Red-Teaming

Methodik zur gezielten Prüfung von KI-Systemen auf Schwachstellen, Fehlinformationen oder Missbrauchsrisiken – zunehmend verpflichtend bei Hochrisiko-KI nach dem AI Act.

Regelbasierte Systeme (Rule-based AI)

Frühere oder einfache KI-Modelle, die auf vordefinierten Wenn-Dann-Regeln basieren – werden in Kanzleien weiterhin für einfache Automatisierungen genutzt, z.B. Fristen- oder Gebührenrechner.

Reinforcement Learning

Lernmethode, bei der ein KI-System durch Belohnung bestraft oder belohnt wird – in juristischen Systemen selten, aber bei Chatbots mit Feedback einsetzbar.

Retrieval-Augmented Generation (RAG)

KI-Architektur, bei der vor der Texterzeugung relevante Inhalte aus einer Datenbank abgerufen werden – ermöglicht genaue, kontextbezogene juristische Antworten.

Risiko-Klassifizierung

Einstufung von KI-Systemen nach ihrem Gefahrenpotenzial (z. B. niedrig, hoch, verboten) gemäß AI Act mit entsprechenden Auflagen.

Risikomanagementsystem

Organisatorisches System zur Identifikation, Bewertung und Steuerung von Risiken beim Einsatz von KI, inkl. Dokumentations- und Überwachungspflichten.

S


Schulungspflichten

Verpflichtung zur regelmäßigen Fortbildung und Sensibilisierung der Mitarbeitenden für den sachkundigen und sicheren Umgang mit KI-Systemen in der Kanzlei. Die Schulungspflicht zum Aufbau und Erhalt von KI-Kompetenz für Mitarbeitende in Unternehmen und Behörden besteht seit dem 2. Februar 2025. Sie wurde durch die EU-KI-Verordnung (AI Act, offiziell Verordnung (EU) 2024/1689) eingeführt, die am 1. August 2024 in Kraft trat und ab Februar 2025 erste konkrete Verpflichtungen wie die Schulungspflicht wirksam werden ließ.

Semi-supervised Learning

Kombination aus gelabelten und unlabelten Daten beim Training von KI-Modellen.

Semantische Suche

KI-gestützte Suche, die nach Bedeutung statt nur nach Stichworten sucht – hilfreich bei der juristischen Recherche über große Textsammlungen.

Shadow AI

Unkontrollierter KI-Einsatz durch Mitarbeitende ohne Wissen oder Freigabe der Kanzleileitung. Risiko für Datenschutz, Compliance und Haftung.

Smart Contract

Selbstausführender Vertrag auf einer Blockchain – mit Potenzial für automatisierte Rechtsdurchsetzung, z.B. im Mietrecht oder bei Zahlungsbedingungen.

Supervised Learning (Überwachtes Lernen)

Machine-Learning-Verfahren, bei dem Modelle mit gelabelten Daten trainiert werden.

T


Technische und organisatorische Maßnahmen (TOMs)

Begriff aus der DSGVO – umfasst Schutzmaßnahmen zur sicheren Nutzung von KI (z.B. Zugriffsbeschränkungen, Protokollierung, Schulungen) – wichtig für KI-Nutzung in der Kanzlei.

=> vertiefende Hinweise hierzu erhalten Sie in der Webinaraufzeichnung zum Thema „KI-Tools in der Kanzleipraxis: Rechtliche Fallstricke vermeiden“.

Training (Modelltraining)

Prozess, bei dem KI-Modelle mit Daten gefüttert werden, um Muster zu lernen und Aufgaben zu erfüllen.

Transparenz

Anforderung, dass KI-Systeme nachvollziehbar arbeiten und Entscheidungen erklärbar sind, wichtig für Vertrauen und Haftung.

Transparenzpflichten

Erfordernis, Mandanten offen zu legen, ob und wie KI eingesetzt wird – z.B. bei automatisierten Vertragsbewertungen auf Webseiten oder in der Erstberatung.

Trustworthy AI (Vertrauenswürdige KI)

Konzept aus Ethik und Regulierung, das Transparenz, Sicherheit, Nichtdiskriminierung und Menschenzentrierung als Grundwerte für KI-Anwendungen fordert. Im EU-Kontext eng mit dem AI Act verbunden.

Token

Kleinste Texteinheit für Sprachmodelle. Wichtig bei der Preisgestaltung von KI-Tools (z.B. ChatGPT), da Abrechnung oft pro Token erfolgt.

Training Data

Daten, mit denen ein KI-Modell „lernt“. In juristischen Kontexten z.B. Entscheidungen, Gesetze, Verträge.

U


Unsupervised Learning (Unüberwachtes Lernen)

Machine-Learning-Methode, bei der Modelle Muster in unbeschrifteten Daten erkennen.

Use Case (Anwendungsfall)

Konkret beschriebene Einsatzmöglichkeit für KI – z.B. „automatische Prüfung von Arbeitsverträgen auf Mindestanforderungen“.

Urteilsanalyse (Judgment Analytics)

KI-gestützte Auswertung gerichtlicher Entscheidungen – z.B. zur Argumentationsoptimierung oder für Litigation Forecasting.

V


Verantwortung (Accountability)

Zentrales Thema beim KI-Einsatz in der Rechtsberatung. Auch wenn eine KI beteiligt ist, bleibt die Verantwortung beim Menschen.

Verantwortlichkeit (§ 26 BORA)

Der Rechtsanwalt haftet für eingesetzte Systeme und Mitarbeiter. Dies gilt auch für Fehler, die durch KI entstehen – etwa fehlerhafte automatisierte Klauselerkennung oder falsche Schriftsatzvorschläge.

Verifizierte KI (Verifiable AI)

Systeme, deren Ergebnisse überprüfbar und vertrauenswürdig sind – gerade im juristischen Bereich essenziell.

Verlässlichkeit (Reliability)

Ein KI-System muss zuverlässig, wiederholbar und unter klaren Rahmenbedingungen arbeiten. Für Kanzleien ist die Verlässlichkeit entscheidend für die Verantwortlichkeit (§ 26 BORA) und Mandantenvertrauen.

W

Wissensmanagement mit KI

Systeme, die Kanzleiwissen strukturieren, durchsuchen und bereitstellen, z. B. durch semantische Suche oder Chatbots.

Z

Zero-Shot Learning

Ein Modell kann Aufgaben lösen, für die es nicht explizit trainiert wurde. Für juristische Aufgaben riskant – erfordert oft zusätzliche Validierung durch Fachleute.

Zweckbindung (Art. 5 DSGVO)

Daten, die z.B. für die Bearbeitung eines Mandats erhoben wurden, dürfen nicht zu Trainingszwecken für KI-Modelle verwendet werden, sofern keine ausdrückliche Einwilligung vorliegt.