KI im Kanzleialltag: Gehen Anwält*innen unwissentlich rechtliche Risiken ein?

Einen Rechtskommentar in ChatGPT hochzuladen wirkt harmlos. Ein wegweisendes Urteil des Landgerichts München legt nahe, dass dem nicht so ist – und könnte Anwältinnen und Anwälte mit urheberrechtlichen Risiken konfrontieren, die sie nie auf dem Schirm hatten.

Der Vorgang ist so alltäglich, dass er kaum auffällt: Ein Anwalt lädt einen Kommentar aus einer juristischen Datenbank herunter, öffnet ChatGPT, gibt den Prompt „Fasse die wesentlichen Argumente zusammen" ein und widmet sich dann dem nächsten Mandat. Effizient. Pragmatisch. Scheinbar harmlos. 

Möglicherweise auch rechtswidrig. 

Drei parallele Entwicklungen haben in den vergangenen Monaten eine Compliance-Lücke entstehen lassen, die bislang nicht genügend Aufmerksamkeit in der Rechtsbranche erhalten hat: Ein Münchner Urteil mit Signalwirkung, weitgehend unbeachtete Lizenzbestimmungen in Allgemeinen Geschäftsbedingungen und eine Stellungnahme des Deutschen Anwaltvereins, die in ihrer Deutlichkeit wegweisend ist. 

Das Münchner Urteil 

Am 11. November 2025 erließ das Landgericht München I die erste europäische Entscheidung, die das Training von KI-Modellen mit urheberrechtlich geschützten Werken als Urheberrechtsverletzung einstuft. Im Verfahren GEMA gegen OpenAI hatte die Verwertungsgesellschaft erfolgreich geltend gemacht, dass ChatGPT Songtexte während des Trainings rechtswidrig auswendig gelernt habe und sie auf Abruf reproduzieren könne.¹ 

Die Logik der Münchner Richterinnen und Richter ist bestechend einfach. Wer ein Werk auf Knopfdruck identisch reproduzieren kann, hat es gespeichert. Punkt. Ob das in klassischen Bytes geschieht oder in den Wahrscheinlichkeitswerten eines neuronalen Netzes, sei rechtlich irrelevant: Neue Technologien ändern nichts am Vervielfältigungsrecht. Entscheidend sei allein, dass das Werk unter Einsatz technischer Hilfsmittel wahrnehmbar bleibt. Mit diesem Argument bejahte die Kammer gleich drei Verwertungsrechte: Vervielfältigung (§ 16 UrhG), öffentliche Zugänglichmachung (§ 19a UrhG) und Bearbeitung (§ 23 UrhG). 

OpenAIs Verteidigung, das Modell erschaffe die Texte durch eine „sequenziell-analytische, iterativ-probabilistische Synthese“ neu, ließ das Gericht schlicht nicht gelten. Anders ausgedrückt: Wenn es aussieht wie eine Kopie und sich liest wie eine Kopie, ist es eine Kopie. 

Forschungsergebnisse aus dem Januar 2026 untermauern die technische Einschätzung des Gerichts. Eine Studie von Wissenschaftler*innen aus Stanford und Yale belegt, dass gängige KI-Modelle, darunter Claude 3.7 Sonnet, GPT-4.1, Gemini 2.5 Pro und Grok 3, urheberrechtlich geschützte Bücher nahezu wortgetreu reproduzieren können. In einzelnen Fällen gelang es den Forschenden, bis zu 95,8 Prozent eines vollständigen Buches aus einem Modell zu extrahieren, selbst wenn Schutzmaßnahmen aktiv waren.² Die Behauptung, KI-Modelle würden lediglich Muster erlernen, ohne tatsächliche Inhalte zu speichern, ist damit empirisch widerlegt. 

Auch die Berufung auf die Schranke des Text- und Data-Mining („TDM-Schranke“) nach § 44b UrhG wies das Gericht zurück. Die Schranke erfasse nur dem Text und Data Mining vorbereitende Handlungen ohne Verwertungsinteresse, etwa vorübergehende Speicherungen im Arbeitsspeicher oder die Überführung in ein anderes digitales Format. Im vorliegenden Fall würden jedoch nicht bloß Informationen aus Trainingsdaten extrahiert, sondern Werke dauerhaft im Sprachmodell verkörpert, was in das Verwertungsrecht der Rechteinhaber eingreife.³ 

OpenAI hat Berufung eingelegt. Doch schon jetzt reicht die Logik des Urteils weit über die Musikbranche hinaus: Wenn die TDM-Schranke bei dauerhafter Memorierung nicht greift, dann könnte auch das Hochladen eines urheberrechtlich geschützten Fachkommentars zu ChatGPT als Vervielfältigung eingestuft werden. Das Upload durch Nutzer ist keine flüchtige Analyse, sondern das Einspeisen von Inhalten in ein System, das darauf ausgelegt ist, sie dauerhaft einzubetten. Nach dieser Logik könnten sowohl OpenAI als auch Anwält*innen, die ein Dokument aus einer Fachdatenbank hochladen, urheberrechtlich haften. 

Der DAV hatte es vorausgesehen 

Der Compliance-Hinweis kam vier Monate früher als das Münchner Urteil, aber er verhallte weitgehend ungehört. Im Juli 2025 veröffentlichte der Deutsche Anwaltverein die Stellungnahme 32/2025 zum Einsatz von KI in der Anwaltschaft und sprach darin eine Frage direkt an, die sich eventuell viele Kanzleien bis heute nicht gestellt haben.⁴ 

Der zentrale Satz lautet: „Bei der Nutzung von KI-Systemen sind […] urheberrechtliche Vorgaben unerlässlich, insbesondere bei der Bearbeitung oder Zusammenfassung geschützter Fachliteratur. Eine Vervielfältigung, beispielsweise durch das Hochladen von Werken auf KI-Anbieter-Server, muss durch Lizenzen oder gesetzliche Erlaubnisse abgedeckt sein.“ 

Das ist keine abstrakte Warnung. Es ist eine klare berufsrechtliche Anforderung: Wer urheberrechtlich geschützte Fachliteratur in KI-Systeme einspeist, braucht dafür eine ausdrückliche Genehmigung. Die entscheidende Frage, die sich daran anschließt: Haben die meisten Anwält*innen  überhaupt nachgeschaut, ob ihre Datenbankabonnements eine solche Genehmigung umfassen? 

Das Kleingedruckte 

Dass Content-Lizenzen heute auch das Verhalten der Endnutzer*innen regeln, zeigt ein Blick über die juristische Welt hinaus. Spotify etwa verbietet in seinen im September 2025 aktualisierten Nutzungsrichtlinien, „Teile der Dienste oder Inhalte zu verwenden, um ein maschinelles Lern- oder KI-Modell zu trainieren oder Spotify-Inhalte anderweitig in ein maschinelles Lern- oder KI-Modell einzuspeisen.“⁵ Die Formulierung „oder anderweitig einzuspeisen“ geht weit über das Verbot des Scrapings durch KI-Unternehmen hinaus: Sie erfasst den alltäglichen Akt aller Nutzer*innen, die Inhalte in ein KI-Tool eingeben. 

Wenn Musik-Streaming- und Bildplattformen ihren Abonnent*innen solche Beschränkungen auferlegen, ist zu erwarten, dass Anbieter juristischer Fachdatenbanken, deren Inhalte ausschließlich aus urheberrechtlich geschützten Kommentaren, Rechtsprechungssammlungen und wissenschaftlichen Analysen bestehen, ähnliche Klauseln einführen werden oder bereits eingeführt haben.⁶ 

Ein globaler Trend? 

Im Urheberrecht zeichnet sich eine klare Entwicklung ab: Die anfängliche „Move fast and break things“-Mentalität der Pionier-KI-Unternehmen weicht Lizenzierungsmodellen und Rechtsstreitigkeiten. Die ersten Klagen gegen KI-Unternehmen kamen Anfang 2023, als bildende Künstler*innen gegen Stability AI klagten und Autor*innen gegen OpenAI und Meta vorgingen.⁷ Mitte 2024 liefen bereits rund 25 Verfahren.⁸ Ende 2025 waren es über 65 aktive Klagen, mit namhaften Unternehmensklägern wie der New York Times, Getty Images sowie Musik- und Filmkonzernen.⁹ Die GEMA, ermutigt durch ihren Münchner Erfolg, reichte im Januar 2025 eine ähnliche Klage gegen die Musik-KI-Plattform Suno ein.¹⁰ 

Beim Berufsrecht hingegen ist von einem globalen Trend wenig zu erkennen. Der DAV ist bislang die einzige Rechtsanwaltskammer, die explizit festgestellt hat, dass nicht nur KI-Anbieter, sondern auch Anwält*innen selbst gegen das Urheberrecht verstoßen können, wenn sie geschützte Fachliteratur in KI-Systeme hochladen. Keine andere europäische oder US-amerikanische Kammer hat diese Konsequenz so klar benannt.¹¹ 

Warum das Schweigen? Vielleicht, weil das Verhalten zu unscheinbar wirkt. Jurist*innen sind es gewohnt, Fachliteratur zu exzerpieren, zu zitieren und zusammenzufassen. Und technisch ist es schwer zu begreifen, warum das Hochladen urheberrechtlich geschützter Inhalte in KI-Systeme sich grundlegend vom herkömmlichen Kopieren unterscheidet. Vielleicht haben viele Fachleute auch schlicht den Beteuerungen der KI-Unternehmen geglaubt, ihre Modelle würden keine Informationen aus Trainingsdaten dauerhaft speichern. Die Stanford-Yale-Studie hat dieses Argument empirisch zerstört. 

Oder vielleicht wollen Kanzleien, die noch keine sichere KI-Lösung einsetzen, die Realität des Shadow-AI-Einsatzes in den eigenen Reihen lieber nicht zu genau beleuchten. Es ist wenig angenehm, vom eigenen Berufsverband schwarz auf weiß bestätigt zu bekommen, dass dies sowohl einen urheberrechtlichen als auch einen berufsrechtlichen Verstoß darstellen kann. 

Gerichtliche Entscheidungen zum Urheberrecht bei KI-Unternehmen werden in den kommenden Monaten für Klarheit sorgen. Bis erste Schlagzeilen über Endnutzer*innen erscheinen, die urheberrechtlich geschützte Materialien hochgeladen haben, dürfte es noch dauern. Aber die Richtung ist vorgegeben. 

Anfang Februar 2026 gab es bereits einen Vorgeschmack auf das Reputationsrisiko, das solche Vorfälle auslösen können. Madhu Gottumukkala, der kommissarische Direktor der US-amerikanischen Cybersicherheitsbehörde CISA, lud sensible Regierungsdokumente mit dem Vermerk „nur für den Dienstgebrauch“ in die öffentliche Version von ChatGPT hoch. Die Uploads lösten automatisierte Sicherheitswarnungen aus, die im August 2025 eine Schadensbewertung des Department ofHomeland Security nach sich zogen, und wurden in den Medien weltweit hundertfach aufgegriffen.¹² Dass solche Schlagzeilen bislang aus Europa ausgeblieben sind, bedeutet nicht, dass das Risiko hier geringer wäre. 

Der DAV hat den ersten Schritt getan und die Anwaltschaft frühzeitig auf ein Risiko aufmerksam gemacht, das im Kanzleialltag leicht übersehen wird. Andere europäische Behörden und Rechtsanwaltskammern wären gut beraten, nachzuziehen und klare Leitlinien zu veröffentlichen, bevor entsprechende Schlagzeilen auch diesseits des Atlantiks erscheinen. 

Fussnoten 

¹ Landgericht München I, Urteil vom 11. November 2025, Az. 42 O 14139/24, GEMA gegen OpenAI. Pressemitteilung abrufbar unter: Pressemitteilung 11/2025, Bayerisches Staatsministerium der Justiz. Zusammenfassung auf Englisch: CMS Law, „GEMA vs. OpenAI: Munich Regional Court I issues landmark copyright decision," Dezember 2025. https://cms-lawnow.com/en/ealerts/2025/12/gema-vs.-openai-munich-regional-court-i-issues-landmark-copyright-decision 

² Ahmed Ahmed, A. Feder Cooper, Sanmi Koyejo und Percy Liang, „Extracting books from production language models," arXiv:2601.02671, 6. Januar 2026. https://arxiv.org/abs/2601.02671 

³ Norton Rose Fulbright, „Germany delivers landmark copyright ruling against OpenAI: What it means for AI and IP," November 2025. https://www.insidetechlaw.com/blog/2025/11/germany-delivers-landmark-copyright-ruling-against-openai-what-it-means-for-ai-and-ip 

⁴ Deutscher Anwaltverein (DAV), Stellungnahme 32/2025: „Einsatz von KI in der Anwaltschaft," 9. Juli 2025. Berichterstattung: Datenschutzticker, 5. August 2025. 

⁵ Spotify, Nutzungsrichtlinien, https://www.spotify.com/us/legal/user-guidelines/ 

⁶ Ein Beispiel aus den Allgemeinen Geschäftsbedingungen von LexisNexis, Abschnitt 1.2(h): „The uploading or submission of Materials into third party applications, software or websites that utilize AI Technologies is prohibited unless approved in writing by LN", gültig ab 31. Oktober 2025. https://www.lexisnexis.com/en-us/terms/general/default.page 

⁷ Die bildenden Künstlerinnen Sarah Andersen, Kelly McKernan und Karla Ortiz reichten am 13. Januar 2023 eine Sammelklage gegen Stability AI, Midjourney und DeviantArt ein (Andersen et al. v. Stability AI LTD et al., N.D. Cal. 3:23-cv-00201). Die Autorinnen und Autoren Sarah Silverman, Richard Kadrey und Christopher Golden klagten gegen OpenAI (28. Juni 2023) und Meta Platforms (7. Juli 2023). Siehe CNN Business, „Sarah Silverman sues OpenAI and Meta alleging copyrightinfringement," 10. Juli 2023, https://www.cnn.com/2023/07/10/tech/sarah-silverman-openai-meta-lawsuit/index.html; Copyright Alliance, „Takeaways from the Andersen v. Stability AI Copyright Case," 12. November 2024, https://copyrightalliance.org/andersen-v-stability-ai-copyright-case/ 

⁸ Copyright Alliance, „AI Lawsuit Developments in 2024 (Mid-Year Review)," 15. Oktober 2024, https://copyrightalliance.org/ai-lawsuit-developments-2024/ 

⁹ eDiscovery Today, „65 AI Copyright Lawsuits, One Company Virtually Unscathed," 8. Dezember 2025, https://ediscoverytoday.com/2025/12/08/65-ai-copyright-lawsuits-one-company-virtually-unscathed-artificial-intelligence-trends/ 

¹⁰ Music Ally, „GEMA scores court victory in its copyright battle with OpenAI," 11. November 2025, https://musically.com/2025/11/11/gema-scores-court-victory-in-its-copyright-battle-with-openai/ 

¹¹ Auswertung der Leitlinien folgender Rechtsanwaltskammern und -verbände: ABA (Formal Opinion 512, Juli 2024), Law Society of England and Wales (Generative AI: the essentials, Mai 2025), CCBE (Leitfaden zum Einsatz generativer KI durch Anwälte, 2025), französischer CNB (Leitfaden zum Einsatz generativer KI, 2024-2025), italienischer CNF (Informationsschreiben zum KI-Einsatz, Oktober 2025), spanischer CGAE (Schulungen und Leitlinien, 2024-2025), belgischer Orde van Vlaamse Balies (KI-Leitlinien, Januar 2025), niederländischer NOvA (KI-Empfehlungen, November 2025), Law Society of Singapore sowie über 30 US-amerikanische Anwaltskammern. Die Auswertung zeigt, dass alle genannten Stellen zwar Fragen der Vertraulichkeit, Sorgfaltspflicht, Überprüfung, Abrechnung und Mandanteneinwilligung beim KI-Einsatz ansprechen, keine jedoch die urheberrechtlichen Konsequenzen des Hochladens geschützter Materialien aus Fachdatenbanken in KI-Systeme durch Anwältinnen und Anwälte selbst thematisiert. Weitere Quellen: CNB, „Guide pratique - Utilisation des systèmes d'intelligence artificielle générative pour les Avocats," 2024-2025; italienischer CNF, Informationsschreiben gemäß Gesetz 132/2025, Oktober 2025; belgischer OVB, „Richtlijnen voor advocaten rond gebruik van artificiële intelligentie," 20. Januar 2025, https://www.ordevanvlaamsebalies.be/nl/kennisbank/digitalisering/richtlijnen-voor-advocaten-rond-gebruik-van-artificiele-intelligentie; niederländischer NOvA, „Aanbevelingen AI in de advocatuur," November 2025, https://www.advocatenorde.nl/dossiers/digitalisering-en-ai 

¹² Politico berichtete als erstes über den Vorfall am 28. Januar 2026. Siehe auch: Cybersecurity Asia, „ChatGPT Risk at Centre of Controversy After Acting US CISA Head Uploads Government Documents," 30. Januar 2026, https://cybersecurityasia.net/chatgpt-rist-at-centre-of-controversy-cisa/; The Daily Caller, „US Cyber Defense Agency Head Posted Sensitive Information Online," 28. Januar 2026, https://dailycaller.com/2026/01/28/madhu-gottumukkala-cisa-posted-sensitive-information/; Digit, „CISA ChatGPT leak: Acting director Madhu Gottumukkala investigation explained," 28. Januar 2026, https://www.digit.in/features/general/cisa-chatgpt-leak-acting-director-madhu-gottumukkala-investigation-explained.html 


 

Paula Reichenberg

Inhalte

Alle Rechte vorbehalten Noxtua AG ©

Alle Rechte vorbehalten Noxtua AG ©