Zurück zum Blog
RECHT & §203 19. April 2026 13 Min. Lesezeit

Warum §203-konforme KI für Kanzleien Pflicht ist — nicht Luxus

DSGVO-konform ist nicht §203-konform. Cloud Act hebelt AV-Verträge aus, US-Anbieter fallen systematisch raus. Was §203-konforme KI wirklich braucht — und wann der Velo §203-Tier-Stack startet.

Warum §203-konforme KI für Kanzleien Pflicht ist — nicht Luxus

Warum §203-konforme KI für Kanzleien kein Luxus ist, sondern Pflicht — und warum DSGVO-konform nicht dasselbe bedeutet

Wer als Anwalt, Arzt oder Steuerberater eine KI-Lösung einsetzt, denkt beim Datenschutz meist an die DSGVO. Ein Auftragsverarbeitungsvertrag liegt vor, der Anbieter sitzt angeblich in Europa, das Datenschutzgütesiegel hängt auf der Webseite. Fall erledigt.

Das ist ein Irrtum — und er kann strafrechtliche Konsequenzen haben.

§ 203 StGB ist kein Bußgeldtatbestand. Er ist ein Straftatbestand. Wer als Berufsgeheimnisträger unbefugt personenbezogene Daten an Dritte weitergibt, riskiert bis zu einem Jahr Freiheitsstrafe — unabhängig davon, ob ein AV-Vertrag unterschrieben wurde oder der Server in Frankfurt steht.

Dieser Artikel erklärt, warum die DSGVO-Konformität für §203-Berufe nur der erste Schritt ist, welche KI-Produkte tatsächlich kritisch sind, was technisch nötig ist, und welchen Weg Velo Automation für eine vollständig §203-konforme KI-Infrastruktur geht. Er erhebt keinen Anspruch auf Rechtsberatung — die konkrete Prüfung gehört zum Anwalt des Vertrauens. Aber er liefert den technischen und rechtlichen Rahmen, den viele noch nicht kennen.


Das Missverständnis: "DSGVO-konform = rechtlich sicher"

Für die meisten Unternehmen stimmt das weitgehend. Wer als GmbH-Geschäftsführer ChatGPT Plus nutzt und keine besonderen Kategorien personenbezogener Daten verarbeitet, bewegt sich in einem anderen Risikoraum als eine Anwaltskanzlei.

Der Unterschied liegt in der Rechtsgrundlage.

Die DSGVO ist Verwaltungsrecht. Sie regelt, wie personenbezogene Daten verarbeitet werden dürfen, und sieht bei Verstößen Bußgelder vor — in schweren Fällen bis zu 4 % des weltweiten Jahresumsatzes. Diese Sanktionen treffen das Unternehmen.

§ 203 StGB ist Strafrecht. Er trifft die Person. Einen Rechtsanwalt, der Mandantendaten unbefugt an einen Dritten weitergibt — auch an einen Software-Dienstleister —, macht sich persönlich strafbar. Die Strafbarkeit entsteht nicht durch schlechten Willen, sondern durch die schlichte Tatsache, dass Berufsgeheimnis-geschützte Daten in Systemen landen, auf die Dritte ohne ausreichende rechtliche Absicherung zugreifen können.

Ein AV-Vertrag nach Art. 28 DSGVO löst das nicht. Er regelt, wie Daten verarbeitet werden — nicht, ob die Weitergabe an den Auftragsverarbeiter strafrechtlich erlaubt war.

§ 203 Abs. 4 StGB erlaubt die Einbindung sonstiger mitwirkender Personen, wenn diese nachweislich zuverlässig sind und vertraglich zur Verschwiegenheit verpflichtet wurden. Das ist die gesetzliche Grundlage für IT-Dienstleister in diesem Bereich — aber sie stellt höhere Anforderungen, als ein Standard-AV-Vertrag erfüllt.


Wer unter §203 StGB fällt

§ 203 StGB erfasst alle, die im Rahmen ihrer Berufsausübung Geheimnisse anvertraut bekommen. Die wichtigsten Berufsgruppen im Kontext KI-Nutzung:

  • Rechtsanwälte und Rechtsanwaltsgehilfen (§ 203 Abs. 1 Nr. 3 StGB)
  • Patentanwälte
  • Notare und Notargehilfen (§ 203 Abs. 1 Nr. 3 StGB)
  • Wirtschaftsprüfer und Steuerberater (§ 203 Abs. 1 Nr. 3 StGB)
  • Ärzte, Zahnärzte, Apotheker (§ 203 Abs. 1 Nr. 1 StGB)
  • Psychologische Psychotherapeuten und Kinder- und Jugendlichenpsychotherapeuten
  • Hebammen (§ 203 Abs. 1 Nr. 1 StGB)
  • Sozialarbeiter und -pädagogen in Beratungskontexten (§ 203 Abs. 1 Nr. 4a StGB)
  • Berater in Beratungsstellen für Ehe-, Familien- und Lebensprobleme (§ 203 Abs. 1 Nr. 4 StGB)
  • Mitarbeiter anerkannter Beratungsstellen (§ 203 Abs. 1 Nr. 4a StGB)

Die vollständige Liste findet sich in § 203 Abs. 1 und Abs. 2 StGB. Entscheidend ist: Wer in einem dieser Berufe tätig ist und KI-Systeme einsetzt, die Mandanten-, Patienten- oder Klientendaten verarbeiten, bewegt sich automatisch in einem strafrechtlich relevanten Raum.

Die Norm gilt auch für Mitarbeiter — also die Arzthelferin, die Schreiben mit KI-Hilfe verfasst, oder die Kanzleisekretärin, die Schriftsätze in eine KI-Plattform einliest. § 203 Abs. 4 StGB stellt "sonstige mitwirkende Personen" explizit in die Pflicht.


Cloud Act + FISA 702: warum "EU-Server" nicht reicht

Hier liegt das meistübersehene rechtliche Risiko.

Viele Anbieter werben mit "EU-Hosting" oder "Daten bleiben in Europa". Microsoft Azure wirbt mit einer EU Data Boundary. Anthropic verarbeitet Daten nach DSGVO-konformen Standardvertragsklauseln. OpenAI hat Enterprise-Tarife mit Datenschutz-Versprechen.

Das Problem: Diese Aussagen betreffen das Datenschutzrecht — nicht das US-Strafrecht.

Der Cloud Act (Clarifying Lawful Overseas Use of Data Act), gültig seit 2018, erlaubt US-Behörden, von US-amerikanischen Unternehmen die Herausgabe von Daten zu verlangen — unabhängig davon, wo diese Daten physisch gespeichert sind. Ob der Server in Frankfurt, Dublin oder Amsterdam steht, ist rechtlich irrelevant, wenn das Unternehmen, das den Server betreibt, seinen Hauptsitz in den USA hat.

FISA 702 (Foreign Intelligence Surveillance Act, Section 702) geht noch weiter: Er erlaubt die Überwachung von Kommunikation, die US-amerikanische Anbieter transportieren oder verarbeiten, auch ohne individuellen richterlichen Beschluss.

Was bedeutet das praktisch?

Wenn eine Anwaltskanzlei in München Mandantendaten in ein Microsoft-Produkt einpflegt — Microsoft 365, Azure, Copilot — und ein US-Gericht oder eine US-Behörde eine Herausgabeanordnung ausstellt, muss Microsoft diese grundsätzlich erfüllen. Ein AV-Vertrag nach DSGVO schützt dagegen nicht. Die EU-US-Data-Privacy-Framework-Zertifizierung schützt dagegen nicht. Sie regeln den regulären Datentransfer, nicht staatliche Zugriffe.

Das Gleiche gilt für Amazon Web Services, Google Cloud, Anthropic (Claude), OpenAI (ChatGPT) und alle anderen US-amerikanischen Anbieter — unabhängig vom Serverstandort.

Für Berufsgeheimnisträger, die dem deutschen Strafrecht unterliegen, ist dieser Zugriffspfad nicht durch § 203 Abs. 4 StGB abgedeckt: Die zuverlässige Drittpartei muss so gestaltet sein, dass eine unbefugte Offenbarung ausgeschlossen ist. Ein Cloud-Act-Zugriff ist eine solche unbefugte Offenbarung — und er ist bei US-Unternehmen nicht ausschließbar.


Konkrete KI-Produkte und ihre §203-Kritikalität

Nicht jede KI-Nutzung ist gleichartig riskant. Eine Kanzlei, die ChatGPT nutzt, um allgemeine Textbausteine zu generieren, ohne Mandantennamen oder konkrete Falldaten einzugeben, bewegt sich in einem anderen Risikobereich als eine Kanzlei, die Schriftsätze vollständig per KI analysieren lässt.

Produkt / Einsatzfall §203-Kritikalität Begründung
KI-Chatbot auf Kanzleiwebseite (Erstkontakt) Mittel Erstanfragen können Mandantennamen, Fallbeschreibungen enthalten
KI-Telefon-Assistenz mit Transkription Kritisch Jedes Gespräch ist potenziell Mandantenkommunikation
RAG-Aktenanalyse (eigene Dokumente) Kritisch Schriftsätze, Gutachten, Diagnosen laufen durch KI-Modell
Workflow-Automation mit Mandantendaten Kritisch E-Mails, Fristenübersichten, Rechnungen mit Personenbezug
Allgemeine Büro-KI ohne Mandantenbezug Niedrig Werbetexte, interne Notizen ohne Personenbezug
KI-gestütztes Fristenmanagement Kritisch Fristen sind fallbezogen, oft mit Mandantenidentität verknüpft

Die Einstufung "Kritisch" bedeutet: Ohne §203-konforme Infrastruktur sollte dieses Produkt nicht eingesetzt werden. "Mittel" bedeutet: Es kommt auf den konkreten Einsatz an — wenn ausschließlich anonyme Allgemeinanfragen bearbeitet werden, sinkt das Risiko; sobald Mandantendaten einfließen, steigt es auf Kritisch.

Wer nicht weiß, welche seiner bestehenden Workflows in diese Kategorien fallen, kann das mit dem Automations-Audit (690 €) systematisch kartieren lassen. Das Audit dokumentiert alle Datenflüsse im 4-Pod-Framework und markiert, wo §203-kritische Daten durch welche Systeme laufen.


Was §203-konforme KI technisch braucht

Eine §203-konforme KI-Infrastruktur ist kein Marketingbegriff, sondern eine technische Anforderungsliste. Diese sieben Kriterien sind nicht verhandelbar:

1. DE-Hosting ohne US-Unternehmensstruktur in der Lieferkette

Der Rechenzentrumsbetreiber muss ein deutsches oder europäisches Unternehmen sein — ohne US-Muttergesellschaft, die dem Cloud Act unterliegt. Hetzner (Nürnberg/Falkenstein) erfüllt das. Microsoft Azure, Amazon Web Services und Google Cloud erfüllen es nicht, weil die Muttergesellschaften amerikanisch sind.

2. Keine Cloud-Act-exponierten Subprocessors

Auch wenn das eigentliche Hosting in DE liegt: Werden für E-Mail, DNS, CDN, Monitoring oder Logging US-amerikanische Dienste eingesetzt, entsteht ein Cloud-Act-Zugriffspfad über die Hintertür. Jeder Subprocessor in der Kette muss geprüft sein.

3. Lokale KI-Inferenz

Das KI-Modell läuft auf eigener Hardware im deutschen Rechenzentrum, nicht über eine externe API. In der Praxis bedeutet das: Ollama mit Open-Source-Modellen wie Mistral Small 3, Qwen 3 oder Llama 3.3. Die Daten verlassen zu keinem Zeitpunkt die eigene Infrastruktur.

4. Audit-Log-Isolation ohne SaaS-Telemetrie

Keine SaaS-Monitoring-Dienste, die Logs an externe Server senden. Logs bleiben auf dem eigenen System. Das ist besonders relevant bei n8n-Workflows: Die SaaS-Version sendet Telemetrie — nur die self-hosted Version ist für §203-Kontexte geeignet. Das gilt genauso für Zapier und Make, die grundsätzlich als US-SaaS rausfallen. Mehr dazu im Artikel Zapier, Make, n8n — warum nur Self-Hosted für §203 funktioniert.

5. Backup-Verschlüsselung at rest und in transit

Backups und alle Datentransporte zwischen Systemen müssen verschlüsselt sein. Für Kanzleien und Praxen gilt das ohnehin als Mindeststandard — bei §203-Kontexten ist es explizit dokumentationspflichtig.

6. Individueller AV-Vertrag + §203-Anhang

Ein Standard-AV-Vertrag nach Art. 28 DSGVO reicht nicht. Es braucht einen zusätzlichen Anhang, der die §203-Anforderungen adressiert: Verschwiegenheitspflicht, Zuverlässigkeitserklärung, Zugriffsbeschränkungen, Verfahren bei behördlichen Anfragen. Dieser Anhang ist die vertragliche Grundlage dafür, dass der IT-Dienstleister als "sonstige mitwirkende Person" im Sinne von § 203 Abs. 4 StGB gilt.

7. Strafrechtlich belastbare Zuverlässigkeitsbewertung

§ 203 Abs. 4 StGB schreibt vor, dass mitwirkende Personen nachweislich zuverlässig sein müssen. Das ist nicht nur ein Satz im Vertrag — es sollte dokumentiert sein: Auszug aus dem Gewerbezentralregister, keine einschlägigen Vorstrafen, klare interne Prozesse für Datenschutzvorfälle.


Häufige Fehl-Annahmen, die in Praxis-Reviews auftauchen

In der Beratungspraxis tauchen einige Irrtümer regelmäßig auf:

"ChatGPT Enterprise ist §203-safe."

Nein. ChatGPT Enterprise bietet verbesserten Datenschutz im DSGVO-Sinne: Daten werden nicht für Training genutzt, es gibt einen AV-Vertrag. Aber OpenAI ist ein US-amerikanisches Unternehmen. Der Cloud Act greift. Kein Enterprise-Vertrag hebt das auf.

"Microsoft Copilot mit EU Data Boundary reicht für §203."

Das ist rechtlich strittig, aber die überwiegende Einschätzung von IT-Anwälten ist: Nein, es reicht nicht. Microsoft ist US-amerikanisch. Die EU Data Boundary ist eine technische Maßnahme, keine rechtliche Immunität gegen Cloud-Act-Anfragen. Microsoft selbst schreibt in seinen Nutzungsbedingungen, dass rechtliche Verpflichtungen Vorrang haben.

"Claude über Anthropic mit Data Privacy Framework ist OK für Kanzleien."

Anthropic ist DSGVO-konform via EU-US Data Privacy Framework. Das ist korrekt und für normale Unternehmen ausreichend. Für §203-Berufe reicht es nicht, weil das DPF den kommerziellen Datentransfer regelt, nicht staatliche Zugriffsrechte nach FISA 702.

"Ein Open-Source-LLM ist automatisch §203-safe."

Nur wenn es self-hosted in einem deutschen Rechenzentrum läuft — ohne US-Hosting-Anbieter in der Lieferkette. Ein Llama-3-Modell, das auf AWS EU-Central läuft, ist durch den AWS-Cloud-Act-Exposure genauso problematisch wie ein proprietäres Modell. Das Modell selbst ist open source; die Infrastruktur entscheidet.

"Der AV-Vertrag schützt uns, falls doch etwas passiert."

Ein AV-Vertrag schützt vor DSGVO-Bußgeldern — nicht vor § 203-Strafbarkeit. Die strafrechtliche Verantwortung liegt beim Berufsgeheimnisträger persönlich. Ein Vertrag mit einem Dienstleister ändert daran nichts.


Was es kostet, §203-konform zu werden

Ehrlichkeit ist hier angebracht: §203-konforme KI ist teurer als SaaS-KI.

Wer ChatGPT Enterprise bucht, zahlt etwa 25–30 $ pro Nutzer und Monat. Microsoft 365 Copilot kostet rund 30 € pro Nutzer. Das sind geringe Beträge für sehr leistungsfähige Systeme.

§203-konforme Infrastruktur hat höhere Anfangskosten, weil Setup-Arbeit anfällt: Server provisionieren, Modell installieren, n8n self-hosted einrichten, Verschlüsselung konfigurieren, AV-Vertrag ausarbeiten. Je nach Tier und Komplexität liegt das Setup zwischen 990 € und 5.990 €.

Die laufenden Kosten hängen von der Infrastruktur ab: kleiner VPS plus GPU-Anteil kostet in einem geteilten Modell ab etwa 189 €/Monat für einfache Nutzung bis zu 3.990 €/Monat für dedizierte GPU-Infrastruktur in Wirtschaftskanzleien.

Die Gegenrechnung: Das Risiko einer strafbaren Offenbarung nach § 203 StGB ist nicht in Geld zu messen. Eine Verurteilung — selbst eine auf Bewährung — endet in vielen §203-Berufen mit dem Entzug der Berufszulassung. Das Berufsrecht der Rechtsanwälte, Ärzte und Steuerberater kennt die Unwürdigkeitsklausel: Eine strafrechtliche Verurteilung wegen eines berufsspezifischen Delikts hat regelmäßig berufsrechtliche Konsequenzen.

§203-konforme KI ist kein Luxus. Sie ist Risikomanagement.


Mehr zur sicheren Kommunikation und zum Basis-Guide

Wer tiefer in das Thema einsteigen will: Der Artikel KI-Nutzung ohne Reue — der Praxis-Guide für §203 StGB gibt einen praxisnahen Überblick, welche Grundregeln für alle Berufsgeheimnisträger gelten. Für die kommunikative Ebene — Mandantenkommunikation, interne Abstimmung — ist Matrix / Element X: Der Goldstandard für vertrauliche Kommunikation empfehlenswert.


Der Velo §203-Tier-Plan — Coming Q2 2026

Velo Automation entwickelt derzeit einen vollständigen §203-konformen Infrastruktur-Stack — drei Tiers, die unterschiedliche Kanzlei- und Praxisgrößen abdecken.

§203-Starter ist für Einzelanwälte, Einzelpraxen und Kanzleien mit ein bis drei Mitarbeitern konzipiert. Der Stack läuft auf einem kleinen Hetzner-VPS mit geteiltem GPU-Node für die KI-Inferenz. Die KI läuft lokal (Ollama + Mistral Small 3 oder Qwen 3), alle Daten bleiben in Hetzner-Rechenzentren in Nürnberg oder Falkenstein. Setup ab 990 €, laufend ab 189 €/Monat.

§203-Safe richtet sich an Kanzleien und Praxen mit fünf bis zwanzig Mitarbeitern, Steuerberatungsgesellschaften und mittlere Arztpraxen. Eigener VPS, geteilter GPU-Node, erhöhte Ressourcen für parallele Anfragen. Setup ab 1.990 €, laufend ab 399 €/Monat.

§203-Premium ist für Wirtschaftskanzleien, Ärztenetzwerke und BaFin-regulierte Institute gedacht. Dedizierte GPU-Infrastruktur, BSI C5-zertifiziertes Hosting als Option, vollständig isolierter Stack. Setup ab 4.990 €, laufend ab 890 €/Monat.

Aktueller Stand: Phase 2 (GPU-Test und Benchmark mit Mistral Small 3 und Llama 3.3) läuft. Phase 4 (Produkt-Roll-out) ist für ca. Mai bis Juni 2026 geplant.

Die vollständige Tier-Matrix und die Vormerkungsmöglichkeit finden sich auf /preise. Wer frühzeitig Interesse anmeldet, bekommt bevorzugten Zugang und — sofern Kapazitäten vorhanden — Early-Adopter-Konditionen.

Die Velo §203-Tier-Stacks (Starter / Safe / Premium) für genau diese Workflows sind in aktiver Entwicklung. DE-gehostet, ohne Cloud-Act-Zugriff, mit lokaler KI-Inferenz. Coming Q2 2026 — Tier-Übersicht und Vormerkung auf /preise.


Einstieg ohne Risiko: das Automations-Audit (690 €)

Bevor eine §203-konforme Infrastruktur gebaut wird, stellt sich eine praktische Frage: Welche Workflows sind überhaupt §203-kritisch?

Viele Kanzleien und Praxen haben in den letzten Jahren schrittweise digitalisiert — E-Mail-Automatisierungen, Cloud-Speicher, digitale Aktenverwaltung, erste KI-Experimente. Nicht jeder Prozess ist gleichartig kritisch. Eine Struktur, die das nicht kennt, riskiert, an der falschen Stelle zu über- oder zu unterschützen.

Das Automations-Audit (690 €) kartiert das systematisch. Im 4-Pod-Framework werden alle bestehenden Workflows dokumentiert und nach §203-Kritikalität eingestuft: Wo fließen Mandantennamen? Welche Systeme verarbeiten Diagnosen? Welche E-Mail-Automatisierungen berühren Schriftsätze?

Das Ergebnis ist ein Report, der zeigt, welche Teile der bestehenden Infrastruktur sofort angepasst werden müssen, welche warten können, und wo §203-konforme KI den größten Hebel hätte.

Mehr zum Audit und zur Methodik: Das 4-Pod-Framework und das Automations-Audit. Buchung direkt unter /automations-audit.

Für Kanzleien, die bereits wissen, dass sie auf den §203-Stack warten: /preise enthält die aktuelle Roadmap und die Vormerkungsmöglichkeit.


Häufige Fragen

Was ist der Unterschied zwischen DSGVO-Konformität und §203-Konformität?

Die DSGVO ist Verwaltungsrecht und regelt den allgemeinen Datenschutz. Bei Verstößen drohen Bußgelder, die das Unternehmen treffen. §203 StGB ist Strafrecht — er trifft die Person. Wer als Anwalt, Arzt oder Steuerberater Berufsgeheimnisdaten unbefugt an Dritte weitergibt, macht sich strafbar. Ein DSGVO-konformer Anbieter kann trotzdem §203-problematisch sein — etwa wenn er US-amerikanisch ist und dem Cloud Act unterliegt.

Greift §203 auch bei kleinen Kanzleien mit zwei Personen?

Ja. §203 StGB kennt keine Größengrenze. Eine Einzelkanzlei mit einem Anwalt und einer Assistenz unterliegt denselben strafrechtlichen Anforderungen wie eine Wirtschaftskanzlei mit 200 Anwälten. Der Schutz des Berufsgeheimnisses ist personenbezogen, nicht unternehmensgrößenbezogen.

Ist ChatGPT Enterprise §203-sicher?

Nein. ChatGPT Enterprise verbessert den Datenschutz im DSGVO-Sinne — Daten werden nicht für Training verwendet, es gibt einen AV-Vertrag. Aber OpenAI ist ein US-amerikanisches Unternehmen und unterliegt dem Cloud Act. US-Behörden können Datenzugriff verlangen, unabhängig davon, wo die Daten gespeichert sind. Für §203-Berufe ist das nicht akzeptabel.

Was ist mit Microsoft Azure und der EU Data Boundary?

Die EU Data Boundary ist eine technische Maßnahme, die den Datenabfluss in regulären Betriebssituationen einschränkt. Sie ist kein rechtlicher Schutz gegen Cloud-Act-Anfragen. Microsoft ist ein US-amerikanisches Unternehmen und muss US-Behördenanfragen grundsätzlich nachkommen. Für §203-Berufe gilt: Solange das Mutterunternehmen US-amerikanisch ist, besteht das Risiko.

Reicht ein Auftragsverarbeitungsvertrag (AV-Vertrag) nach DSGVO?

Nicht für §203. Ein AV-Vertrag nach Art. 28 DSGVO regelt den Datenschutz — er begründet keine §203-Konformität. Dafür braucht es zusätzlich einen §203-Anhang, der die strafrechtlichen Anforderungen adressiert: Verschwiegenheitspflicht, Zuverlässigkeitserklärung, Zugriffskontrollen, Dokumentation nach § 203 Abs. 4 StGB.

Muss der Mandant explizit in die KI-Nutzung einwilligen?

Das ist rechtlich nicht abschließend geklärt und hängt vom konkreten Einsatzfall ab. Die herrschende Meinung tendiert dazu, dass bei einer vollständig internen, nicht nach außen kommunizierten KI-Infrastruktur eine konkludente Einwilligung möglich ist — wenn der Einsatz verhältnismäßig ist. Bei einem US-amerikanischen Cloud-Dienst entfiele diese Argumentation, da der Cloud-Act-Zugriffspfad eine Offenbarung nach außen darstellen kann. Im Zweifel: Anwalt fragen und transparente Mandanteninformation einführen.

Was kostet §203-konforme KI grob?

Realistische Richtwerte: Setup zwischen 990 € (§203-Starter, Einzelkanzlei) und 4.990 € (§203-Premium, Wirtschaftskanzlei). Laufende Kosten zwischen 189 €/Monat (Starter) und 890 €/Monat und mehr (Premium). Das ist teurer als SaaS-KI, aber das Strafbarkeitsrisiko — mit möglichem Berufsrechtsverlust — übersteigt jeden Kostenvergleich.

Wann startet der Velo §203-Stack?

Phase 4, der eigentliche Produkt-Roll-out, ist für ca. Mai bis Juni 2026 geplant. Aktuell läuft die GPU-Testphase mit Benchmarks für Mistral Small 3 und Llama 3.3. Vormerken ist möglich auf /preise — frühzeitige Interessenten kommen bevorzugt in den First-Access-Pool.


Nächster Schritt

§203-konforme KI ist keine Frage des Budgets — sie ist eine Frage des Risikobewusstseins.

Wer heute einen US-amerikanischen KI-Dienst mit Mandantendaten nutzt, trägt ein Risiko, das mit keinem Bußgeldbetrag zu vergleichen ist. Strafbarkeit, Berufsrechtsverlust, Vertrauensverlust bei Mandanten.

Zwei sinnvolle nächste Schritte:

1. Workflows kartieren: Das Automations-Audit (690 €) zeigt, welche Prozesse §203-kritisch sind und wo unmittelbarer Handlungsbedarf besteht.

2. Für §203-Stack vormerken: Auf /preise finden sich die Tier-Matrix und die Vormerkung für den Q2-2026-Launch. Wer zu den Ersten gehört, erhält bevorzugten Zugang.

Ergänzende Lektüre für Anwältinnen und Anwälte sowie Kanzlei-IT-Verantwortliche: Branchen-Kontext für Kanzleien und Rechtsanwälte und der Artikel Legal Tech 2026: Die wichtigsten KI-Trends für Kanzleien.

Passende Angebote:

Weiterlesen