Die 7 häufigsten technischen SEO-Fehler auf Websites von Berufsgeheimnisträgern — und wie Sie sie selbst finden
Mobile-First-Lücke, Schema-Chaos, Third-Party-Ballast, Kanonisierungs-Fehler: 7 konkrete technische SEO-Fehler, die Kanzlei- und Praxis-Websites unsichtbar machen. Mit 30-Minuten-Selbst-Check und Brücke zur Komplett-SEO-Analyse (490 €).
Die 7 häufigsten technischen SEO-Fehler auf Websites von Berufsgeheimnisträgern — und wie Sie sie selbst finden
TLDR: Technische SEO-Probleme sind auf Kanzlei- und Praxis-Websites verbreitet, weil die technische Basis nach dem Launch nie wieder angefasst wird. Dieser Artikel zeigt sieben konkrete Fehler — von fehlenden Schema-Daten bis zur defekten robots.txt — und erklärt, wie Sie diese mit kostenfreien Werkzeugen selbst einordnen können. Wo die Diagnose endet und eine systematische Analyse beginnt, steht am Ende klar beschrieben.
Warum technisches SEO bei §203-Branchen besonders oft leidet
Kanzleien, Arztpraxen, Steuerberatungsbüros und Notariate haben eines gemeinsam: Ihre Website ist irgendwann einmal von einer Agentur oder einem Freelancer aufgesetzt worden, hat seitdem optisch gut funktioniert und ist dann sich selbst überlassen geblieben. Inhalte wurden sporadisch aktualisiert, gelegentlich ein neues Teammitglied eingetragen, vielleicht die Öffnungszeiten angepasst. Die technische Basis — Ladezeiten, Crawlbarkeit, Structured Data, Redirect-Konfiguration — hat seit dem Launch niemand mehr angefasst.
Das ist kein Versagen, sondern eine strukturelle Realität. In diesen Berufsgruppen gibt es keinen internen Webmaster, keinen IT-Verantwortlichen für Online-Marketing und oft auch keinen externen Partner, der regelmäßig nachschaut. Die Website läuft, also scheint alles in Ordnung zu sein.
Gleichzeitig hat sich das technische Fundament, das Google für eine gute Bewertung erwartet, in den vergangenen fünf Jahren grundlegend verändert. Core Web Vitals, Mobile-First-Indexierung, Structured Data für lokale Dienstleister, KI-Crawler-Regeln in der robots.txt — das alles gab es so nicht, als die meisten dieser Websites entstanden sind.
Das Ergebnis ist vorhersehbar: Die Seite ist erreichbar, sieht aus wie eine Kanzlei-Website, rankt aber für nahezu nichts außer dem eigenen Namen. Wer die Hintergründe dazu aus einer übergeordneten Perspektive verstehen möchte, findet im Hauptartikel zur professionellen SEO-Analyse für Kanzleien und Praxen eine ausführlichere Einordnung.
Die sieben Fehler, die in diesem Artikel beschrieben werden, stammen aus realen Website-Analysen. Manche davon sind in 30 Minuten erkennbar. Manche brauchen etwas Erfahrung im Umgang mit Browser-DevTools oder Kommandozeilen-Werkzeugen. Alle sieben haben direkte Auswirkungen auf das Ranking.
Fehler 1: Mobile-First-Lücke — Ihre Website rankt auf Desktop, nicht in der Realität
Seit 2019 indexiert Google Websites primär so, wie sie auf einem Smartphone wirken. Die Desktop-Ansicht ist sekundär. Das bedeutet: Wenn Ihre Website auf einem iPhone 14 langsam lädt, unlesbare Schriften hat oder Buttons zu klein zum Antippen sind, wirkt sich das auf Ihr gesamtes Ranking aus — nicht nur auf die mobile Nutzung.
Die drei relevanten Core Web Vitals sind:
- LCP (Largest Contentful Paint): Wie lange dauert es, bis das größte sichtbare Element geladen ist? Gut: unter 2,5 Sekunden. Kritisch: über 4 Sekunden.
- CLS (Cumulative Layout Shift): Wie stark springt der Seiteninhalt beim Laden? Gut: unter 0,1. Kritisch: über 0,25.
- INP (Interaction to Next Paint): Wie schnell reagiert die Seite auf Nutzerinteraktion? Gut: unter 200 ms.
Auf Kanzlei- und Praxis-Websites sind LCP-Werte über 4 Sekunden und CLS-Werte über 0,25 keine Ausnahme, sondern die Regel. Die häufigsten Ursachen: zu große Bilder ohne WebP-Komprimierung, kein Lazy Loading, Google Fonts werden blockierend geladen, und das verwendete WordPress-Theme ist nicht auf Mobile optimiert.
Selbst-Test: Rufen Sie pagespeed.web.dev auf, geben Sie Ihre Domain ein und klicken Sie auf "Mobilgeräte". Die Auswertung zeigt Ihnen LCP, CLS und INP direkt an. Ein Score unter 50 (rot) im mobilen Bereich ist ein ernst zu nehmendes Signal.
Was realistisch zu fixen ist: Bildkomprimierung, Caching-Konfiguration und Font-Loading lassen sich in den meisten Fällen ohne Redesign verbessern. CLS-Probleme durch schlecht eingebundene Werbebanner oder schlecht definierte Bildabmessungen ebenfalls. Ein kompletter Layout-Umbau ist selten notwendig — aber eine Priorisierung hilft.
Fehler 2: Nicht-semantische Überschriften-Hierarchie
Überschriften sind für Google und für KI-Suchmaschinen gleichermaßen wichtig. Sie strukturieren den Inhalt einer Seite und signalisieren, worum es auf welcher Ebene geht. Wenn diese Struktur fehlt oder inkonsistent ist, verliert die Seite an Relevanz für thematische Suchanfragen.
Die häufigsten Fehler in diesem Bereich:
- Mehrere H1 auf einer Seite: H1 sollte es genau einmal geben — als Titel des Dokuments. Vier H1 auf einer Startseite sagen Google: Diese Seite hat kein klares Thema.
- H3 ohne vorausgehendes H2: Wenn auf eine H1 direkt eine H3 folgt, fehlt eine Hierarchieebene. Das ist wie ein Inhaltsverzeichnis ohne Kapitel, nur mit Unterkapiteln.
- Navigation als H2: Seitennavigationen, Footer-Links und Widgets werden in älteren WordPress-Themes manchmal als Überschriften ausgezeichnet. Das verwässert die inhaltliche Struktur der echten Seiteninhalte.
Für KI-Suchmaschinen wie Perplexity oder ChatGPT ist die Überschriftenstruktur besonders relevant. Diese Systeme versuchen, Antworten auf spezifische Fragen aus dem Web zu extrahieren. Eine klare H2/H3-Hierarchie mit Frage-Antwort-Struktur erhöht die Wahrscheinlichkeit, dass ein Inhalt als Quelle zitiert wird. Mehr dazu im Artikel zur KI-Sichtbarkeit und GEO-Audit.
Selbst-Test: Öffnen Sie in Ihrem Browser die Entwickler-Werkzeuge (F12 in Chrome oder Firefox), wechseln Sie in den Tab "Inspector" oder "Elements" und suchen Sie nach h1, h2, h3. Alternativ: Es gibt kostenlose Browser-Erweiterungen wie "Headings Map", die die Überschriften-Hierarchie einer Seite als Baumstruktur darstellen.
Fehler 3: Fehlende oder falsche Strukturierte Daten (Schema.org)
Strukturierte Daten (Schema Markup) sind maschinenlesbare Informationen, die Sie in den HTML-Code Ihrer Website einbetten. Sie helfen Google zu verstehen, was auf einer Seite steht — und sie ermöglichen Rich Snippets in den Suchergebnissen: Sternebewertungen, Öffnungszeiten, FAQ-Akkordeons direkt in der Ergebnisliste.
Für Berufsgeheimnisträger gibt es spezifische Schema-Typen, die besonders relevant sind:
- LegalService für Anwaltskanzleien und Notariate
- MedicalBusiness oder Physician für Arztpraxen
- AccountingService für Steuerberater
- LocalBusiness als Basis mit Adresse, Öffnungszeiten, Kontakt
- FAQPage für Seiten mit Frage-Antwort-Strukturen
Der Status quo auf den meisten Kanzlei- und Praxis-Websites: Kein Schema überhaupt, oder ein generisches Organization-Markup ohne Spezialisierung. FAQ-Seiten ohne FAQPage-Schema. Lokale Dienstleistungsseiten ohne den spezifischen Schema-Typ, der Google signalisiert: Das ist ein zugelassener Rechtsanwalt in dieser Stadt.
Selbst-Test: Rufen Sie search.google.com/test/rich-results auf und geben Sie Ihre Domain ein. Das Tool zeigt Ihnen, welche strukturierten Daten Google auf Ihrer Seite erkennt — und welche Fehler oder Warnungen vorliegen. Null erkannte Strukturen ist kein neutrales Ergebnis, sondern ein Nachteil gegenüber Wettbewerbern, die diese Daten pflegen.
Fehler 4: Third-Party-Scripts, die DSGVO und §203 berühren
Das ist der Fehler mit der doppelten Sprengkraft: Er ist gleichzeitig ein SEO-Problem und ein Compliance-Problem.
Auf vielen Kanzlei- und Praxis-Websites laufen im Hintergrund Skripte, die beim ursprünglichen Setup eingebunden wurden und nie hinterfragt worden sind. Typische Kandidaten:
- Google Analytics (UA oder GA4) ohne korrekte Consent-Konfiguration
- Meta Pixel für Werbenachverfolgung
- Google Maps eingebettet ohne Consent-Wrapper
- Chatbot-Scripts externer Anbieter (US-amerikanische Server)
- Schriftarten-Loader von Google Fonts, die IP-Adressen an Google übertragen
Aus SEO-Perspektive sind diese Skripte ein Ballast. Jedes externe Skript ist ein zusätzlicher HTTP-Request, der die Ladezeit erhöht. Wenn das Skript blockierend eingebunden ist — also der Browser die Seite erst dann aufbaut, wenn das Skript vollständig geladen ist —, verschlechtert sich der LCP direkt.
Aus Compliance-Perspektive ist die Lage noch ernster. Wenn Formulare auf der Website — etwa ein Kontaktformular, in das Mandanten ihr Anliegen schreiben — zusammen mit einem Meta Pixel oder Google Analytics laufen, das Verhaltensdaten an US-Server sendet, kann das den Tatbestand des § 203 StGB berühren. Das gilt auch dann, wenn die Datenübertragung "nur" anonymisierte Nutzungsdaten enthält, weil Kontext und gleichzeitige Formularübermittlung eine Zuordnung ermöglichen können.
Selbst-Test: Öffnen Sie in Chrome die Entwicklertools (F12), wechseln Sie in den Tab "Network" und laden Sie Ihre Website neu. Filtern Sie nach "3rd-party" oder schauen Sie, welche Requests an externe Domains gehen. Alternativ: Ein curl -I https://ihredomain.de im Terminal zeigt Ihnen Response-Header, in denen manchmal bereits externe Tracking-Domains sichtbar werden.
Der vollständige Audit dieser Skripte — welche sind datenschutzrechtlich relevant, welche davon verlangsamen die Seite messbar, welche lassen sich durch datenschutzfreundliche Alternativen ersetzen — ist Teil der Komplett-SEO-Analyse (490 €). Die Analyse beinhaltet eine explizite Auswertung aller eingebundenen Third-Party-Ressourcen und ihre Relevanz für §203-Branchen.
Fehler 5: Dünne Service-Seiten ohne semantische Tiefe
"Arbeitsrecht" als 150-Wort-Seite. "Steuererklärung" mit drei Absätzen und einem Kontaktformular. "Schmerzensgeld" als Unterseite, die kürzer ist als ein Twitter-Thread.
Diese Seiten existieren, werden gecrawlt, nehmen Crawl-Budget in Anspruch — ranken aber nicht. Der Grund: Google bewertet Seiten danach, wie umfassend und verlässlich sie ein Thema behandeln. Eine Seite, die nicht erklärt, was das Rechtsgebiet umfasst, welche konkreten Situationen es betrifft, welche häufigen Fragen Mandanten haben und wie die Kanzlei dabei helfen kann, signalisiert Google: Diese Seite ist kein Experte für dieses Thema.
Das Konzept dahinter heißt Topical Authority: Google vertraut Websites mehr, die ein Themengebiet tief und konsistent abdecken, als solchen, die viele Themen oberflächlich anreißen. Für eine Kanzlei bedeutet das: Nicht 20 Seiten mit je 100 Wörtern, sondern 5 Seiten mit echter inhaltlicher Substanz, ergänzt durch Unterseiten für spezifische Unterthemen.
Ein zusätzliches Problem entsteht durch Keyword-Kannibalisierung: Wenn zwei oder mehr Seiten einer Website für dasselbe Keyword relevant sind, konkurrieren sie gegenseitig. Google weiß nicht, welche Seite es bevorzugen soll, und bevorzugt im Zweifel keine.
Selbst-Test: Rufen Sie Ihre wichtigsten Dienstleistungsseiten auf und zählen Sie die Wörter (Browser-Suchfunktion → "Strg+A" + Wortanzahl im Texteditor). Wenn eine Kernleistung weniger als 400 Wörter hat, ist das ein Indiz für dünnen Content. Das allein ist keine Diagnose — aber ein Ausgangspunkt für einen Content-Audit, wie er in der Komplett-SEO-Analyse durchgeführt wird. Für Hintergründe zur KI-seitigen Sichtbarkeit dieser Inhalte empfiehlt sich außerdem der Artikel zu Legal Tech 2026 und den wichtigsten Trends für Kanzleien.
Fehler 6: Kanonisierungs-Chaos — Wer ist die offizielle URL?
Canonical-Tags lösen ein spezifisches Problem: Wenn dieselbe oder inhaltlich sehr ähnliche Seite unter mehreren URLs erreichbar ist, sagt das Canonical-Tag Google, welche Version die "echte" ist. Ohne diese Angabe zieht Google selbst Schlüsse — und liegt dabei nicht immer richtig.
Typische Kanonisierungsprobleme auf Kanzlei- und Praxis-Websites:
- www und non-www beide erreichbar:
https://www.kanzlei-beispiel.de/undhttps://kanzlei-beispiel.de/zeigen denselben Inhalt, ohne dass eine auf die andere weiterleitet. Google sieht zwei getrennte Seiten. - HTTP und HTTPS nicht einheitlich: Alte Verlinkungen oder eingebettete Inhalte zeigen noch auf
http://-URLs, während die eigentliche Seite HTTPS verwendet. - Canonical zeigt auf Staging-Domain: Bei Websites, die mit einer Testdomaine entwickelt und dann live gestellt wurden, passiert es häufig, dass Canonical-Tags noch auf die alte
staging.-Domain zeigen. Google indexiert dann nicht die Live-Seite. - Doppelte Inhalte durch URL-Parameter: Kontaktformular-Dankeseiten, Filterfunktionen oder Sortierparameter erzeugen URLs wie
/kontakt?sent=1, die inhaltlich identisch mit der Ausgangsseite sind.
Selbst-Test: Rufen Sie Ihre Startseite mit und ohne www auf sowie mit http:// statt https://. Wenn alle vier Varianten denselben Inhalt zeigen, ohne dass eine auf eine andere weiterleitet (301-Redirect), liegt ein Problem vor. Den Canonical-Tag prüfen Sie über "Quelltext anzeigen" (Strg+U) und die Suche nach rel="canonical".
Fehler 7: Robots.txt und Sitemap.xml — defekt oder veraltet
Diese beiden Dateien sind technisch einfach, aber folgenreich. Sie steuern, was Crawler sehen dürfen und wie sie Ihre Website navigieren.
Robots.txt-Fehler:
Der gravierendste Fall: Disallow: / in der produktiven robots.txt. Das bedeutet: Alle Crawler sind von der gesamten Website ausgesperrt. Dieser Fehler entsteht häufig, wenn eine Website während der Entwicklung gesperrt wird ("Bitte noch nicht indexieren") und diese Einstellung nach dem Launch nicht zurückgesetzt wird. Die Website ist technisch erreichbar, wird von Google aber nicht gecrawlt.
Weniger dramatisch, aber ebenso relevant: Crawler-Regeln für KI-Bots fehlen vollständig. GPTBot, ClaudeBot, Google-Extended — alle großen KI-Unternehmen haben eigene Crawler. Für Berufsgeheimnisträger stellt sich die Frage: Sollen diese Crawler Ihre Website lesen und als Quelle verwenden dürfen? Oder soll das ausgeschlossen sein? Diese Entscheidung muss explizit getroffen und in der robots.txt umgesetzt werden. Einen praktischen Rahmen für den Umgang mit KI-Tools unter §203-Anforderungen bietet der Praxis-Guide für §203-Branchen.
Sitemap.xml-Fehler:
- Sitemap existiert, ist aber nicht in der Google Search Console eingereicht
- Sitemap enthält URLs, die 404-Fehler zurückgeben (gelöschte Seiten, umbenannte Unterseiten)
- Sitemap wurde seit zwei Jahren nicht mehr aktualisiert und spiegelt nicht den aktuellen Stand der Website wider
- Sitemap ist im robots.txt nicht verlinkt und damit für Crawler schwerer auffindbar
Selbst-Test: Rufen Sie https://ihredomain.de/robots.txt und https://ihredomain.de/sitemap.xml direkt im Browser auf. Wenn eine der beiden Dateien einen 404-Fehler zurückgibt oder die robots.txt Disallow: / enthält, ist sofortiger Handlungsbedarf gegeben. Den Inhalt der Sitemap können Sie auf Fehler prüfen, indem Sie einzelne darin gelistete URLs aufrufen.
Was Sie selbst in 30 Minuten prüfen können — und wo die Komplett-SEO-Analyse weitergeht
Mit den in diesem Artikel beschriebenen Selbsttests lässt sich eine erste Einordnung vornehmen. Die Werkzeuge dafür kosten nichts:
- PageSpeed Insights für LCP, CLS, INP (mobil + Desktop)
- Google Rich Results Test für Structured Data
- Browser-DevTools (F12) für Überschriften-Hierarchie, externe Skripte, Canonical-Tag
- Direkte URL-Aufrufe für robots.txt, sitemap.xml, www/non-www-Verhalten
Was diese Werkzeuge nicht leisten: Sie geben Ihnen einen Snapshot, keine Einordnung. Sie sagen Ihnen, dass ein Problem existiert — aber nicht, wie gravierend es im Vergleich zu Ihrem Wettbewerb ist, welche Maßnahmen in welcher Reihenfolge den größten Effekt haben, und wo Ihre Inhalts- und Keyword-Lücken gegenüber der Konkurrenz liegen.
Die Komplett-SEO-Analyse (490 €) liefert genau das:
- Lighthouse-Auswertung aller relevanten Seiten, nicht nur der Startseite
- Keyword-Gap-Analyse gegen zwei bis drei direkte Wettbewerber
- Content-Audit aller bestehenden Seiten nach Traffic-Potenzial und inhaltlicher Tiefe
- Structured-Data-Prüfung mit konkreten Implementierungsvorschlägen
- Third-Party-Script-Inventar inklusive DSGVO- und §203-Relevanz
- 12-Monats-Roadmap mit priorisierten Maßnahmen nach Quick Wins, mittelfristigen Hebeln und strukturellen Verbesserungen
- Competitor-Tabelle mit direktem Vergleich der wichtigsten Ranking-Faktoren
Lieferzeit: 3–5 Werktage. Ausgabeformat: strukturiertes PDF-Dokument, das intern weitergegeben oder an eine Agentur zur Umsetzung übergeben werden kann.
Wer zunächst einen schlankereren Einstieg sucht, findet mit dem Sichtbarkeits-Check (290 €) eine fokussiertere Vorstufe, die die Sichtbarkeit in Google-Suche und KI-Engines bewertet, ohne den vollständigen technischen Audit. Für Unternehmen, die neben SEO auch Prozessautomatisierungspotenziale prüfen möchten, bietet das Automations-Audit (690 €) einen erweiterten Rahmen.
Fallbeispiel: Eine Arztpraxis aus Norddeutschland
Eine allgemeinmedizinische Praxis mit zwei Standorten hatte seit fünf Jahren dieselbe Website — gebaut von einer lokalen Agentur, seitdem technisch unberührt. Die Praxis war lokal bekannt, hatte eine konstante Stammpatienten-Basis und wollte verstehen, warum Neupatienten sie kaum über Google fanden.
Im Rahmen der Komplett-SEO-Analyse wurden unter anderem folgende Befunde festgestellt:
Fehler 1 (Mobile-First-Lücke): LCP auf Mobilgeräten lag bei 5,8 Sekunden. Ursache war ein nicht komprimiertes Praxisfoto als Header-Bild (3,4 MB) und ein blockierend eingebundenes Terminbuchungs-Plugin.
Fehler 3 (Fehlende Structured Data): Kein MedicalBusiness-Schema, keine Physician-Auszeichnung, keine FAQPage-Daten auf der FAQ-Seite. Wettbewerber in derselben Stadt hatten alle drei Typen korrekt implementiert.
Fehler 4 (Third-Party-Scripts): Google Analytics 4 lief ohne Consent-Wrapper. Der Terminbuchungs-Dienst eines US-Anbieters übermittelte beim Seitenaufruf bereits Nutzungsdaten, bevor eine Einwilligung eingeholt worden war. Auf der Kontaktseite war ein eingebettetes Google-Map-Widget ohne Consent aktiv.
Fehler 7 (robots.txt/Sitemap): Die Sitemap enthielt 14 URLs mit 404-Fehlern — Reste gelöschter Seiten aus einem früheren Relaunch. Die Sitemap war nie in der Google Search Console eingereicht worden.
Die vier Fehler zusammen erklärten, warum die Praxis für Keywords wie "Allgemeinarzt [Stadt] Neupatienten" oder "Hausarzt [Stadtteil]" nicht in den Top 20 erschien.
Was danach passierte:
- Monat 1 (Quick Wins): Bildkomprimierung, robots.txt-Bereinigung, Sitemap-Einreichung, Consent-Wrapper für Google Analytics. Kein Redesign, kein neues System — nur Konfigurationsänderungen. LCP verbesserte sich auf 2,9 Sekunden.
- Monat 3 (Strukturelle Maßnahmen):
MedicalBusiness-Schema implementiert, FAQPage-Schema auf der FAQ-Seite ergänzt, Terminbuchungs-Anbieter gegen einen EU-gehosteten Dienst ausgetauscht. - Monat 12 (Content-Ausbau): Die drei wichtigsten Leistungsseiten wurden auf durchschnittlich 600 Wörter mit konkreten Patientenfragen ausgebaut. Keyword-Kannibalisierung zwischen zwei Standortseiten wurde durch klare Canonical-Zuordnung aufgelöst.
Das Ergebnis nach zwölf Monaten: Die Praxis erscheint für mehrere standortbezogene Suchanfragen erstmals in den Top 5. Der Anteil neuer Patienten, die über Google kamen, stieg nachweislich an — gemessen über das Kontaktformular mit UTM-Parametern.
FAQ: 8 Fragen zur technischen SEO-Diagnose
Kann ich diese Fehler nach der Diagnose selbst beheben?
Einige davon, ja. Bildkomprimierung, robots.txt-Korrekturen und Canonical-Tags sind technisch machbar, wenn jemand im Team Zugang zum CMS oder Server hat und keine Berührungsangst vor HTML-Quelltext hat. Structured Data, Consent-Konfigurationen für DSGVO-konforme Analytics und tiefergehende Core-Web-Vitals-Optimierungen setzen mehr technisches Verständnis voraus. Die Komplett-SEO-Analyse priorisiert explizit nach "selbst umsetzbar" und "Agentur/Entwickler notwendig".
Wie kritisch ist Fehler 4 (Third-Party-Scripts) im Vergleich zu den anderen?
Fehler 4 ist der einzige auf dieser Liste, der neben dem Ranking-Problem auch ein unmittelbares rechtliches Risiko erzeugt. Ein LCP von 5 Sekunden kostet Ranking — ein Meta Pixel auf einer Seite mit Patienten-Kontaktformular kann §203-Relevanz haben. Die Priorität sollte entsprechend höher sein.
Was ist der Unterschied zwischen Sichtbarkeits-Check und Komplett-SEO-Analyse?
Der Sichtbarkeits-Check (290 €) beantwortet die Frage: "Wie sichtbar sind wir gerade — in Google und in KI-Engines?" Er ist ein Messinstrument. Die Komplett-SEO-Analyse (490 €) geht tiefer: Sie erklärt, warum die Sichtbarkeit auf dem aktuellen Niveau liegt, was der Wettbewerb besser macht und welche Maßnahmen in welcher Reihenfolge helfen. Beides zusammen ergibt das vollständige Bild.
Wer korrigiert die Fehler nach dem Audit?
Das ist nicht Teil des Audits. Die Analyse liefert ein strukturiertes Dokument mit priorisierten Empfehlungen. Die Umsetzung kann durch Ihre bestehende Agentur, einen Freelancer oder — wenn Sie eine Weiterentwicklung wünschen — durch Velo Automation erfolgen. Viele Kunden übergeben das Dokument einfach an ihre bisherige technische Betreuung.
Was kostet die Umsetzung nach dem Audit ungefähr?
Das hängt stark davon ab, welche Fehler vorliegen. Konfigurationsänderungen (robots.txt, Canonical, Bildkomprimierung) kosten im Regelfall 2–4 Stunden Entwicklungszeit. Structured-Data-Implementierung: 4–8 Stunden. Content-Ausbau für 3–5 Kernseiten: je nach Tiefe 1–3 Tage redaktionelle Arbeit. Die Roadmap im Audit gibt dazu eine Orientierung.
Gilt das auch für Arztpraxen oder nur für Kanzleien?
Alle sieben Fehler sind branchenübergreifend. Für Arztpraxen ist Fehler 3 (Structured Data) besonders relevant, weil Physician- und MedicalBusiness-Schemas direkt die Darstellung in Google Maps und lokalen Suchergebnissen beeinflussen. Fehler 4 (Third-Party-Scripts) ist in Arztpraxen wegen der besonderen Sensibilität von Gesundheitsdaten noch kritischer als in anderen §203-Branchen.
Wie alt sollte eine SEO-Analyse maximal sein?
Als Faustregel gilt: Eine Analyse verliert nach 12 bis 18 Monaten erheblich an Aussagekraft. Googles Algorithmus-Updates, Veränderungen im Wettbewerbsumfeld und neue Core Web Vitals-Metriken machen eine ältere Analyse schnell zur Momentaufnahme ohne praktischen Wert. Websites, die in den vergangenen zwei Jahren keinen technischen Audit hatten, starten faktisch bei null.
Warum reichen kostenlose Online-Tools wie Ubersuggest oder Semrush-Freemodus nicht aus?
Diese Tools geben Ihnen Teilwissen — einzelne Metriken, begrenzte Keyword-Daten, oberflächliche technische Hinweise. Sie kontextualisieren nicht: Sie sagen Ihnen nicht, welcher Fehler für Ihre Branche und Ihren lokalen Markt am schwersten wiegt, welche Wettbewerber relevant sind und was deren Stärken gegenüber Ihrer Website konkret sind. Außerdem sind kostenlose Tools in der Crawltiefe stark begrenzt — sie scannen oft nur wenige Seiten einer Website, nicht alle.
Nächster Schritt: Komplett-SEO-Analyse buchen
Wenn Sie in diesem Artikel zwei oder mehr Fehler erkannt haben, die auf Ihre Website zutreffen könnten, ist eine systematische Diagnose der sinnvollste nächste Schritt.
Die Komplett-SEO-Analyse kostet 490 € und wird innerhalb von 3–5 Werktagen geliefert. Sie beinhaltet technischen Audit, Keyword-Gap-Analyse, Content-Audit, Wettbewerbsvergleich und eine priorisierte 12-Monats-Roadmap. Das Dokument ist so aufgebaut, dass Sie es direkt an eine Agentur oder einen Entwickler weitergeben können.
Wer einen Einstieg sucht, der weniger tief geht, aber die aktuelle Sichtbarkeit in Google und KI-Suchmaschinen bewertet, findet mit dem Sichtbarkeits-Check eine schlanke Alternative. Für einen vollständigen Überblick aller Audit-Produkte und deren Abgrenzung gibt es die Preisseite.
Kontaktaufnahme ausschließlich schriftlich über das Formular auf der jeweiligen Angebotsseite.
Für Berufsgeheimnisträger (§203 StGB): Technische SEO-Fehler sind oft auch DSGVO-Probleme — eingebundene Third-Party-Scripts und Cookies können ein Fall für §203 werden, wenn sie zusammen mit Mandanten- oder Patientenformularen laufen. Die Komplett-SEO-Analyse deckt diesen Punkt mit ab. Wer zusätzlich einen vollständig §203-konformen KI-Stack sucht (DE-gehostet, kein Cloud-Act-Zugriff), findet auf /preise erste Infos zum Velo §203-Tier-Plan (Coming Q2 2026). Einen praxisorientierten Rahmen für den KI-Einsatz unter §203-Bedingungen bietet außerdem der Artikel KI-Nutzung ohne Reue.
Und wer noch nicht sicher ist, ob SEO der richtige Hebel ist oder ob Prozessautomatisierung mehr Wirkung hätte, kann beides zunächst mit dem Automations-Audit einordnen. Außerdem gibt es spezifische Seiten für Anwälte, Ärzte und Steuerberater, die branchenspezifische Informationen enthalten.
Passende Angebote:
Schriftliche Audits statt Beratungsgespräch
Willst du wissen, wo deine Firma wirklich steht?
Drei schriftliche Audits als Festpreis — keine Beratung, kein Abo.
Sichtbarkeits-Check
Wie sichtbar ist Ihre Firma in Google, ChatGPT, Claude, Gemini und Perplexity? PDF-Report mit Keyword-Ranking, GEO-Sichtbarkeit und Top-5-Fixes.
Komplett-SEO-Analyse
Tiefer SEO-Tauchgang: technische Analyse, Content-Audit, Keyword-Gap zu Wettbewerbern und 12-Monats-Roadmap. Für alle, die wirklich ranken wollen.
Automations-Audit
Ihr schmerzhaftester Workflow unter der Lupe. 20–30 Seiten mit Pod-Zuordnung, konkreter Automations-Empfehlung und zwei Coupons für Folgeprodukte.
Alle Audits: Festpreis · Schriftlicher PDF-Report · § 203 StGB konform · Kein Vertrag, kein Abo
Weiterlesen
Selbsttest: Taucht Ihre Firma in Claude und ChatGPT auf? — 5 Prompts, 10 Minuten und ein erster Lagebericht
Wie oft empfehlen KI-Assistenten Ihre Firma? — GEO-Sichtbarkeit in Claude, ChatGPT, Gemini und Perplexity messen