Technisches SEO
systematisch lernen
Kein Marketingkurs. Hier geht es um Crawling-Verhalten, Indexierungslogik und strukturierte Daten — erklärt von Leuten, die damit täglich arbeiten.
Was du in welchem Modul lernst
Drei Schwerpunkte, klar voneinander abgegrenzt. Wähle das Modul, das gerade am meisten zu deinen Fragen passt.
Wie Googlebot eine Seite sieht
Du lernst, wie ein Crawler eine URL verarbeitet — von der DNS-Auflösung bis zum gerenderten DOM. Inklusive Unterschied zwischen Crawl und Render-Budget.
robots.txt und Canonical-Tags
Direktiven richtig einsetzen, ohne versehentlich wichtige Seiten zu blockieren. Ein häufiger Fehler mit deutlichen Folgen — hier erklärt an echten Beispielen.
Log-Dateien auswerten
Serverlogs zeigen, was Crawler wirklich tun. Du lernst, relevante Muster zu erkennen: welche URLs oft besucht werden, welche ignoriert und warum.
Sauberes HTML und Seitentitel
Heading-Hierarchie, Title-Tags und Meta-Descriptions — nicht als Checkliste, sondern mit Verständnis dafür, wie Suchmaschinen diese Signale gewichten.
Core Web Vitals technisch verstehen
LCP, INP und CLS — was diese Metriken messen, welche Code-Entscheidungen sie beeinflussen und wie du typische Ursachen direkt identifizierst.
Ladezeit und Ressourcen-Optimierung
Render-Blocking-Ressourcen, Bild-Formate, Caching-Header — konkrete Maßnahmen mit messbarem Einfluss auf Performance-Scores.
Strukturierte Daten mit Schema.org
JSON-LD richtig schreiben und einbinden. Welche Typen tatsächlich in den SERPs erscheinen und wie du Fehler in der Search Console deutest.
Google Search Console effektiv nutzen
Nicht nur nachschauen — sondern interpretieren. Coverage-Berichte, Sitemaps, URL-Inspektionstool: was die Daten dir sagen und was nicht.
Internationale SEO-Strukturen
hreflang-Attribute, ccTLDs vs. Subdomains, sprachspezifische Sitemaps. Typische Implementierungsfehler und wie du sie vermeidest.
So ist das Programm aufgebaut
Keine Videostunden ohne Kontext. Jede Einheit hat einen klaren Ausgangspunkt: ein konkretes Problem, eine Analyse, ein Werkzeug. Danach weißt du, was du damit anfängst.
Einführung und Lernziele
Jedes Modul startet mit einer kurzen Übersicht. Was wird behandelt, welche Kenntnisse helfen, was lässt sich danach konkret umsetzen.
Erklärte Konzepte mit echten Beispielen
Kein abstraktes Theoriewissen. Jede Erklärung ist an reale Szenarien gebunden — zum Beispiel wie ein großer Online-Shop mit Duplicate Content umgeht.
Übungsaufgaben mit Feedback
Nach jeder Einheit gibt es Aufgaben: eine URL analysieren, eine Sitemap prüfen oder eine robots.txt korrigieren. Lösungen mit Begründung inklusive.
Modul-Abschluss und Zusammenfassung
Am Ende jedes Moduls gibt es eine kompakte Zusammenfassung der wichtigsten Punkte plus eine Checkliste, die du direkt für eigene Projekte nutzen kannst.
Fragen stellen und Diskutieren
Über die Kursplattform kannst du direkt Fragen stellen. Antworten kommen von Kursleiterinnen und -leitern, nicht von automatisierten Systemen.
Was Teilnehmer sagen
Echte Rückmeldungen von Leuten, die den Kurs bereits abgeschlossen haben.
Das Modul zu Log-Dateien hat mir buchstäblich gezeigt, warum 40 % unserer Produktseiten seit Monaten nicht gecrawlt wurden. Ich hatte vorher keine Ahnung, wie man Serverlogs überhaupt liest — nach dem Kurs konnte ich das Problem direkt in der Staging-Umgebung reproduzieren und beheben.
Endlich ein Kurs, der nicht bei Keyword-Density aufhört. Die Erklärungen zu hreflang-Fehlern waren genau das, was ich gebraucht habe. Trocken, aber klar.
Ich komme aus dem Marketing und hatte kaum technischen Hintergrund. Das Tempo war manchmal fordernd, aber die Beispiele haben es zugänglich gemacht. Die Übungsaufgaben haben wirklich geholfen.