Skip to content

Technik Blog

Programmieren | Arduino | ESP32 | MicroPython | Python | Raspberry Pi | Raspberry Pi Pico

Menu
  • Smarthome
  • Gartenautomation
  • Mikrocontroller
    • Arduino
    • ESP32 & Co.
    • Calliope Mini
    • Raspberry Pi & Pico
  • Solo Mining
  • Deutsch
  • English
Menu

GEO in der Praxis: So checkst du mit Python, welche KI-Bots deinen Blog wirklich crawlen

Veröffentlicht am 20. September 202519. September 2025 von Stefan Draeger

Generative Engine Optimization (GEO) ist gerade in aller Munde – doch bevor wir Inhalte gezielt für KI-Suchmaschinen optimieren, sollten wir zunächst herausfinden, ob unser Blog oder unsere Website überhaupt schon von KI-Bots wie GPTBot, Claude oder PerplexityBot besucht wird. Genau hier setzen wir mit einem Praxisbeispiel an: Wir werfen einen Blick ins Access-Log, also die Protokolldatei, in der jeder Besucher einer Webseite – ob Mensch oder Bot – aufgezeichnet wird.

GEO in der Praxis So checkst du mit Python, welche KI-Bots deinen Blog wirklich crawlen

Je nach Hostinganbieter muss dieses Logging zunächst aktiviert werden. Bei meinem Provider All-inkl musste ich die Funktion manuell in den Einstellungen einschalten, damit die access.log verfügbar ist. Sobald die Datei bereitsteht, können wir sie auswerten und so prüfen, welche Bots sich tatsächlich schon auf unserer Seite umsehen.

Inhaltsverzeichnis

  • Warum sollte ich meine Webseite für GEO optimieren?
  • Wie kann ich prüfen, ob meine Webseite bereits von KI-Systemen verwendet wird?
  • Wie analysiere ich mein Access-Log mit Python?
  • Installation und Ausführung Schritt für Schritt
    • 1. Projekt herunterladen und entpacken
    • 2. Virtuelle Umgebung erstellen
    • 3. Virtuelle Umgebung aktivieren
    • 4. Benötigte Bibliotheken installieren
    • 5. Das Tool starten
  • Was mache ich mit dem Report?
    • Warum ist das wichtig?
    • Konkrete Schlüsse aus der Analyse
  • Fazit

Warum sollte ich meine Webseite für GEO optimieren?

Während klassische SEO-Maßnahmen darauf abzielen, in den Google-Suchergebnissen möglichst weit oben zu erscheinen, geht es bei Generative Engine Optimization (GEO) um eine neue Ebene: KI-Systeme wie ChatGPT, Claude oder Perplexity erstellen Antworten direkt aus ihrem Trainingsmaterial oder durch das Live-Abrufen von Webseiten. Wenn deine Inhalte dort nicht vorkommen, besteht die Gefahr, dass deine Seite bei Nutzern, die KI-Suchmaschinen nutzen, unsichtbar bleibt.

Die Vorteile von GEO-Optimierung:

  • Neue Reichweite erschließen – Inhalte erscheinen nicht nur in klassischen Suchmaschinen, sondern auch in AI Overviews und Antworten generativer Modelle.
  • Quellenstatus aufbauen – wenn Bots deine Seite indexieren und verarbeiten, steigt die Chance, dass sie dich als Referenz zitieren.
  • Wettbewerbsvorteil sichern – noch setzen viele Webseiten ausschließlich auf SEO. GEO ist aktuell ein Trendthema, bei dem man sich frühzeitig positionieren kann.
  • Transparenz über Bot-Traffic – wer seine Logs prüft, weiß, welche KI-Bots bereits vorbeischauen und kann gezielt Inhalte für diese optimieren.

Kurz gesagt: GEO-Optimierung ist die logische Weiterentwicklung von SEO. Sie stellt sicher, dass deine Webseite auch in der KI-gestützten Suche sichtbar bleibt.

Wie kann ich prüfen, ob meine Webseite bereits von KI-Systemen verwendet wird?

Bevor wir mit der Optimierung starten, stellt sich die zentrale Frage: Werde ich überhaupt schon von KI-Bots besucht?

Es gibt mehrere Wege, das herauszufinden:

  • Hosting-Statistiken: Viele Anbieter stellen einfache Besucherstatistiken bereit. Diese zeigen allerdings meist nur klassische Suchmaschinen wie Googlebot oder Bingbot. Ob moderne KI-Bots wie GPTBot, ClaudeBot oder PerplexityBot vorbeischauen, ist dort oft nicht sichtbar.
  • Externe Tools: Manche Dienste im Internet versprechen, dir zu zeigen, ob deine Seite in KI-Systemen vorkommt. Diese Lösungen sind jedoch meist eingeschränkt oder kostenpflichtig.
  • Server-Logs (Access-Log): Der zuverlässigste Weg ist das Access-Log deines Webservers. Darin wird jeder Aufruf gespeichert – egal, ob von einem echten Besucher oder einem Bot. Findet man in diesen Dateien Begriffe wie GPTBot oder Perplexity, ist klar: Die eigene Seite wurde bereits von einem KI-System gecrawlt.

Damit du das nicht mühsam per Hand durchsuchen musst, zeige ich dir im nächsten Schritt ein kleines Python-Tool, das deine Logdateien automatisch analysiert und dir sofort einen Überblick gibt, welche KI-Bots deine Webseite besucht haben.

Wie analysiere ich mein Access-Log mit Python?

Nachdem wir nun wissen, dass das Access-Log die zuverlässigsten Informationen darüber liefert, ob KI-Bots unsere Webseite besuchen, schauen wir uns ein konkretes Beispiel an. Mein aktuelles Logfile ist rund 20 MB groß und enthält über 64.000 Zugriffe – allein vom gestrigen Tag.

Um datenschutzkonform zu bleiben, habe ich die IP-Adressen anonymisiert. Für die Analyse reicht es völlig aus, da uns vor allem interessiert, welche Bots unterwegs waren und welche Seiten sie besucht haben. Zusätzliche Informationen über Herkunft oder Suchanfragen kann ich bei Bedarf später über die Google Search Console abrufen.

Im nächsten Schritt setzen wir nun Python ein, um diese Daten effizient zu durchsuchen und uns eine übersichtliche Auswertung der KI-Bot-Besuche zu erstellen.

Treffer auf dem Blog separiert pro KI-Bot
Treffer auf dem Blog separiert pro KI-Bot
Wordcloud - ClaudeBot
Wordcloud – ClaudeBot
Wordcloud - Bytespider
Wordcloud – Bytespider
Wordcloud - ChatGPT-User
Wordcloud – ChatGPT-User
KI-Bot-Analyse_19-09-2025Herunterladen

Installation und Ausführung Schritt für Schritt

Damit das Python-Tool bei dir funktioniert, empfehle ich die Arbeit mit einer virtuellen Umgebung (venv). So bleiben alle benötigten Bibliotheken sauber in einem eigenen Ordner und stören nicht andere Python-Projekte auf deinem PC.

1. Projekt herunterladen und entpacken

Lade dir hier die vorbereitete ZIP-Datei herunter und entpacke sie an einem beliebigen Ort auf deinem PC (z. B. unter C:\Blog\).

Python-Tool zum analysieren der access.log auf KI-BotsHerunterladen

Nach dem Entpacken findest du im Ordner:

AccessLogAnalyzer\
 ├─ main.py
 ├─ analyzeAccessLog.py
 ├─ generateWordcloud.py
 ├─ generateReport.py
 ├─ requirements.txt
 ├─ input\
 ├─ output\
 └─ output\temp

Im Ordner input legst du später deine access.log ab.
Alle erzeugten Ergebnisse (Textdateien, Grafiken, PDF) landen automatisch im Ordner output.

2. Virtuelle Umgebung erstellen

Öffne die PowerShell und wechsle in den Projektordner:

cd C:\User\<Benutzername>\Downloads\AccessLogAnalyzer

Erstelle dann eine neue virtuelle Umgebung:

python -m venv .venv

3. Virtuelle Umgebung aktivieren

Aktiviere die Umgebung mit:

.\.venv\Scripts\Activate.ps1

Nun sollte links in deiner PowerShell etwas wie folgt erscheinen:

(.venv) PS C:\User\<Benutzername>\Downloads\AccessLogAnalyzer

⚠️ Hinweis: Falls die Meldung kommt „Die Ausführung von Skripts ist deaktiviert“, kannst du das mit folgendem Befehl einmalig erlauben:

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

4. Benötigte Bibliotheken installieren

In der ZIP liegt bereits eine Datei requirements.txt mit allen benötigten Paketen.
Installiere diese mit:

pip install -r requirements.txt

5. Das Tool starten

Nun kannst du die komplette Pipeline starten:

python main.py

Das Script führt automatisch alle Schritte aus:

  1. Access-Log analysieren
  2. Wordcloud-Bilder erzeugen
  3. PDF-Report erstellen

Den Report als PDF-Dokument findest du danach im Ordner output.

Was mache ich mit dem Report?

Nachdem der Report erstellt wurde, hast du eine sehr wertvolle Übersicht darüber, welche KI-Bots deine Webseite besuchen und welche Inhalte dabei am interessantesten sind.

Im PDF findest du:

  • Übersicht pro Bot: z. B. GPTBot (OpenAI), ClaudeBot (Anthropic), Perplexity usw.
  • Zugriffszahlen: Wie oft hat der jeweilige Bot deine Seite besucht?
  • Wordclouds: Visuelle Darstellung der Seiteninhalte, die für den Bot besonders relevant waren.
  • Tabellen: Detailansicht, welche einzelnen URLs wie häufig abgerufen wurden.

Warum ist das wichtig?

  • Wenn deine Inhalte regelmäßig von KI-Bots gecrawlt werden, steigen die Chancen, dass sie auch in KI-Antworten zitiert oder verarbeitet werden.
  • So kannst du erkennen, welche deiner Blogartikel oder Unterseiten von KI-Systemen bereits wahrgenommen werden.
  • Überrascht dich vielleicht, dass manche unscheinbare Seiten häufiger besucht werden als deine „Highlights“? → Genau diese Insights helfen dir, deine Content-Strategie anzupassen.

Konkrete Schlüsse aus der Analyse

  • Top-Inhalte identifizieren: Wenn bestimmte Artikel ständig von Bots besucht werden, lohnt es sich, ähnliche Inhalte auszubauen.
  • Lücken erkennen: Tauchen Bots oft auf 404-Seiten oder „/author/admin/…“ auf, solltest du prüfen, ob auch technische Optimierungen nötig sind.
  • SEO & GEO optimieren: Seiten, die von Bots häufig besucht werden, haben Potenzial, in Such- und KI-Ergebnissen eine größere Rolle zu spielen – hier lohnt sich eine gezielte Optimierung.
  • Monitoring im Zeitverlauf: Wiederhole die Analyse regelmäßig (z. B. wöchentlich oder monatlich) und erkenne Trends: Nimmt die Präsenz bestimmter Bots zu oder ab?

Fazit

Mit nur wenigen Schritten kannst du nachvollziehen, ob und wie KI-Bots wie GPTBot, Claude oder Perplexity deine Webseite bereits besuchen.
Die Analyse mit Python und der automatisch erzeugte Report geben dir wertvolle Einblicke, welche Inhalte Beachtung finden – und wo Optimierungspotenzial liegt.

👉 Nutze diese Erkenntnisse, um deine Inhalte gezielt für Generative Engine Optimization (GEO) anzupassen. Denn je früher du dich positionierst, desto besser sind deine Chancen, dass deine Beiträge auch in den Antworten moderner KI-Suchmaschinen sichtbar werden.

Letzte Aktualisierung am: 19. September 2025

Foto von Stefan Draeger
Über den Autor

Stefan Draeger — Entwickler & Tech-Blogger

Ich zeige praxisnah, wie du Projekte mit Arduino, ESP32 und Smarthome-Komponenten umsetzt – Schritt für Schritt, mit Code und Schaltplänen.

Mehr Artikel von Stefan →

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Fragen oder Feedback?

Du hast eine Idee, brauchst Hilfe oder möchtest Feedback loswerden?
Support-Ticket erstellen

Newsletter abonnieren

Bleib auf dem Laufenden: Erhalte regelmäßig Updates zu neuen Projekten, Tutorials und Tipps rund um Arduino, ESP32 und mehr – direkt in dein Postfach.

Jetzt Newsletter abonnieren

Unterstütze meinen Blog

Wenn dir meine Inhalte gefallen, freue ich mich über deine Unterstützung auf Tipeee.
So hilfst du mit, den Blog am Leben zu halten und neue Beiträge zu ermöglichen.

draeger-it.blog auf Tipeee unterstützen

Vielen Dank für deinen Support!
– Stefan Draeger

Kategorien

Tools

  • Unix-Zeitstempel-Rechner
  • ASCII Tabelle
  • Spannung, Strom, Widerstand und Leistung berechnen
  • Widerstandsrechner
  • 8×8 LED Matrix Tool
  • 8×16 LED Matrix Modul von Keyestudio
  • 16×16 LED Matrix – Generator

Links

Blogverzeichnis Bloggerei.de TopBlogs.de das Original - Blogverzeichnis | Blog Top Liste Blogverzeichnis trusted-blogs.com

Stefan Draeger
Königsberger Str. 13
38364 Schöningen
Tel.: 015565432686
E-Mail: info@draeger-it.blog

Folge mir auf

link zu Fabook
link zu LinkedIn
link zu YouTube
link zu TikTok
link zu Pinterest
link zu Instagram
  • Impressum
  • Datenschutzerklärung
  • Disclaimer
  • Cookie-Richtlinie (EU)
©2025 Technik Blog | Built using WordPress and Responsive Blogily theme by Superb
Cookie-Zustimmung verwalten
Wir verwenden Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wir tun dies, um das Surferlebnis zu verbessern und um personalisierte Werbung anzuzeigen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder zurückziehen, können bestimmte Funktionen beeinträchtigt werden.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten von {vendor_count}-Lieferanten Lese mehr über diese Zwecke
Einstellungen anzeigen
{title} {title} {title}