Belegvorerfassung automatisiert: 14 Stunden pro Mitarbeiter pro Woche zurück
Eine mittelständische Steuerkanzlei hat die manuelle Belegerfassung in DATEV durch OCR plus Claude ersetzt. Aus 90 Sekunden pro Beleg werden 15, bei 94% Treffergenauigkeit auf Kontierung und USt-Schlüssel.
- Kunde
- Steuerkanzlei
- Branche
- Steuerberatung
- Leistung
- Automatisierung
“Ich hatte Bauchschmerzen, weil ich dachte, am Ende muss ich alles doppelt prüfen. Aber die Vorschläge sind besser als das, was meine Buchhalterinnen im vierten Ordner nach dem Mittagessen gemacht haben. Wir prüfen nur noch die Ausreißer. Die Zeit geht in die Beratung der Mandanten, da wo wir eh hingehören.”
Die Herausforderung
Sieben Mitarbeiterinnen, etwa 180 laufende Mandate, pro Monat ~11.000 Belege. Der Ablauf: Mandant lädt Belege ins DATEV Unternehmen Online hoch, Buchhalterin öffnet jeden einzeln, tippt Kontierung und USt-Schlüssel, speichert. 90 Sekunden im Schnitt pro Beleg, bei komplexen Rechnungen deutlich mehr. Zwei der Buchhalterinnen haben gekündigt, nicht wegen Gehalt, sondern weil der Job monoton geworden war.
Unsere Lösung
Eingehende PDFs laufen durch einen n8n-Flow. OCR (Azure Form Recognizer, weil die Layouts bei Handwerksrechnungen oft kaputt sind) zieht Positionen, Beträge, USt-Sätze. Claude 3.7 klassifiziert gegen den Kontenrahmen SKR03/SKR04 des jeweiligen Mandanten, mit Historie aus den letzten 12 Monaten als Kontext, damit mandantenspezifische Sonderregeln greifen. Ergebnis landet als vorerfasste Buchung in DATEV, markiert als „KI-Vorschlag". Buchhalterin bestätigt oder korrigiert.
Die Umsetzung
Woche 1-2: Export der letzten 12 Monate Buchungen pro Testmandant, Kontenrahmen-Historie in Supabase abgelegt. Drei Mandanten als Piloten (Handwerk, Dienstleister, Einzelhandel), weil die Buchungslogik sich zwischen Branchen massiv unterscheidet.
Woche 3-5: OCR-Pipeline gebaut und iteriert. Erste Überraschung: bei ~8 % der PDFs scheitert Azure Form Recognizer an gescannten Papierrechnungen mit Knicken. Fallback auf Tesseract + Claude-Postprocessing für diese Fälle.
Woche 6-7: Prompt-Engineering für die Kontierung. Vier Iterationen, bis die Treffergenauigkeit über 90 % lag. Kritischer Punkt: die KI musste lernen, bei Unsicherheit den Vorschlag mit niedrigem Confidence-Score zu markieren, statt zu raten.
Woche 8: Scharfschaltung. Erste Woche: Buchhalterinnen bestätigten 82 % der Vorschläge ohne Änderung. Nach vier Wochen Training der Ausreißer-Fälle: 94 %.
Ähnliche Ergebnisse für Ihr Unternehmen?
In 15 Minuten zeigen wir Ihnen, wo KI in Ihrem Betrieb den größten Hebel hat.