Skip to main content
Skip table of contents

DATEV Anbindung mit manuellem Datenexport über einen Azure Blob Storage (Delete Candidate)

Beschreibt die Extraktion und Weiterverarbeitung von Daten aus DATEV über die DATEV-Schnittstellentechnologie “KREXPORT”. Diese Schnittstellentechnologie ist der DATEV-Standard und für alle Anwender ohne DATEV-Zusatzkosten verfügbar.

Der manuelle Export beschreibt das Szenario, falls Sie DATEV auf einem Server von Dritten (z.B. Ihrem Steuerberater) nutzen und dort OCT nicht installieren dürfen/können.

Der Azure Blob Storage wird als alternativer Ablageort für Dateien in der Cloud verwendet, wenn die Dateien nicht auf einem lokalen Laufwerk abgelegt werden können/sollen.


1. Anleitung der manuellen Datenextraktion

  • Richten Sie OCT in einer geeigneten Umgebung ein.

  • Kopieren Sie die OCT-Exportformate auf den DATEV-Server und spielen Sie diese im DATEV ein.

Die OCT Exportformate für DATEV können hier heruntergeladen werden: Download

Eine Anleitung für das Einspielen der Formate finden Sie hier


2.1. Download und Aktivierung von Modulen, Planungslösungen und Konnektoren

2.1.1. Aktivierung von Modulen

Laden sie die folgenden Module herunter und aktivieren sie diese:

  • DATEV-Azure Staging für Finance

  • Finance

Herunterladen und aktivieren der Module

  • es wird keine gesonderte Datenquelle angelegt, alles läuft über Datenquelle 0

  • Modul Finance (FIN) aktivieren (FIN Standardtabellen)

  • Modul DATEV Azure Staging for Finance (FIN-DATEV-AZURE) aktivieren (lädt DATEV Files per Pipeline Dateiimport in die Staging Tabellen)


2.1.2. Aktivierung von Konnektoren

Laden sie folgende Konnektoren herunter und aktivieren sie diese: 

  • ERP-System: “DATEV-AZURE”, Quellsystemtyp: “MSSQL”, Konnektor: “FIN”

MSSQL Konnektor für DATEV-Azure

  • Konnektor DATEV-AZURE aktivieren (schreibt integration.DATEV* Tabellen in integration.FIN* Tabellen, erstellt schon vor konfigurierte Prozesspipelines)


2.2. Einrichtung des Blob Storages

2.2.1 Dateien auf Blob Storage ablegen

  • siehe https://help.saxess-software.de/sx-cpce-portal/Working-version/blob-storages-fur-datenuploads

  • Beachten Sie bei der Arbeit mit einem Blob Storages

    • man kann dort Dateien nicht umbenennen (nur kopieren und löschen der Quelle)

    • man kann Dateien nicht verschieben (nur kopieren und löschen der Quelle)

    • am besten daher im das gesamte Verzeichnis zum bearbeiten hoch / runterladen, solange es nicht zu groß ist

    • es muss immer ein Unterordner angelegt werden (die Dateien dürfen nicht direkt im ersten Ordner des BlobContainers liegen, sonst läuft die Post-SQL-Abfrage in den Pipelinesteps auf Fehler)

  • im Hauptordner https://help.saxess-software.de/sx-cpce-portal/Working-version/datev-upload

    • ggf. “Mandantenliste.csv” manuell erstellen (überflüssig, aber ohne diese Datei kennt man Beraternummer / Mandantennummer nicht)

    • CODE
      Beraternr;Mandantennr;Jahr;Mandantenname;
      29098;55003;20200101;Musterholz GmbH;
    • Datei “Beraternr_Mandantennr_Mandantendaten_Jahr.csv muss pro Jahr vorhanden sein - Jahr steht hier für den YYYYMMTT String !

    • CODE
      Unternehmensname kurz»Unternehmensname»Standardkontenrahmen»Länge Sachkonten»WJ-Beginn»WJ-Ende
      "ABC GmbH"»"ABC GmbH"»"03"»4»01.01.2022»31.12.2022
  • Unterordner mit Namen “Beraternr_Mandantennr_MMTT_SKR_KtoLänge” erstellen, zB. 29098_55003_0101_03_4

    • Kontenbeschriftungen_YYYYMMTT.csv

    • Kontobuchungen_YYYYMMTT.csv

    • Kostenstellen_traeger_YYYYMMTT.csv


2.1.2 Konfiguration der Prozesspipelines

  • Step 1: Import Mandantendaten konfigurieren

    • Storage-Kontenname (Storage Account Name): Case sensitiv (Groß-/Kleinschreibung beachten) → den Kontonamen findet man im Microsoft Azure Storage Explorer, wenn man im Baum den Ordner auswählt links unten im Fenster “Eigenschaften”

    • Azure-Storage-Zugangsschlüssel: der AccountKey aus dem Storage Account Connection String

    • “Verbindung testen” und per “Dateiauswahl anzeigen” prüfen, ob Dateien gefunden werden (sonst Schreibweise der Dateien prüfen)

    • Step speichern und aktivieren

  • Step 2-4:

    • gleiches Vorgehen wie bei Step 1

  • Testlauf: die Pipeline muss erfolgreich durchlaufen und die Dateien der Dateien müssen danach in den Tabellen integration.tDATEVAZURE_* stehen

  • Step SQL Konnektor: aktivieren und Mandanten auswählen

  • Testlauf: die Pipeline muss erfolgreich durchlaufen und die Daten müssen in den integration.tFIN_ * und global.t* Tabellen stehen

  • Step Datenbereitstellung aktivieren oder eigenen Datenbereitstellungsprozess implementieren

  • Testlauf: die Daten müssen danach in den result.t* Tabellen stehen

  • Fertig, Weiterverarbeitung der Daten je nach Zielsystem

Anpassungsoptionen

Im Konnektor die Schreibweise des Strings “ChartsOfAccountsID” anpassen und ein “SKR” davor setzen.

JavaScript errors detected

Please note, these errors can depend on your browser setup.

If this problem persists, please contact our support.