Exporter un Job en commande batch sous Data Integrator

Dans ce tutoriel, vous allez découvrir comment exporter un job de type batch depuis la Management Console de Data Integrator.

Prérequis :

  • Data Integrator 4.2 SP7 installé avec IPS 4.2 SP3.
  • Référentiel local crée. Pour cet exemple il se nomme DS_LOC_REF_1, son JobServer est JOBSERVER_ref_1.
  • JOB crée sous le Designer de Data Integrator avec le référentiel DS_LOC_REF_1, dans notre cas il se nomme JOB_TRAITEMENT_DATES.

Nous allons vous montrer comment votre JOB est automatiquement exporté dans un répertoire sous la forme d’un fichier exécutable batch paramétré par un fichier texte lorsque vous le planifiez sous la Management Console.

Vous apprendrez ensuite comment exporter vous – même l’exécutable de ce JOB au chemin souhaité.

JOB utilisé pour l’export :

Le JOB contient le flux de données suivants :

Ce flux de données génère une série journalière de dates associé à un montant aléatoire de vente depuis le 01/01/2017 de manière à générer un fichier source de test, écrasé à chaque exécution. Si vous voulez en savoir plus sur la génération de dimensions date, consultez ce tutoriel.

De manière à savoir tout de suite si notre dernière exécution a fonctionné nous avons ajouté dans un dernier champs DATE_EXECUTION la date actuelle générée grâce à la fonction sysdate(), tel que montré dans le Transformateur Query du JOB ci – dessous. Si vous voulez en savoir plus sur les fonctions sous Data Integrator, consultez ce tutoriel (à venir) :

Allez maintenant sous la Management Console pour créer une planification ponctuelle de JOB_TRAITEMENT_DATES :

Lorsque vous lancez cette planification (qu’elle soit unique ou périodique), un export est en réalisé automatiquement au chemin suivant, dans un dossier portant le nom de votre référentiel au sein d’un dossier Shedules du JobServer de votre référentiel :

Cet export est réalisé sous la forme d’un fichier de commande appelant un fichier texte pour paramétrer l’exécution de la planification du JOB, identifiée par « SheduleID », vous pouvez ainsi exécuter le fichier batch exporté si jamais la planification n’a pas fonctionné  :

Ce fichier texte contient le paramétrage suivant :

Si jamais votre planification n’a pas fonctionné, vérifiez la présence du paramétrage -R « DSLOC_REF_1.txt », selon les versions celà peut être géré différemment. Ce fichier contient également le nom du fichier batch associé, ainsi que les noms du serveur, de l’utilisateur et du port du JobServer (3500).

L’emplacement de cet export n’est pas facile à trouver et peut changer selon les versions, mais vous pouvez choisir vous même de réaliser ce même export indépendamment d’une planification du JOB dans le chemin et avec le nom que vous souhaitez, pour celà allez dans « Configuration du Job Batch » et cliquez sur « Exporter la commande d’exécution » pour JOB_TRAITEMENT_DATE :

Par défaut le JOB sera exporté au même emplacement que l’export automatique réalisé lors d’une planification, si vous ne changez pas le champs « Nom du fichier » :

Si vous remplacez ce champs par un chemin et un nom de fichier choisi vous pourrez contrôler la destination de l’export :

Cliquez sur « Exporter » puis allez chercher le résultat au chemin indiqué, vous retrouverez un fichier de commande batch associé à son fichier texte de paramétrage.. Executez ce fichier en mode administrateur :

Vous pouvez ensuite afficher la sortie de votre JOB pour vérifier que la date d’exécution indique que l’exécution vient de se faire :

Vous pouvez aussi vérifier directement dans la Management Console que l’exécution s’est bien réalisée :

 

Vous savez désormais comment contrôler l’export d’un JOB depuis la Central Management Console de Data Integrator.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.