Configurer : EPE Jira Cloud Connector
Découvrez comment configurer le connecteur EPE Jira pour synchroniser vos tickets Jira.
Configurer : EPE Jira Cloud Connector
Découvrez comment configurer le connecteur EPE Jira pour synchroniser vos tickets Jira.
Comment connecter Jira Cloud avec EPE ?
Depuis la version 2023.3, Efecte Provisioning Engine (EPE) introduit un nouveau connecteur Jira. Une tâche de connecteur Jira basée sur des événements est utilisée lors de l'écriture de données depuis la plateforme Efecte vers Jira. Les administrateurs EPE peuvent configurer la connexion au Cloud Jira cible via l'interface d'administration EPE. Pro processus peuvent être exécutés en fonction des événements déclenchés par Visual Workflow Automation.

Les cas d’utilisation courants sont :
- Créer des problèmes Jira basés sur un incident depuis la plateforme ESM vers Jira
- Importer des problèmes Jira depuis Jira vers la plateforme ESM
- Transférer des commentaires entre la plateforme ESM et Jira
- Résolution de transfert entre la plateforme ESM et Jira
- Créer et supprimer des utilisateurs Jira
- Créer et supprimer des groupes Jira
- Ajouter et supprimer des utilisateurs des groupes Jira
uid générales pour les tâches planifiées
General g uid ance for scheduled tasks
How to Create New Scheduled Task to import data
For configuring scheduled-based provisioning task, you will need access to Administration / Connectors tab.
1. Open the Administration area (a cogwheel symbol).
2. Open Connectors view.
3. Choose Connector for Scheduled-based task and select New Task
Note! If connector is not created, you have to choose first New connector and after that New task.

4. Continue with connector specific instructions: Native Connectors
Should I use Incremental, Full or Both?
Scheduled task can be either Incremental or Full -type.
Do not import permissions with AD and LDAP incremental task
Incremental task has issue with permissions importing. At the moment it is recommended not to import group memberships with incremental scheduled task.
On Microsoft Active Directory and OpenLDAP connectors, remove this mapping on incremental task:

Setting on Scheduled tasks:

Incremental type is supported only for Microsoft Active Directory, LDAP and Microsoft Graph API (formerly known as Entra ID) Connectors.
Incremental type means, that Native Connectors (EPE) fetches data from source system, using changed timestamp information, so it fetches only data which is changed or added after previous incremental task run.
When Incremental type task is run for very first time, it does a full fetch (and it marks the current timestamp to EPE database), thereafter, task uses that timestamp to ask the data source for data that changed since that timestamp (and then EPE updates the timestamp to EPE database for next task run). Clearing task cache doesn't affect this timestamp, so Incremental task is always incremental after first run.
Full type is supported for all Connectors.
Full type import fetches always all data (it's configured to fetch) from source system, on every run.
Both Full and Incremental type tasks use also Task cache in EPE, which makes certain imports faster and lighter for M42 system.
By default that task cache is cleared ad midnight UTC time. When cache is cleared, next import after that is run without caching used to reason if data fetched should be pushed to ESM, all fetched data is pushed to ESM. But after that, next task runs until next time cache is cleared, are using EPE cache to determine if fetched data needs to be pushed to ESM or not.
You can configure at what time of day task cache is emptied, by changing global setting in EPE datapump configuration:
/opt/epe/datapump-itsm/config/custom.properties
which is by default set to: clearCacheHours24HourFormat=0
You can also clear cache many times a day, but that needs to be thinked carefully, as it has impact on overall performance as EPE will push changes to ESM, that probably are already there, example(do not add spaces to attribute value): clearCacheHours24HourFormat=6,12
After changing this value, reboot EPE datapump container to take change into use.
Recommendations:
Have always by default Full type scheduled task.
If you want to fetch changes to data fetched already by full task, more frequently than you can run full task, add also incremental task. Usually incremental task is not needed.
Recommended Scheduling Sequence
Recommended scheduling sequence, depends how much data is read from Customers system/directory to the Matrix42 Core, Pro or IGA solution and is import Incremental or Full.
Examples for scheduling,
| Total amount of users | Total amount of groups | Full load sequence | Incremental load sequence |
| < 500 | < 1000 |
Every 30 minutes if partial load is not used Four (4) times a day if partial load is used |
Every 10 minutes |
| < 2000 | < 2000 |
Every 60 minutes, if partial load is not used Four (4) times a day if partial load is used |
Every 15 minutes |
| < 5000 | < 3000 |
Every four (4) hours, if partial load is not used Twice a day if partial load is used |
Every 15 minutes |
| < 10 000 | < 5000 | Maximum imports twice a day, no matter if partial load is or is not used | Every 30 minutes |
| < 50 000 | < 7000 | Maximum import once a day, no matter if partial load is or is not used | Every 60 minutes |
| Over 50 000 | Over 7000 | There might be a need for another EPE-worker, please contact Product Owner | Separately evaluated |
Please note that if there are several tasks running at the same time you may need more EPE-workers. The tasks should be scheduled at different times and can be completed according to the table above. However, if there are more than 6 tasks running at the same time, the number of epeworkers should be increased. It's best practice not to schedule tasks to run at same time, if possible.
Recommendations related to performance
If the amount fo data to be imported is over 10000 concider these things:
Adjust log level of ESM and DATAPUMP to ERROR-level, to lowe the amount of logging during task run
Have as few as possible automations starting immediately for imported datacards (listeners, handlers, workflows), as those make ESM to take longer time handling new datacards.
Set removed accounts and entitlements status removed/disabled
With this functionality, you can mark account and entitlement status to e.g. Deleted or Disabled, when account or entitlement is removed from source system. Starting from version 2025.3 you can also set status to generic objects (not only to accounts/identities and entitlements/groups).
For version 2025.3 and newer
In version 2025.3 these settings are moved from properties files to Task UI. Also you can now set these settings for Generic objects, which have not been possible before this version.
There is separate configuration for each scheduled task, and for all mapping types. Here is example of this config on task:

For version 2025.2 and older
This functionality is available for “full” type scheduled tasks.
Settings are on datapump dockers configuration file. To change those parameter values, you need to set those in /opt/epe/datapump-itsm/config/custom.properties file.
Configuration
To enable disabling functionality, datapump config should have these parameters set to true:
disable.unknown.esm.users=truedisable.unknown.esm.groups=true
Those 2 parameters are false by default in 2024.2 and 2025.1 versions. In 2025.2 and newer version those are true by default.
Next are these parameters:
personTemplateStatusCodeAttributeKey=accountStatuspersonTemplateStatusAttributeDisabledValueKey=DeletedgroupTemplateStatusCodeAttributeKey=statusgroupTemplateStatusAttributeDisabledValueKey=5 - Removed
First two attributes should point to the DatacardHiddenState attribute in the User template, and tell which value should be send there when the user is deleted.
By default its accountStatus and Value 5 - Removed on IGA Account template.
All these needs to match with the attribute configuration:

Same thing applies for the next two paramaters, but its for Groups.'
If you need to change those parameters in properties file, do changes in Datapump container to file: /opt/epe/datapump-itsm/config/custom.properties and those changes will then survive over container reboot and will be copied on reboot to /opt/epe/datapump-itsm/config/application.properties.
Description
Tasks save their __taskid__ shown as Task Id mapping in the UI to the datacards, its then used to determine if the datacard was added by this task. In case there are multiple tasks with different sets of users.
This field was previously used as datasourceid, but since we moved to the model where connector can have multiple tasks its identifier cannot be used anymore, thats why the field was repurposed as taskid instead.
Taking users as an example, when task runs ESM is asked for the list of users that have its taskid in Task Id mapping field, and doesn't have a personTemplateStatusAttributeDisabledValueKey value in the personTemplateStatusCodeAttributeKey
This result is then compared to what the task fetched, and the datacards of users that were not fetched have their personTemplateStatusattribute set to value specified in the config - 5 - Removedby default.
Example log below shows described process and informs that one user was removed.

Same thing applies to groups but groupTemplateStatusattributes are used instead.
Notes
- Feature works only with full fetch scheduled tasks..
- No support for generic templates yet, only identity and access
- When migrating from the previous versions where datasourceid was still used it needs to run at least once to set its taskid’s in the datacards first.
- EPE identifies Disabled users or groups as the ones that were removed from the AD, at the present we do not support statuses related to the entity beign active or not.
- EPE does not enable users back on its own.
- If more than one tasks fetches the same users or groups it may overwrite the taskid in the datacard depending on which task ran last. It is suggested that many full type tasks are not fetching same user or group.
- Always do configuration file changes to custom.properties, do not change only application.properties as those changes are lost on container reboot if you have not done same changes to custom.properties.
Instructions étape par étape programmées
1.Ouvrez la zone Administration des effets (un symbole de roue dentée) dans le coin supérieur droit. 
2. Ouvrir la vue Connecteurs

3. Créez un nouveau connecteur Jira (si vous n'en avez pas déjà un)
- L'URL de l'hôte du connecteur Jira doit être au format : https://instancename.atlassian.net
- N'oubliez pas de définir tous les attributs avant de cliquer sur « Tester la connexion », y compris l'utilisateur API Web et son mot de passe. Si le message de réussite du test de connexion ne s'affiche pas dans l'interface utilisateur (ou si une erreur s'affiche), consultez les journaux maîtres EPE pour détecter d'éventuelles erreurs.
- Le nom d'utilisateur est l'utilisateur qui a créé le jeton d'accès
- Les jetons d'accès sont valables un an maximum (limite côté Jira). Pensez donc à documenter leur date d'expiration afin de créer un nouveau jeton et de le configurer sur Jira Connection avant son expiration. Pour plus d'informations, consultez : https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/

4. Choisissez le connecteur de type Atlassian Jira dans l'aperçu, dans Tâches planifiées, cliquez sur « + Nouvelle tâche » 
5. Choisissez la séquence de planification, qui dépend de la quantité de données lues depuis Jira. Saisissez un nom unique pour la tâche de provisionnement et la requête Jira.
- Il est recommandé de tester votre requête Jira (JQL) dans le système Jira réel, avant de l'utiliser dans la configuration des tâches.
Voir également la documentation Jira :
6. Remplissez la section « Mappage des attributs ». Remarque : le contenu varie selon la valeur sélectionnée dans le champ « Type de mappage ».

7. Enregistrez la tâche de provisionnement à l'aide du bouton Enregistrer
8. Vous avez maintenant configuré la tâche de provisionnement planifiée. Cliquez sur « Exécuter la tâche » pour l'exécuter immédiatement, manuellement si nécessaire. Vous pouvez également attendre qu'elle s'exécute automatiquement selon votre planification.

9. Si la tâche est exécutée manuellement (clic sur « Exécuter la tâche ») ou si elle est exécutée conformément à une planification, son statut peut être consulté sous Afficher l'historique :

Instructions étape par étape basées sur les événements
1.Ouvrez la zone Administration des effets (un symbole de roue dentée) dans le coin supérieur droit.

2. Ouvrir la vue Connecteurs 
3. Choisissez Atlassian Jira Connector dans la vue d'ensemble et les tâches basées sur les événements, puis cliquez sur le bouton + Nouvelle tâche 
4. Saisissez un nom unique pour la tâche de provisionnement
- Le type de mappage doit être un modèle générique lors de la gestion (par exemple des tickets) d'autres types d'objets que les utilisateurs et les groupes.

5. Remplissez la section « Mappage des attributs ». Remarque : le contenu varie selon la valeur sélectionnée dans le champ « Type de mappage ».
- Vous pouvez définir des attributs supplémentaires en sélectionnant « Nouvel attribut », puis en saisissant son nom et en cliquant sur « Ajouter un élément ». Ceci est très utile si vous avez ajouté vos propres attributs personnalisés à Jira.

- Il est possible de définir quelles informations d'attribut sont écrites dans le Jira.
- Il peut y avoir plusieurs tâches de provisionnement à des fins différentes pour Jira.
- Pour ajouter un ticket Jira, vous devez définir au moins un type de problème, un projet et un résumé. Selon votre configuration Jira, d'autres attributs peuvent également être ajoutés. Confirmez les attributs requis dans le système Jira.

7. Enregistrez la tâche de provisionnement à partir du bouton Enregistrer
8. L'étape suivante consiste à configurer le workflow pour utiliser cette tâche événementielle. Depuis le moteur de workflow de la plateforme Efecte Service Management, il est possible d'exécuter des activités de provisionnement vers Jira. Cela signifie que n'importe quelle activité disponible peut être exécutée à tout moment du workflow grâce au nœud « Orchestration ».
Exemple de paramètres de nœud d'orchestration pour Jira :

