Dans Gestion des ressources Zendesk (GRH), le meilleur algorithme de prévision pour chaque workstream est automatiquement sélectionné en analysant vos données historiques et en testant tous les algorithmes. Cela permet de déterminer lequel sera le plus efficace pour un workstream spécifique.
Cependant, vous pouvez ignorer l’algorithme sélectionné automatiquement et choisir n’importe quel algorithme proposé par Zendesk.
Cet article aborde les sujets suivants :
Algorithmes statistiques
Moyenne sur 8 semaines
L’algorithme de prévision Moyenne sur 8 semaines est simple, fiable et populaire. Utilisez cet algorithme pour décrire des moyennes cumulées. Cet algorithme utilise les moyennes des huit dernières semaines (ou moins, si les huit semaines ne sont pas disponibles) pour générer des prévisions pour les 12 prochaines semaines.
Cet algorithme examine les 8 semaines précédentes, période par période. La moyenne des périodes est ensuite calculée pour obtenir une valeur prévisionnelle.
Par exemple, pour prévoir le volume d’une période spécifique, comme le mercredi de 9h00 à 9h15, Gestion des ressources Zendesk calcule le volume moyen des mêmes périodes des 8 mercredis précédents pour produire la valeur prévue.
Quand l’utiliser :
- Si vous disposez de peu de données historiques
- Prévisions à court terme (jusqu’à 12 semaines)
- Aucune grande tendance à la hausse ou à la baisse du volume ne peut être observée au cours des dernières semaines
- Simplicité et prévisibilité des résultats
Moyenne sur 8 semaines avec momentum
Cet algorithme est similaire à l’algorithme de la moyenne sur 8 semaines. Il s’en distingue en reproduisant les tendances générales à la hausse ou à la baisse de votre volume au cours des 8 semaines précédentes et en adaptant les prévisions en conséquence.
Comme pour la moyenne sur 8 semaines, cet algorithme prend en compte les 8 semaines précédentes et fait la moyenne de ces périodes pour produire la valeur prévue. Une fois la valeur moyenne définie, Gestion des ressources Zendesk examine la répartition du volume entre les jours de la semaine et les heures de la journée. Par exemple, s’il est habituellement plus élevé ou plus bas à cette période de la journée que la moyenne. Ensuite, en fonction de l’écart défini par rapport à la moyenne, la valeur prévue est ajustée.
Prenons l’exemple de la même période du mercredi de 9h00 à 9h15. En utilisant la moyenne des 8 semaines avec l’algorithme momentum, Zendesk WFM calcule le volume moyen de la même période sur les 8 mercredis précédents. Il compare ensuite cet intervalle spécifique à d’autres intervalles du mercredi. Si le volume de cet intervalle est généralement inférieur de 10 % à celui des autres intervalles, Gestion des ressources Zendesk réduit de 10 % le volume moyen des périodes de 9h00 à 9h15 le mercredi pour ajuster la valeur prévue.
Quand l’utiliser :
- Si vous disposez de peu de données historiques
- Prévisions à court terme (jusqu’à 12 semaines)
- Présenter des tendances importantes à la hausse ou à la baisse du volume observées au cours des 8 dernières semaines
Pour les deux algorithmes à 8 semaines, vous devrez recalculer fréquemment les prévisions afin d’obtenir la prédiction la plus précise possible.
Algorithmes de machine learning
Schémas Prophet quotidiens et historiques
Prophet est un algorithme open source développé par Facebook (Meta). Il est conçu pour prévoir les données de séries temporelles sur la base d’un modèle additif où les tendances non linéaires sont adaptées à une saisonnalité annuelle, hebdomadaire et quotidienne.
Fonctionnement
Il fonctionne mieux avec les séries temporelles qui ont de forts effets saisonniers et plusieurs saisons de données historiques. Prophet réagit bien aux données manquantes et aux changements de tendance, et gère généralement bien les valeurs aberrantes. Tous les problèmes de prévision ne peuvent pas être résolus par la même procédure. Prophet est optimisé pour les tâches de prévision commerciale gérées par Facebook (Meta).
Gestion des ressources Zendesk utilise Prophet pour prévoir les valeurs quotidiennes, puis utilise les moyennes historiques des quatre dernières semaines pour distribuer les valeurs quotidiennes prévues et générer une prévision intrajournalière.
Quand l’utiliser :
- Au moins quelques mois et de préférence une année de données historiques
- Fortes saisonnalités multiples et marquées à l’échelle humaine : jour de la semaine et période de l’année
- Un nombre raisonnable d’observations manquantes ou de grandes valeurs aberrantes sont détectées dans vos données
- Tendance historique qui change, par exemple, en raison du lancement de nouveaux produits
- Tendances qui sont des courbes de croissance non linéaires, où une tendance atteint une limite naturelle ou sature
XGBoost
eXtreme Gradient Boost (XGBoost) est un algorithme de stimulation de gradient qui peut être utilisé pour résoudre différents problèmes de machine learning, tels que la classification et la régression. C’est l’un des algorithmes de machine learning les plus utilisés pour les prévisions.
Fonctionnement
Un algorithme de stimulation (« boosting ») est un algorithme d’ensemble d’arbres de décision qui augmente la complexité des modèles qui souffrent d’un biais important. Cela signifie qu’il est construit à partir de plusieurs algorithmes de machine learning afin d’obtenir de meilleurs résultats. XGBoost est une implémentation de l’algorithme Gradient Boosting dans le cadre de la bibliothèque logicielle open source. Il se concentre sur la vitesse de calcul et les performances du modèle. Cette bibliothèque a la capacité de répartir l’apprentissage du modèle pour générer des résultats plus rapides et plus précis.
Quand l’utiliser :
- Au moins quelques mois (de préférence une année) de données historiques
- S’il n’y a pas beaucoup de données (zéro donnée pour la majeure partie de la période historique)
- Si les données présentent de nombreuses valeurs aberrantes, telles que des événements spéciaux ou des pics inattendus, car ce modèle est robuste et moins sensible aux valeurs aberrantes
LightGBM
Light Gradient-Boosting Machine (LightGBM) est un framework de stimulation du gradient développé par Microsoft, qui peut être utilisé pour résoudre différents problèmes du machine learning, tels que le classement, la classification et la régression.
Fonctionnement
LightGBM est un algorithme de stimulation ; il fonctionne de manière similaire à XGBoost. Ces algorithmes diffèrent dans la façon dont ils font « pousser les arbres » - XGBoost utilise la croissance par niveau (horizontale), tandis que LightGBM utilise la croissance par feuille (verticale). Cette différence dans certains scénarios fait de LightGBM un choix plus rapide et plus précis que XGBoost. Cependant, cela dépend d’un cas d’utilisation spécifique.
Quand l’utiliser :
- Au moins quelques mois (de préférence un an) d’historique
- Si les données présentent des schémas non linéaires complexes
- Avec des données à grande échelle
- Si la performance est plus le facteur le plus important
Algorithmes IA
Schémas quotidiens et historiques de NeuralProphet
NeuralProphet comble le fossé entre les modèles de séries temporelles traditionnels et les méthodes de deep learning. Il est open source, basé sur PyTorch, et s’appuie sur l’héritage de Facebook (Meta) Prophet. La plus grande amélioration par rapport à Prophet est la possibilité d’ajouter de nouvelles fonctionnalités, de nouveaux algorithmes, etc.
NeuralProphet utilise une combinaison de composants classiques et de réseaux neuronaux pour produire des prévisions très précises :
- Sélection automatique des hyperparamètres
- Tous les modules sont entraînés par descente stochastique de gradient (SGD) en mini-lots
- Inclut toutes les composantes du modèle Prophet original (tendance, saisonnalité, événements récurrents et régresseurs)
NeuralProphet calcule les prévisions plus rapidement que le schéma Prophet (Meta) original de Facebook, tout en offrant davantage de fonctionnalités. Gestion des ressources Zendesk utilise une approche similaire ; Prophet prédit des valeurs quotidiennes avec NeuralProphet et utilise les modèles historiques pour les prévisions intrajournalières.
Quand l’utiliser :
- Au moins quelques mois et de préférence une année de données historiques
- Fortes saisonnalités multiples et marquées à l’échelle humaine : jour de la semaine et période de l’année
- Nombreux jours chômés importants (ou saisonnalités) qui se produisent à des intervalles irréguliers connus à l’avance (par exemple, finale de la Coupe de France)
- Un nombre raisonnable d’observations manquantes ou de valeurs aberrantes importantes
- Tendance historique qui change en raison du lancement de produits, par exemple
- Tendances qui sont des courbes de croissance non linéaires, où une tendance atteint une limite naturelle ou sature
Réseau neuronal à mémoire interne (LSTM)
Le réseau neuronal à mémoire interne (LSTM) est l’un des modèles les plus avancés pour la prévision des séries temporelles. Sa capacité à apprendre des séquences d’observations à long terme en a fait une approche en vogue de la prévision moderne.
Il s’agit d’un réseau neuronal récurrent artificiel (RNN) utilisé dans le domaine du deep learning. Une unité LSTM commune est composée d’une cellule, d’une porte d’entrée, d’une porte de sortie et d’une porte d’oubli. La cellule mémorise des valeurs sur des intervalles de temps arbitraires et les trois portes régulent le flux d’informations entrant et sortant de la cellule.
Un LSTM est capable de capturer les modèles de saisonnalité à long terme, tels que les modèles annuels, et les modèles de saisonnalité à court terme, tels que les modèles hebdomadaires. Il fonctionne bien avec les événements exceptionnels. Ces événements ont un impact sur la demande le jour même, ainsi que les jours précédant et suivant l’événement. Les différentes portes à l’intérieur d’un LSTM renforcent sa capacité à capturer des relations non linéaires pour la prévision.
Par exemple, les gens peuvent réserver plus de jours d’hébergement pour assister à un événement sportif. Un LSTM a la capacité de trier les modèles d’impact de différentes catégories d’événements.
Gestion des ressources Zendesk dispose de plusieurs modèles LSTM formés sur différentes fréquences de données :
- 15 min - Données brutes utilisées pour l’apprentissage et, par conséquent, prévisions intrajournalières immédiates
- Horaire - Les données agrégées au niveau horaire sont utilisées pour l’apprentissage du modèle, qui produit ensuite une prévision au niveau horaire.
- Journalier - Les données agrégées au niveau journalier sont utilisées pour l’apprentissage du modèle. Le modèle produit ensuite une prévision journalière et applique des schémas historiques pour obtenir une prévision intrajournalière.
Quand l’utiliser :
- Avec une bonne quantité de données historiques, de préférence sur une année
- Workstreams de volume moyen ou élevé
- Horaires d’ouverture ne comportant généralement aucune période sans volume entrant
- Nécessité de tenir compte d’une forte saisonnalité ainsi que d’événements répétitifs exceptionnels
Articles connexes