Citer
Imprimer
Partager

Simulation et planification projet : une approche Design Science

  • Résumé
    Le management par projets s’est implanté dans les organisations. Néanmoins, un certain nombre de projets ne respectent pas les délais impartis. Les méthodes d’estimation par simulation peuvent être utiles dans ce contexte pour sensibiliser aux variations inhérentes à la planification. Aussi, nous posons la question suivante : Comment concevoir un logiciel basé sur la simulation de Monte-Carlo pour sensibiliser à la planification probabiliste de projets ? Cette recherche passe par la conception d’un artefact à la fois innovant et utile ainsi que la création de connaissances par une approche Design Science Research. L’évaluation de l’artefact s’appuie sur des références du domaine. Les résultats montrent que le logiciel de simulation, répond à cette problématique.
    Citation : COHARD, P. (Mai 2021). Simulation et planification projet : une approche Design Science. Management et Datascience, 5(5). https://doi.org/10.36863/mds.a.17201.
    L'auteur : 
    • Philippe Cohard
       (philippe.cohard@umontpellier.fr) - Université de Montpellier, Labex Entreprendre
    Copyright : © 2021 l'auteur. Publication sous licence Creative Commons CC BY-ND.
    Liens d'intérêts : 
    Financement : 
    Texte complet

    Le management par projets s’est progressivement implanté dans les organisations. Néanmoins, le chaos report 2015 du Standish Goup indique sur la base d’une analyse sur 25000 projets, que 60 % ne respectaient pas les délais et 56% ne respectaient pas les budgets. Les estimations des délais sont donc fréquemment dépassées (Ika et Paché, 2021), ce qui peut entraîner des pénalités. Kahneman (2016, p. 386) indique que : « les prévisions trop optimistes sur l’issue de projets sont monnaie courante » ; Kahneman précise également avoir proposé (avec Tversky) le terme « erreur de prévision » lorsque des plans et prévisions (1) « sont beaucoup trop proches des scénarios optimistes » et (2) « lorsqu’ils pourraient être améliorés par les statistiques de cas semblables ».

    Une grande partie de la littérature qui s’intéresse aux scénarios de planification porte sur le choix des méthodes (Gantt, Pert, etc.). Les méthodes de simulation Monte-Carlo sont mentionnées dans le PMBOK (PMI). Mais l’utilité de ces méthodes paraît complexe. Or, l’analyse par simulation de Monte-Carlo permet de proposer une estimation prenant en compte un spectre plus large de possibilités et il semble important que les étudiants puissent l’expérimenter. En conséquence, nous posons la question suivante : « Comment concevoir un logiciel basé sur la simulation de Monte-Carlo pour sensibiliser à la planification probabiliste de projets ? ».

    Cadre conceptuel

    Tout d’abord, nous présentons les décisions et estimations, puis la simulation de Monte-Carlo et enfin le cadre de recherche.

    Décision et estimations

    Dans les organisations, la prise de décision est réalisée quotidiennement. Le contexte décisionnel dans lequel le manager agit dépend des connaissances dont il dispose. Trois types de contextes ont été identifiés[1] : (1) certitude, (2) risque et (3) incertitude (Schermerhorn et al., 2010; Turban et al., 2007). Turban et al. (2007) précisent que dans le contexte de certitude il est supposé qu’une information suffisante (voire complète) est disponible pour prévoir le résultat. Alors que dans le contexte de risque le manager dispose de probabilités, connues ou estimées, pour départager les différentes alternatives. Enfin dans le contexte d’incertitude, le manager ne dispose pas de probabilités connues et ne peut pas les estimer (Turban et al., 2007).

    Dans un contexte décisionnel de risque la méthode « d’estimation à 3 points » est souvent utilisée. Généralement, dans le cadre du Pert probabiliste l’estimation à 3 points revient à calculer pour chaque tâche une durée estimée de la manière suivante : (Dopti + 4 * Dprob + Dpess) /6. Par ailleurs, l’estimation par la distribution triangulaire est aussi utilisée en management de projets, moyenne = (Dopti + Dprob + Dpess) /3.

    Simulation Monte-Carlo

    La simulation est une méthode de recherche connue, basée sur des modèles d’abstraction simplifiés et des programmes informatiques. Harrison et al. (2007, p. 1231) expliquent que «dans les principales revues de management et sciences sociales, environ 8% des articles publiés utilisaient une méthodologie de simulation». La simulation a notamment été utilisée par Jay Wright Forrester dans le cadre de la dynamique des systèmes, « En faisant varier certains éléments dans les temps, il est alors possible de connaître et de prédire l’impact de cette variation sur les autres éléments du système qui ont une importance majeure […] » (Rouleau, 2007, p. 43). Dans le cadre du management de projets deux types de méthodes de simulation sont généralement utilisés la simulation de Monte-Carlo et les analyses What-if.

    La simulation de Monte-Carlo est mise en œuvre au moyen d’un d’algorithme qui fait intervenir plusieurs tirages aléatoires. Afin de réaliser ces tirages un générateur de nombres pseudo-aléatoires uniforme est utilisé. L’algorithme Mersenne Twister est fréquemment utilisé dans des langages de programmation. La qualité du générateur de nombres est particulièrement importante. Les générateurs pseudo-aléatoires sont utilisés pour réaliser des tirages suivant des distributions particulières. La distribution Pert -loi Béta et la distribution triangulaire sont souvent évoquées.

    Cadre de recherche : Design Science Research

    La science de conception a été introduite dans les travaux d’Herbert Simon (2004) qui indique qu’une telle science est possible et que, de plus, elle a déjà commencé à prendre corps depuis les années 1970 environ. Simon (2004, p. 234) précise que « la forme de la conception elle-même, et l’organisation du processus de la conception, sont l’une et l’autre deux composantes essentielles d’une théorie de la conception ». La recherche en science de la conception – Design Science Research (DSR) s’inscrit dans les travaux de Simon et peut être définie de la manière suivant : « Design science est un paradigme de recherche dans lequel un concepteur répond à des questions relatives à des problèmes humains par la création d’un artefact innovant tout en contribuant par l’apport de connaissances nouvelles à l’ensemble des preuves scientifiques » (Hevner et Chatterjee, 2010, p. 5). Dans un article de référence Hevner et al. (2004, p. 83) proposent un ensemble de lignes directrices pour la mise en œuvre de la DSR portant sur : (1) la conception d’un artefact, (2) l’importance du problème, (3) l’évaluation de la conception, (4) la contribution à la recherche, (5) la rigueur de la recherche, (6) la conception en tant que processus de recherche et (7) la communication de la recherche ( Cf. annexe 1). Alors que la recherche action est centrée sur la résolution de problèmes via des changements organisationnels et sociaux, la DSR est axée sur la résolution de problèmes par la création et le positionnement d’un artefact dans son environnement (Baskerville, 2008). Nous procéderons à une évaluation ex post (Venable, 2010) afin de déterminer la valeur du système implémenté.

    Mise en œuvre de la recherche et résultats

    Le Logiciel de Simulation Pédagogique pour le Management de Projet (LMP-MP 21) a été conçu sur la base de simulations par la méthode de Monte-Carlo. Sa conception et son évaluation sont décrites dans la note méthodologique en fin d’article. Les données ont été collectées par questionnaire auprès d’étudiants de M1 et M2 en management de projets le 12/04/2021 et le 23/04/2021. Les répondants sont des femmes (5 en M1 et 6 en M2) dont la moyenne d’âge est de 23 ans (σ =1,19). Le logiciel est présenté en ligne (cas simplifié). Cette première évaluation fait apparaître les résultats suivants, nous présentons la moyenne mesurée sur une échelle à 5 points. Le logiciel paraît simple à utiliser (3,91), ce qui est confirmé car il ne demande pas d’effort pour être utilisé (3,91). Le temps de calcul paraît rapide (4,00) et le logiciel semble utiliser efficacement les ressources de l’ordinateur (4,25) mais ces deux derniers résultats sont à prendre avec prudence du fait de l’exemple simplifié utilisé et du nombre de réponses « ne sait pas » indiquées. L’application paraît fiable (4,36). La portabilité du logiciel paraît bonne (4,56) ce qui s’explique par l’utilisation du langage Python. Le logiciel est perçu comme utile (4,30) dans le cadre de la gestion de risque et répond aux besoins de planification (4,30). L’intention d’utiliser le logiciel est de 3,57 donc plutôt bonne mais l’interprétation est délicate (4 réponses « ne sait pas »). Les étudiants, grâce au logiciel, ont l’impression de mieux comprendre les variations (3,91) qui peuvent exister dans les estimations. La satisfaction globale est forte (3.91), la satisfaction a été également mesurée par une note sur 10 donnée au logiciel dont la moyenne est de 7,55. La satisfaction a également été mesurée comparativement aux attentes : 3 étudiants ont trouvé que le logiciel était mieux que ce qu’ils attendaient et 8 l’ont trouvé équivalent à que ce qu’ils attendaient (aucun étudiant ne l’a trouvé moins bien que ce qu’il attendait). L’évaluation inclut un champ libre permettant la saisie de commentaires qui sont majoritairement favorables au logiciel (extraits) : « le logiciel paraît pratique, fiable et pertinent », « paraît facilement accessible et répondrait à de nombreuses attentes en peu de temps », il est « assez intuitif et répond aux attentes d’un chef de projet », « Ce logiciel est intéressant, il peut aider lors de la gestion d’un projet » et « Je pense que ça peut être un outil très intéressant concernant la planification de projet ». Les utilisateurs font apparaître des demandes : « le visuel du logiciel peut être amélioré », toujours concernant le visuel « est peut-être à revoir » et « il faudrait pouvoir l’alimenter, l’améliorer au fur et à mesure selon les besoins des chefs de projet (un outil pour l’aide à la décision) ».

    Discussion

    Dans cette recherche nous avons mis en œuvre un processus de conception-évaluation dans le cadre d’une démarche issue de la Design Science Research (Hevner et al., 2004). L’artefact qui a été conçu, le logiciel de simulation LPS-MP21 répond à la problématique de sensibilisation et formation à la variabilité dans l’estimation de la durée d’un projet. Cette difficulté et la vision trop optimiste des planificateurs a été mise en lumière par Kahneman (2016). L’artefact logiciel conçu a été évalué par des utilisateurs du domaine en prenant en compte des dimensions de référence du domaine. Cette évaluation mobilisant à la fois la génération de la mesure et de la description permet de porter un jugement sur le logiciel (Guba et Lincoln, 1989). Les tests réalisés confortent l’intérêt de cette application pour les managers de projets ainsi que leur satisfaction. Cette recherche fournit plusieurs contributions théoriques et méthodologiques en proposant une évaluation à plusieurs niveaux prenant en compte des mesures issues de normes du domaine et des descriptions issues d’un modèle de référence (Delone et McLean, 2003; Petter et al., 2008) l’ensemble permettant le jugement. La contribution passe également par l’artefact lui-même qui sera mis à disposition sous licence GPLV3, ce qui permettra d’autres formes d’évaluations et des améliorations-corrections ultérieures. L’application a été développée en prenant en compte une séparation interface graphique utilisateur et fonctionnement général de l’application. L’artefact logiciel s’inscrit dans son contexte lié au management de projet et aux problématiques décisionnelles en lien avec les estimations en mobilisant la méthode de simulation de Monte-Carlo. L’application a été présentée et évaluée par des utilisateurs concernés par le management de projets et est portée à la connaissance des chercheurs par la présente publication. Tous ces éléments ainsi que les résultats et l’artefact lui-même constituent une réponse aux lignes directrices de la Design Science Research (Hevner et al., 2004; Hevner et Chatterjee, 2010). Cette première évaluation du logiciel étant validée, nous pourrons passer à une nouvelle étape d’évaluation du logiciel qui sera réalisée ultérieurement sur un échantillon de plus grande taille prenant en compte d’autres dimensions sur un ensemble de cas dédiés afin de comprendre les variables d’influence clés dans ces relations. Remarquons également que le logiciel de simulation pourrait être utilisé dans le cadre de serious games par l’ajout de différents éléments de gameplay (règles, scores, etc.) afin de créer un jeu de simulation ce qui pourrait constituer un également prolongement de la recherche.

    Conclusion

    Le management par projets s’est progressivement implanté dans les organisations. Malgré une volonté des entreprises d’utiliser ce mode de management, un certain nombre de projets n’atteignent pas leurs objectifs, et dépassent souvent leur budgets et délais en raison de prévisions trop optimistes. Les méthodes d’estimation par simulation peuvent être utiles dans ce contexte pour sensibiliser aux variations qui peuvent exister dans le cadre de la planification. C’est pourquoi nous posons la question suivante : Comment concevoir un logiciel basé sur la simulation de Monte-Carlo pour sensibiliser à la planification probabiliste de projets ? Dans cette recherche nous avons mis en œuvre un processus de conception-évaluation dans le cadre d’une démarche issue de la Design Science Research. L’artefact qui a été conçu, le logiciel de simulation LPS-MP21, répond à la problématique de sensibilisation et formation à la variabilité dans l’estimation de la durée d’un projet. Les résultats montrent en particulier l’intérêt des répondants pour cet artefact à la fois dans leur formation et dans leur contexte professionnel. Les résultats donnent aussi plusieurs pistes d’améliorations futures pour l’artefact. Cette évaluation est une première étape permettant d’envisager des prolongements de cette recherche.

    [1] Risque et incertitude sont à relier au travaux de Knight 1921, Risk, uncertainity and profit.

    Bibliographie

    Baskerville, R. (2008). What design science is not. European Journal of Information Systems (EJIS), 17, 441‑443.

    Davis, F., Bagozzi, R., et Warshaw, P. (1989). User acceptance of computer technology : A comparison of two theoretical models. Management Science, 35(8), 982‑1003.

    Delone, W., et McLean, E. (2003). The DeLone and McLean Model of Information Systems Success : A Ten-Year Update. Journal of Management Information Systems, 19(4), 9‑30.

    Guba, E., et Lincoln, Y. (1989). Fourth generation evaluation. Sage Publications.

    Harrison, R., Lin, Z., Caroll, G., et Carley, K. (2007). Simulation Modeling in Organizational and Management Research. Academy of Management Review, 32(4), 1229‑1245.

    Hevner, A., March, S., Park, J., et Sudha, R. (2004). Design Science in infomation systems research. MIS Quarterly, 28(1), 75‑105.

    Hevner, A., et Chatterjee, S. (2010). Design Research in Information Systems. Springer-Verlag.

    Ika, L., et Paché, G. (2021). Performance des grands projets : Deux lectures comportementales. Management et Data Science, 5(4). https://doi.org/10.36863/17016

    Kahneman, D. (2016). Système 1, système 2 : Les deux vitesses de la pensée. Flammarion.

    Petter, S., Delone, W., et McLean, E. (2008). Measuring information systems success : Models, dimensions,measures and interrelationships. European Journal of Information Systems, 17, 236‑263.

    Rouleau, L. (2007). Théories des organisations : Approches classiques, contemporaines et de l’avant-garde. Presses de l’Université du Québec.

    Schermerhorn, J., Hunt, J., Osborn, R., et de Billy, C. (2010). Comportement humain et organisation (4e éd.). ERPI.

    Simon, H. (2004). Les sciences de l’artificiel. Editions Gallimard.

    Turban, E., Aronson, J., Liang, T. P., et Sharda, R. (2007). Decision support and business intelligence systems. Pearson.

    Venable, J. (2010). Design science research post Hevner et al. : Criteria, standards, guidelines, and expectations. Lecture Notes in Computer Science, 6105 LNCS, 109‑123.

    Annexes
  • Évaluation globale
    (Pas d'évaluation)

    (Il n'y a pas encore d'évaluation.)

    (Il n'y a pas encore de commentaire.)

    • Aucune ressource disponible.
    © 2024 - Management & Data Science. All rights reserved.