Le Big Data pour valoriser les compétences


Auteurs:


Pour citer cet article:

Igonetti, J.-B. & Chauvin, S. (2017). Le Big Data pour valoriser les compétences. Management & Data Science, 1(1).


Résumé:

Du rôle des outils de gestion, au carrefour des communautés de pratique et des mécanismes d’apprentissage, nous détaillons les nécessaires évolutions de ces outils pour agréger des connaissances partagées dans l’entreprise et augmenter la performance d’un groupe de collaborateurs. Il s’agit de définir la possibilité à intégrer les connaissances découvertes par la donnée, de les restituer de manière efficace et de qualité, pour la performance des collaborateurs tout en gérant l’aspect combinatoire. Confrontée à une croissance du nombre d’outils logiciel intégrant les données d’activité, celle-ci suppose que la capacité des entreprises à appréhender cette masse d’information grandisse tout en gardant son agilité.


L’hypothèse des compétences et des performance réunies en un seul paradigme à la nature complexe : le savoir-agir

Identifier les compétences et les valoriser demeure un exercice ardu au sein de l’entreprise. Si celle-ci se doit légalement de garantir l’employabilité de ses collaborateurs, la nature des compétences mobilisées repose sur des arbitrages à portée essentiellement stratégique, généralement assez éloignés des fiches de postes dont la teneur n’est par ailleurs pas toujours en rapport avec la nature de la mission exercée.

L’entreprise n’est pas cloisonnée, elle est un modèle ouvert sur le monde, elle se nourrit d’elle-même et alimente une mémoire expérientielle. Celle-ci apparait difficilement quantifiable, mesurable, et pose la question de la transformation utile de l’expérience à la source de création de savoir dans le processus d’apprentissage (Kolb, 1984). Ajoutons enfin que l’efficacité organisationnelle, comme mesure du couple compétence/performance, apparait en filagrammes dans le concept de rapport au savoir. L’apprentissage organisationnel possède un rôle plus que déterminant dans le processus d’élaboration d’une stratégie d’entreprise structurante. A tout le moins, une plus grande « rationalité subjective » permet à l’individu de manifester une intelligence pratique relative à l’objet transactionnel (par exemple la conquête de nouveaux marchés), donc une plus grande motivation, en fonction de laquelle se déploie l’inventivité du faire à l’œuvre, et donc sa créativité (cf. Mosconi, 2000 : 74). Pour Lacroix et Zambon (2002), le capital intellectuel représente un ensemble de ressources endogènes (compétence, savoir-faire, etc.) et de ressources externalisables (marques, réputation, satisfaction des consommateurs, etc.) permettant de créer de la valeur pour l’ensemble des parties prenantes par la recherche d’avantages compétitifs. Savall et Zardet (2008) définissent l’investissement immatériel comme « un ensemble de mini actions individualisées ou collectives qui convergent vers la réalisation des objectifs stratégiques de l’entreprise ».

Pour mieux répondre au problème posé il nous faut introduire la notion du « savoir-agir » que nous résumons ici à la faculté d’agir avec compétence. Au sens économique, c’est une capacité à obtenir un résultat. Ce résultat doit être éminemment tangible, observable et mesurable et ne peut-être décorrélé de la notion de performance organisationnelle. Rappelons que les comportements motivés conduisent à la performance et que les croyances et les valeurs ont un impact réel sur la motivation et la performance (Vallerand et Thill). Pour faire face à un évènement, un salarié doit être en mesure de sélectionner et mobiliser des ressources mais aussi de savoir les analyser et les organiser, et construire ainsi une combinatoire de plusieurs ingrédients. L’appel à des capacités qui mobilisent des capacités cognitives, connaissances et aptitudes entrent ici dans le champ exploratoire du savoir-agir. De surcroit, coexistent dans le schéma organisationnel des entreprises, des us et coutumes à la périphérie des fiches de postes, qui mettent en jeu des salariés référents, encouragent à la polyvalence et à la poly-compétence, sans qu’il existe pour autant un référentiel officiel traduisant ces comportements motivés.

Sur un plan plus théorique, rappelons que selon, Dogson et Dogson, une organisation apprenante est une entreprise qui construit des structures et des stratégies afin d’accroitre et de maximiser l’apprentissage organisationnel. Selon Huber (1991), un apprentissage est organisationnel dès lors que l’acquisition d’un savoir, même individuel, modifie le comportement de l’entité (voir Koening, 1994).

A l’heure actuelle très peu d’outils de gestion permettent d’envisager de vraies stratégies à 360° qui tiennent compte des inférences nées de la mise en correspondance des éléments du savoir-agir. Il leur est très difficile de déceler les signaux faibles ou autres correspondances tacites entre ce qui est référent et ce qui est référé dans l’expérience organisationnelle. Enfin, ils ne peuvent dire avec exactitude où se situe la frontière entre le vécu informel du salarié et la performance relative en rapport avec ce savoir né de l’expérience. Il devient de plus en plus important d’intégrer de nouveaux outils de mesure au service des entreprises.

Méthodologie de la recherche : Notre recherche s’inscrit dans le cadre d’une approche hypothético-déductive. Après un inventaire de ce qui est connu dans la littérature des sciences de gestion les concepts, théories et modèles présentés dans cet article s’appuient à démontrer le caractère très subjectif du traitement des données humaines complexes à l’endroit des outils de gestion actuels. Notre hypothèse retenue est confirmée par l’apport des outils de traitement de masses de données (ou Big Data) capables de collecter des données brutes, de les enrichir et de les nettoyer en vue de générer des données nets, utiles et mesurables afin de mieux appréhender la composante humaine de la performance et de la compétence. Les résultats obtenus sont tangibles et se confrontent au cadre théorique selon lequel les actuels outils de gestion actuels restent peu efficients. La collecte des données a permis notamment de mesurer l’info-obésité ; nombre de tableau de bord en fonction de la profondeur de l’analyse en présence de plusieurs axes d’analyse. Les résultats montrent que cet accroissement de combinaison possible des données est vertigineux lorsque l’entreprise multiplie les initiatives de mesurer son activité. Une solution technique issue d’algorithme et de présentation des résultats est présentée comme une alternative.

Repenser la gestion des compétences dans les entreprises

Les travaux de Bureau et Igalens (2008, p. 35) dressent un état de l’art des principales missions de gestion prévisionnelle en Gestion des Relations Humaines (GRH) : il s’agit de la gestion anticipée des emplois et des compétences, de la gestion préventive, de la gestion anticipatrice, de la gestion anticipative, de la gestion prospective, de la gestion prévisionnelle de l’emploi et des compétences et la gestion prévisionnelle des ressources humaines.

Sur ce plateau, les nouveaux outils de gestion ne doivent pas uniquement analyser, mais adopter une démarche itérative, prédictive, orientée business analytics et intelligence, au final être de l’ordre de « l’anticipation, même imparfaite, des changements, des discontinuités, des éventualités. L’objectif n’est pas de décrire l’état futur le plus probable mais d’élaborer différents cheminements ou développements plausibles compte tenu des degrés de liberté des acteurs en jeu » (Scouarnec (2002, p. 12), décrivant la démarche prospective). Il arrive souvent que les salariés et les utilisateurs perçoivent le Système d’information RH (SIRH) comme une déshumanisation des ressources humaines. En réalité, rien ne permet de garantir une permanence de l’efficacité transactionnelle d’un tel outil à destination de l’utilisateur final d’autant que le workflow suppose une bonne indexation des données à destination des utilisateurs finaux (les Métiers notamment).

Plusieurs enjeux cruciaux se dégagent ici : un enjeu social et individuel, un enjeu économique et un enjeu organisationnel. A titre de comparaison, si un des enjeux de la conformité bancaire et financière est la bonne connaissance du client (le Know Your Customer), il apparait ici primordial de bien connaitre son collaborateur et introduire le concept de KYE : Know Your Employee. A cette échelle de réflexion, nous voyons bien que la plupart des outils de gestion qui n’intègrent pas, en temps réel, l’ensemble de ces grands enjeux, ne favorisent pas l’émergence d’une nouvelle pensée comme élément indispensable permettant de partir de l’expérience réelle de l’utilisateur et de favoriser la performance créative sans barrière.

La question de l’info-obésité comme contrainte posée au processus de gestion des données dans l’entreprise

Les outils de gestion des entreprises rassurent mais ne suffisent plus : le nombre d’indicateurs produit est en forte croissance. Les aspects de restitution des informations est de plus en plus complexe. Dans certaines entités, le rejet des tableaux de bord et de la mesure sont manifestes. Cette indigestion de la consommation d’information et de données est l’info-obésité proprement dit.

Ainsi, l’entreprise, confrontée à une croissance du nombre d’outils logiciel intégrant les données d’activité et l’ajout des mesures d’activités extérieures à l’entreprise, suppose que sa capacité à appréhender cette masse d’information grandisse. Or, si on regarde l’énergie déployée à l’intégration, la consolidation / réconciliation (éliminer les silos de données), la manipulation, l’extraction, l’analyse et la détection de diagnostics, il est probable que dans de nombreux cas, le retour sur investissement de la data soit faible voire négatif.

De nombreux cas apparaissent sur le marché où des institutions développent un nombre impressionnant de mesures faites. Par exemple, il n’est plus rare de voir plusieurs centaines d’indicateurs voire des milliers qui qualifient un client et son parcours dans l’enseigne. Alors, par simple calcul combinatoire, il en ressort que pour 10 axes d’analyse pour comprendre, 45 tableaux de bord sont possibles. Ils sont à consulter de manière hebdomadaire. L’énergie à dépenser pour lire et comprendre et appréhender un diagnostic croit exponentiellement par le nombre de mesures faires dans les organisations.

Le tableau ci-contre donne le nombre de tableaux de bord à réaliser pour comprendre les évènements si on veut être sûr de maitriser son environnement et en détecter les connaissances utiles : en présence de 12 axes d’analyse dans sa connaissance client, 781 tableaux de bord de profondeur maximum de 4 sont nécessaires pour comprendre.

Tableau ci-contre : mesurer l’info-obésité ; nombre de tableau de bord en fonction de la profondeur de l’analyse (abscisses) en présence de 10 axes d’analyse (en rouge) et de 12 axes d’analyse (en vert). Cet accroissement de combinaison possible des données est vertigineux lorsque l’entreprise multiplie les initiatives de mesurer son activité.

croissance

Un cas RH traité donnait un patrimoine de 17 variables qualifiantes les collaborateurs, utilisées pour détecter les raisons de mal-être, d’agir sur la formation et la prévention de maladie longue : ce problème nécessiterait la création de 109 276 croisements pour comprendre les éléments explicatifs de mal-être. Les solutions classiques de gestion ne résolvent pas cet aspect ultra combinatoire et font échouer les travaux des RH dans la recherche d’amélioration de la performance. Il s’agit d’utiliser de nouvelles solutions.

L’enjeu de pouvoir trier et organiser les flots de données selon une certaine justesse est primordiale. Il s’agit de définir la mécanique organisationnelle et des compétences autour de la capacité à intégrer les connaissances découvertes dans la donnée et de les restituer de manière efficace et de qualité pour la performance des collaborateurs et de l’entreprise tout en gérant l’aspect combinatoire ci-dessus illustré.

Les méthodes et les techniques de Knowledge Management innovantes sont à mettre à profit. Elle repose sur la capacité à partager des synthèses d’information, en lutte contre le trop plein d’information (Edvinsson and Sullivan, 1996). Cela induit aussi une ergonomie adaptée du système de traitement des données capable de traduire dans un langage simple et accessible par l’utilisateur, l’ensemble des éléments de réponse. Il apparait in fine primordial de créer de nouveaux processus de prise de décision pour de nouveaux usages.

« « Un diagnostic juste » suppose une pensée capable de réunir et d’organiser les informations et connaissances dont nous disposons, mais qui sont compartimentées et dispersées. », Edgar Morin (Le Monde, 01 Janvier 2013)

Trier l’information pour mieux restituer la connaissance et faire progresser les visions anticipatrices et prospectivistes dans l’entreprise

Dans le cadre de l’entreprise, il est notoire que le tsunami du BigData perturbe les habitudes des processus de fabrication et de communication. Le dilemme est donc d’être capable d’ingurgiter de plus en plus d’information (le temps de travail en est même perturbé), de confronter les compétences des métiers dans la capacité à trier et organiser l’information. Les phénomènes actuels dans les entreprises sont que les documents qui restituent l’information sont d’une part très numérique (voire que chiffrée) et que l’appropriation de la donnée brute est complexe. Les générations partantes sont impactées, créant un malaise d’entreprise. Les générations arrivantes ne se gênent pas, pour aller vite, à faire des raccourcit de connaissance. Le coût de la donnée à la transformer en connaissance, au sens économique du terme, est exorbitant : la chaine de production de la donnée est laborieuse, longue, nécessitant des moyens techniques et humains de plus en plus importants. A tous les niveaux, depuis sa gouvernance jusqu’aux tâches opérationnelles, l’entreprise s’en trouve mutée dans une gestion de la bonne connaissance.

Pour surpasser toutes ces difficultés, il est nécessaire 1) de créer des mesures (augmenter le patrimoine numérique mais également augmenter la difficulté à la gérer), 2) de réconcilier les données des outils de gestion (data lake, infocentre, datawarehouse), 3) de donner les moyens d’interroger dans les multiples dimensionnalités tout le patrimoine numérique. Ici, se concentrent les techniques cognitives, d’ergonomie et de data visualisation (Stéphane Chauvin 1, 2014).

Le goût pour la mesure ne se dément pas : on mesure de plus en plus pour mieux optimiser les compréhensions. Alors, pour libérer les énergies des collaborateurs, il est nécessaire de leur donner les moyens de mesurer, de rester agile à la création de nouvelles mesures.

L’approche de la data analytics, et notamment par les outils d’arborescence, comme levier pour trier et organiser les informations selon un principe d' »universalité » permet de répondre aux enjeux ci-dessus décrits. Le calcul industriel élimine l’aspect combinatoire mentionné plus haut. La visualisation de ces outils statistiques et mathématiques de calcul des informations a des vertus de partage de diagnostics et de connaissance. Les notions de copules mathématiques (conjonction, disjonctions, moyennes) sont des outils techniques qui permettent à la pédagogie de créer un levier d’apprentissage fort et profond (aspects multidimensionnels de la connaissance chers au sociologue Edgar Morin).
Dans ce cadre-là, on peut envisager sereinement de permettre aux collaborateurs d’exploiter l’ensemble des données et d’en produire de nouvelles, de devenir des « data scientists » qui créent des systèmes de tri de l’information que tous ses collègues peuvent s’approprier. De cette manière, le partage de connaissance s’opère en empilant les recherches et les questions sur les données grâce aux personnes des métiers : suivi des intuitions jusqu’à la création de connaissance (ici, on parle de détection de diagnostics à ROI : ce qui fait la différence et la valeur de l’entreprise par rapport au concurrent).
Le « Knowledge Management » adossé au « Knowledge Discovery » permet de capitaliser sur les connaissances intuitives des collaborateurs et de construire l’entreprise sur le partage des connaissances.
Dans une perspective de délivrance de la connaissance en réseau et de son optimalité, la question des outils de Big Data nous amène à aborder la question de l’interopérabilité entre le modèle qui délivre – et l’apprenant qui reçoit et qui retraite l’information, donc de cette capacité inhérente à s’approprier et à retraiter l’information dans un collectif de travail qui s’autoalimente.

Selon Jean-François Noubel, chercheur, professeur et formateur en intelligence collective globale « l’intelligence collective rencontre deux limites naturelles : le numérique car seul un nombre limité de personnes peut interagir efficacement, sans quoi on atteint vite un niveau trop élevé de complexité qui génère plus de « bruits » que de résultats effectifs, ce qui limite les capacités du groupe. Et la dimension spatiale : les personnes doivent se trouver dans un environnement proche afin que leurs interfaces naturelles (sens organique) puissent échanger entre elle, afin que chacun puisse appréhender la globalité de ce qui se passe (holoptisme) et adapter son comportement en fonction ».

Aussi, peut-on formuler l’hypothèse que le Big Data, participant au tri des données, amène une réponse nouvelle et intéressante en termes d’efficacité organisationnelle. A tout le moins, il ouvre un champ des possibles de la sérendipité. Aussi nous parait-il indispensable de répondre à la question de la complexité posée par l’utilisation d’un système de traitement de masses de données dans un environnement ou l’instabilité créatrice (en termes de structuration de la pensée et du rapport au savoir) demeure comme une composante épistémologique de la réussite organisationnelle du projet entrepreneurial (voir à ce propos le courant critique de l’apprentissage expérientiel, Krueger (2007).

Le BigData promeut une méthode en amont, permettant de catalyser plusieurs informations, bien au-delà des 10 variables que le cerveau humain est en mesure de traiter en même temps, et promet d’analyser par la suite les arbres décisionnels permettant de nourrir l’information utile à l’entreprise (B. Desarachy, Decision Fusion, 1994). En ce sens, il peut être un outil pertinent pour mesurer avec justesse les connexions (ou nœud) existantes, structurantes et différenciantes au sein d’une communauté de travail. Mais il pose inéluctablement la question de la qualification des personnes, et des capteurs humains, à récupérer et s’approprier les données et à les indexer, mettant en exergue une sorte l’illettrisme technique et numérique. Mieux formaliser l’interprétation des besoins utilisateurs via le schéma analytique et prédictif du BigData, c’est offrir une puissance de discernement qui contribue à une meilleure compréhension d’un système dans sa totalité, pour en comprendre les parties, et inversement, comprendre toutes les parties pour en saisir le fonctionnement du tout.

Partant du principe qu’un ensemble de données est une phrase, un énoncé, un prédicat, les outils de BigData peuvent aussi apporter une analyse intéressante située au niveau pré-comportemental des individus : formuler des hypothèses tangibles quant aux processus de construction des groupes sociaux, amener à une réflexion en miroir de l’organisation apprenante, lui conférant un objectif déterminé et stable d’apprentissage consistant à étudier les valeurs et les cultures préexistantes pour bien mener les projets de l’entreprise au but espéré (Norman, D. A., 2002) et produire de la performance. Les outils de BigData pourraient ainsi, apparaitrent comme des outils ergonomiques bien adaptés à ces entreprises innovantes, même si la perspective ergonomique dans son ensemble n’est pas « située » par nature, mais fournissant néanmoins un terrain très adéquat pour tester les hypothèses de la cognition située (voir les travaux de Benoit Grison).

Conclusion

Dans cet article, nous parlons de méthodes pour rendre agile la création de mesures d’une part (une nécessité pour mieux comprendre nos environnements de décision), de traiter les aspects chronophage et combinatoire de la détection de connaissances dans de multiples sources de données et d’information (notamment par l’approche de calcul d’arborescences et de visualisation), et de capitaliser sur les collaborateurs qui se poseront des questions individuellement, consolider dans un second temps entre les gens des métiers : une nouvelle méthode de knowledge management par le Knowledge Discovery.

On s’efforce aussi à démontrer que le levier de la connaissance et du partage de la connaissance peut être la possibilité d’extraire et de capitaliser sur les évènements par le numérique. Nous proposons une méthode et une technicité sur la base de combinaison d’arborescences qui peut réduire voire éliminer les effets néfastes de la surconsommation de données et d’information par les approches de combinaison et mise en relation des connaissances.

Nous notons le caractère particulier d’une communauté de pratique innovante qui se construit sur la base d’une autorégulation des compétences, ou le partage de la connaissance ne repose pas sur des référentiels prédéterminés, où tous les acteurs participent à l’expérience de l’apprentissage organisationnel dans un savoir-agir mesuré et assumé.

Enfin nous expliquons en quoi les outils de Big Data confèrent un objectif déterminé et stable d’apprentissage consistant à étudier les valeurs et les cultures préexistantes pour bien mener les projets de l’entreprise au but espéré, la mesure de l’immatériel semblant être le Graal. Au-delà des outils actuels des outils de gestion des ressources humaines ou des tableurs Excel qui représentent chacun un univers donné, les outils de gestion de demain devront rapidement permettre l’enrichissement de la donnée utile et agile à l’entreprise.

Bibliographie

  • Edvinsson and Sullivan, 1996 : Leif Edvinsson, Patrick Sullivan, European Management Journal, Volume 14, Issue 4, August 1996, Pages 356–364, The Epistemological Challenge: Managing Knowledge and Intellectual Capital
  • Chauvin S., novembre 2012, novembre 2013, avril 2014, Data Visualisation, Groupement de Recherche sur la Complexité.
  • Chauvin S, 1994. Decision Theory Evaluation For Fusion, Data Fusion Meeting CNRS.
  • Chauvin S. et Molendi P. « Des outils pour mieux piloter l’entreprise », revue Echanges, mai 2012, n° 298.
  • Desarachy B. Decision Fusion, IEEE Computer Society Press, 1994.
  • Grisons B., 2004. Des Sciences Sociales à l’Anthropologie Cognitive. Les genealogies de la Cognition Située.
  • Norman, D. A. (2002). Emotion and design: Attractive things work better.  Interactions Magazine, ix (4), 36-42.
  • O’Fallon Liam R. and Dearry A. Community-Based Particpary Research as a tool to Advance Environmental Health Sciences, Environmental Health Perspective, volume 110, Supplement 2, April 2002.
  • Chauvin S. et Molendi P. Des outils pour mieux piloter l’entreprise, revue Echanges, mai 2012, n° 298.
  • Gadille, M., & Machado, J. (2010). La formation dans les PME d’un pôle, rapports au savoir et division du travail. Éducation permanente, (182), 107-121.
  • Colloque RH du groupe IGS du jeudi 20 novembre 2014, Dans quelle mesure la fonction ressources humaines doit-elle s’emparer de l’intelligence informationnelle?
  • Hinds P. & Pfeffer .J, July 2001. Why Organiszations don’t « Know what they Know »: Cognitive and Motivational Factors Affecting The Transfert of Expertise. Standord University, Research Paper N°1697

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s