Citer
Imprimer
Partager

#confinement : Le masque au centre des conversations, jour à jour

  • Résumé
    Si la sidération première nous laisse sans repères et fait apparaître l’épidémie du Covid19 comme un événement extraordinaire, le désastre quant à lui, ne fait pas figure d’exception. Il s’est forgé, au moins depuis la création des sociétés de la croix rouge en 1869, une connaissance considérable dans le champ de sa gestion[1]. L’ oeuvre de Quarantelli, dont la dernière édition date de 2018 avec le travail d’ Havidan, en est l’ouvrage de référence.
    Citation : Monnot, J., & Benavent, C. (Mai 2020). #confinement : Le masque au centre des conversations, jour à jour. Management et Datascience, 4(4). https://doi.org/10.36863/mds.a.13168.
    Les auteurs : 
    • Julien Monnot
      - Université Paris Nanterre
    • Christophe Benavent
       (c.benavent@gmail.com) - Université Paris Nanterre  - ORCID : https://orcid.org/0000-0002-7253-5747
    Copyright : © 2020 les auteurs. Publication sous licence Creative Commons CC BY-ND.
    Liens d'intérêts : 
    Financement : 
    Texte complet

    Cette discipline, manifestement mal connue des dirigeants politiques et économiques, accorde depuis de nombreuses années, une attention particulière aux populations civiles et à leurs comportements. La participation civique joue alors un rôle essentiel, autant pour réussir les opérations d’atténuation des conséquences (le respect des règles de confinement et de distance sociale), que pour assurer la résilience collective ou les capacités de rebond (ex : télétravail), et enfin principalement, pour contribuer à l’état de préparation, tant des populations que des institutions et pouvoirs publics. Force est ici de constater, que cela n’a pas été le cas, en ce qui concerne les masques, puis les tests.

    Cette littérature de gestion propose aussi des hypothèses sur le cycle de vie du désastre et des états émotionnels qui l’accompagnent. Dans cette perspective, la pratique du social listening[2] peut-être utile, afin d’ apprécier l’état d’esprit[3] des populations, et plus précisément, le climat informationnel dans lequel elles évoluent.

    Figure 1 : Adapté de Zunin & Myers comme cité in De Wolfe, D. J., (2000) “Training manual for mental health and human service workers in major disasters” (2nd ed., HHS Publication No. ADM 90-538)

    En exploitant les données du Laboratoire du Confinement[4], l’objectif du billet est de décrire une technique, qui permette de suivre au jour le jour, un ensemble de discours sédimentés dans un fil d’actualités Twitter, afin de confronter leur évolution empirique au modèle de cycle de vie précédent.

    Il s’agit donc de générer une carte sémantique des thématiques abordées de manière journalière, de façon à faire apparaître l’évolution des thèmes de discussion. C’est une première approche pour identifier au moins qualitativement, les phases éventuelles de nos états mentaux au cours du confinement, et de restituer ainsi le “storytelling” des quarante premiers jours d’assignation à domicile. Nous les résumons ensuite en un clip vidéo. Il ne restera alors qu’à l’analyser, et cela, nous en confions la tâche au lecteur.

    Les données

    Le set de données collectées porte sur les 44 premiers jours de confinement, marqués par le hashtag #ConfinementJourj. Il représente 350 000 tweets, dits “primaires”, dans le sens où nous écartons les retweets, afin d’éviter la redondance des mêmes locutions au sein de l’ensemble, et éviter ainsi un biais de répétition et un excès de redondance. Ce travail s’inscrit dans une recherche plus générale du laboratoire, autour de l’étude du confinement, et fournit une première approche descriptive et narrative du corpus.

    On charge les données et on crée à partir de la date une variable Jour, qui va être notre échelle temporelle.

    ```{r data}
    library(knitr)
    library(lubridate)
    library(dplyr)
    
    #lecture du fichier
    df <- readRDS("df_liwclsd.rds")
    
    #creation de la variable Jour (de confinement)
    
    df$day<-as.numeric(format(df$created_at, "%d")) # jour
    df$month<-as.numeric(format(df$created_at, "%m")) # mois
    df<- df %>% mutate(Jour=ifelse(month == 3,day-16 ,ifelse(month==4,day+15,0) ))
    ```

    On prépare les données par un processus de lemmatisation pour faciliter la lecture et réduire les flexions de mots. On conduit ensuite une analyse en “part of speech” pour isoler les  verbes, noms et adjectifs avec le package `proustR`,  référent français de techniques de traitement du langage naturel. Les mots “écrans” ou “vides”, comme les conjonctions de coordination, de subordination et autres déterminants, sont alors supprimés, afin de réduire le bruit dans l’analyse.

    Le package le plus important pour cette partie de l’étude et la génération des graphiques, est le package `mixr`[5], constitué de fonctions très pratiques et ingénieuses. Son auteure est Lise Vaudor, qui décrit également son fonctionnement dans son ouvrage “Le Descriptoire”, disponible sur Internet. Ce package réunit un ensemble de fonctions permettant des opérations initialement prévues dans des packages différents, et des classes d’objets différents. En outre, `mixr`  permet d’accéder à un lexique qui autorise l’annotation des catégories grammaticales (Pos), et de passer des mots aux “lemmes”. On se concentre ainsi sur ce qui est dit (Noms), ce qui est fait (Verbes) et comment c’est qualifié (Adjectifs). On filtre les mots “confinement” et “jour”, naturellement, surreprésentés mécaniquement dans le corpus.

    ```{r data, echo = TRUE}
    library(proustr)
    library(tidytext)
    #devtools::install_github("lvaudor/mixr")
    library(mixr)
    #on charge le lexique en français
    lex_lm <- get_lexicon("fr")
    # on tokenize et on deliste les tokens pour filtrer les stopwords
    df_Tok <- df %>%
      unnest_tokens(output = "Mots",
                    input = text,
                    token = "words",
                    collapse = F) %>%
      anti_join(proust_stopwords(),by=c("Mots"="word"))
    #on associe les lemmes aux mots selectionnés du corpus
    df_Tok <- left_join(df_Tok,
                        lex_lm,
                        by=c("Mots"="word"))
    
    #on ne garde que les Pos : nom commun et adjectifs
    df_Tok_Fltr <- df_Tok %>%
      select(user_id,Mots,lemma,type,Jour) %>%
       filter(Mots != "confinement") %>%
      filter(Mots != "jour") %>%
       filter(type %in% c("nom","adj"))
    
    df_Tok_Fltr1 <- df_Tok_Fltr %>%
      filter(Mots != c("confinement","jour")) %>%
      filter(lemma!= c("confinement","jour"))
    ```

    Les cartes sémantiques

    L’idée simple est de calculer pour chaque jour, un tableau de cooccurrence des mots et de le visualiser sous la forme d’un réseau sémantique. Le corpus de textes est alors réduit à un ensemble de nœuds, de mots et de liens, définis par les cooccurrences. Dans la pratique, on choisit manuellement un seuil au-dessus duquel on considère que les mots sont associés, et en dessous duquel ils ne le sont pas.

    Nous le faisons aisément en créant une boucle `for` qui pour chaque jour (i) :

    • Sélectionne les termes qui sont le plus souvent ensembles (dans les mêmes tweets).
    • Calcule le score de cooccurrence entre ces derniers.
    • Génère un graphe du jour i (avec une projection en 2d de type MDS)

    La boucle va nous permettre de générer ainsi quarante-quatre cartes de réseaux, propres aux quarante-quatre jours de confinement ciblés, à l’exemple de la figure 2, qui représente les relations entres les mots les plus fréquents, pour les jours 7 et 41.

    Figure 2 :  les réseaux sémantiques au jour 7 et au jour 41.

    La plus faible densité du jour 41 résulte d’un nombre moins grand de tweets recueillis, le seuil de cooccurrence adopté pour définir un lien étant identique dans les deux cas, moins de termes passent le test. On retrouve une structure bipolaire : la sphère publique et la face plus intime, le confinement est à la fois l’effet d’une politique, mais aussi un espace intérieur.
    Si au 7ème  jour le masque est au centre, sa place reste disputée par d’autres termes, la chloroquine par exemple. Il semble alors confiné à la protection du personnel médical. Au 41ème jour, le masque a pris une place centrale, la question du déconfinement lui est étroitement associée, les “gestes barrières” et  les mesures de “distanciation sociale”  se sont installés dans le paysage.

    ```{r network, echo = TRUE}
    library(ggraph)
    library(widyr)
    
    for (i in 2:41) {
    
    df_Day <- df_Tok_Fltr1 %>%
      filter(Jour == i)
    
    #Identification du thème d’actualité du jour
    actu[df_Day$Jour==1]<-"Les mots les plus fréquents - 175 décès"
    actu[df_Day$Jour==2]<-"Laboratoire du confinement : La scène s'installe"
    actu[df_Day$Jour==3]<-"L'italie n'arrive pas à endiguer l'épidémie 3000 morts"
    
    #calcul des co-occurrences
    cooc <- df_Day %>%
      pairwise_count(lemma, feature = user_id,sort=T)
    
    #selection des co-occurrences
    cooc2 <- cooc %>%
      filter(n > 15)
    
    #creation du graphe
    
    mots_graph <- igraph::graph_from_data_frame(cooc2)
    #mise en forme  du graphe
    
    my_graph <- mots_graph %>%
       ggraph::ggraph(layout = "fr") +
       ggraph::geom_edge_link(edge_colour="steelblue") +
       ggraph::geom_node_point(color = "khaki1", size = 5) +
       ggraph::geom_node_text(aes(label = name), repel = TRUE) +
       ggplot2::theme_void() +
       labs(title = paste("Laboratoire du Confinement Jour",i))
    
    #Affiche et enregistrement du graphe au jour j du graphe
    
    plot(my_graph)
    print(my_graph)
    ggsave(paste("Jour",i,".jpg"))
    
    }
    
    ```

    Et un peu de bricolage pour finir

    Pour la production finale, il restera à contextualiser chaque carte, en indiquant l’événement principal du jour. On s’aperçoit en effet, et sans surprise, que si le masque est au centre des relations de manière permanente, les spécificités et l’actualité du jour font varier la structure générale. Le lundi de Pâques est ainsi frappé par la date du 11 mai (mot “mai” au Jour 28) et chaque dimanche est marqué par un regain d’intériorité. La tâche est largement manuelle, et suppose que l’on prépare un tableau de suivi des éléments contextuels (actualité, jour de la semaine, événement marquant, météo) pour les intégrer à chaque carte et aider à sa compréhension et à sa lecture.

    Quarante-quatre cartes à examiner une à une, est un exercice fastidieux. Une présentation plus animée, accroît sans doute la lisibilité, en permettant de s’arrêter sur les séquences frappantes et de revenir en arrière, de manière à apporter un peu d’interactivité au lecteur. Bien qu’une solution depuis R existe, la solution la plus simple, rudimentaire mais efficace,  consiste à générer directement la vidéo à partir des images en “Joint Photographic Experts Group” (.jpeg) produites par notre procédure, via un utilitaire web. Une manière amusante d’ajouter de l’information, est alors d’exploiter la bande son inutilisée de la vidéo afin d’y insérer (il existe aussi de nombreux utilitaires pour cette tâche) des musiques, ou simplement un commentaire vocal.

    Dans notre cas, on retrouve deux versions, deux histoires, deux perspectives sociales et deux styles tirés des multiples beaux exemples de créativité musicale, que le confinement a inspiré et contraint : l’une du chanteur guadeloupéen Lorenz et l’autre de “Les Goguettes (en trio mais à quatre)”.

    Conclusions

    Le résultat substantiel essentiel, est que le masque est au centre du discours, et connecte les sphères de l’intime et du public. Est-ce par son ambivalence : sur le plan matériel on ne sait pas s’il protège soi des autres, ou les autres de soi. Sur le plan symbolique, il est ce qui, en nous séparant, nous réunit, ce qui en nous cachant, nous montre. Le masque est aussi le moyen symbolique, à défaut d’être matériel, pour que chacun participe au déconfinement. Depuis 45 jours, il est au centre de nos discussions, remarqué d’abord pour son absence, puis dans les jours suivants, en tant que condition pour retrouver nos libertés, en autorisant ainsi chacun de nous à ressortir, mais masqué.

    Sur le plan de la méthode, nous aurons introduit une approche qui, en premier lieu, sérialise l’analyse et permet d’observer des évolutions à un rythme quotidien. En incorporant des éléments de contexte, elle permet de saisir la narrativité des données textuelles, et fournit une première entrée pour comprendre les méandres du discours social. Nous nous inscrivons ainsi dans la perspective dessinée notamment par Von Laer et al, en 2019, pour comprendre les données textuelles au regard des histoires que ces dernières transportent, tant en termes substantiels qu’en termes conjoncturels.

     

    [1] Voir la littérature autour du “Management disaster”.

    [2] Action qui consiste à écouter et analyser les discours produits dans les réseaux sociaux

    [3] Les spécialistes évoquent la notion de “santé mentale” en se focalisant sur le stress et la capacité de rebond.

    [4] Le Laboratoire du Confinement est une initiative de plusieurs chercheurs en France, visant à collecter, constituer, annoter et analyser plusieurs ensembles de données sociales relatives à l’expérience de confinement, telles que leur locuteurs les expriment, et les propagent. Dans la période à venir, la rubrique #culturedata proposera une fois sur deux, des articles basés sur ce set de données.

    [5] Ne pas confondre avec le package “mixR”.

    Bibliographie

    Rodríguez Havidán, et al. Handbook of Disaster Research. Springer, 2018.

    Van Laer, J.E. Escalas, S. Ludwig, E.A. Van Den Hende, What Happens in Vegas Stays on TripAdvisor? A Theory and Technique to Understand Narrativity in Consumer Reviews, Journal of Consumer Research, Oxford University Press, Vol. 46, 2019

    Lise Vaudor (2020) “le descriptoire” http://perso.ens-lyon.fr/lise.vaudor/Descriptoire/_book/intro.html

  • Évaluation globale
    (Pas d'évaluation)

    (Il n'y a pas encore d'évaluation.)

    (Il n'y a pas encore de commentaire.)

    • Aucune ressource disponible.
    © 2024 - Management & Data Science. All rights reserved.