Faire face à l'utilisation croissante des données dans les services digitaux

Account Manager
Valtech

mars 08, 2023

La collecte, la compréhension et l'utilisation des données sont au cœur du fonctionnement des services digitaux. Prendre des décisions basées sur des données - plutôt que de se fier à des des hypothèses non vérifiées - est une démarche tout à fait sensée. Chez Valtech, nous nous engageons à aider les organisations à tirer les bonnes conclusions à partir des données, qui peuvent être partielles ou refléter des préjugés. Comme nous l'avons expliqué lors d'un récent webinaire, les biais liés aux données peuvent prendre une multitude de formes et avoir des conséquences considérables.

Il y a encore peu de temps, nous ne disposions pas toujours de données pour concevoir et développer des services digitaux. Les équipes devaient modéliser, émettre des hypothèses et faire des suppositions concernant ce dont elles avaient besoin. Aujourd'hui, être axé sur les données est de plus en plus la norme. Toutefois, il est tout aussi essentiel de s'assurer que les données que nous collectons nous donnent des résultats fiables.

Les données partielles ou biaisées peuvent constituer un véritable obstacle à la transformation digitale et à la conception de services digitaux. Les processus, l'expérience utilisateur, la recherche et même les décisions d'investissement peuvent être fondés sur des données qui ne représentent qu'une partie de la réalité. Ces données peuvent surreprésenter des personnes, des besoins ou des scénarios particuliers, ou en ignorer d'autres.

Caroline Criado Perez, auteure de Invisible Women : Exposing Data Bias in a World Designed for Men, a récemment fait part de son point de vue sur l'écart entre les données concernant les hommes et celles concernant les femmes lors d'un webinaire organisé par Valtech. Elle explique comment, depuis des centaines, voire des milliers d'années, la plupart des produits, services, bâtiments, expériences, politiques et décisions ont été conçus d'un point de vue masculin. Dans la pratique, les mots "humain" et "humanité" désignent les besoins des hommes, les femmes étant considérées comme un sous-ensemble des hommes par les scientifiques, les architectes et les philosophes. Même s'ils ne sont pas toujours délibérés, les préjugés façonnent une grande partie de notre compréhension, de nos modèles et de nos actions.

Les représentations masculines prédominent en matière de conception et de prise de décision

Le livre explore la façon dont le point de vue masculin domine dans tous les domaines, du lieu de travail aux soins de santé, en passant par la conception de produits et la sécurité automobile. Le résultat n'est pas seulement injuste : ignorer les besoins, les perspectives et la physiologie de 51 % de la population mondiale peut limiter la vie des individus, voire leur être fatal. Cela nuit également à la productivité et à l'économie.

L'auteure explique qu'aujourd'hui encore, nous ne recueillons et n'analysons généralement pas suffisamment de données sur les femmes. Même lorsque les décisions sont fondées sur des données plutôt que sur des hypothèses ou sur les besoins de ce qu'elle appelle l'homme de référence (un homme caucasien d'environ 70 kg et âgé de 25 à 35 ans censé représenter tout le monde), il existe un fossé entre les données sur les femmes et celles sur les hommes. Il peut s'agir â exemple de l'absence de collecte de données sur les femmes, ou de la prise en compte de la moyenne de toutes les personnes interrogées, sans segmentation des femmes.

Qu'est-ce que cela signifie en pratique ?

Prenons l'exemple du choix des routes à déneiger dans les zones métropolitaines. L'approche habituelle consiste à donner la priorité au déneigement des artères afin de maintenir les déplacements des usagers et, par conséquent, de se concentrer - du moins le pensent-ils - sur les besoins de l'économie. Caroline souligne toutefois que, dans l'ensemble, les hommes et les femmes ont des besoins de déplacement qui contribuent à l'économie. Les hommes sont plus susceptibles d'effectuer des trajets simples, en voiture, le long des grandes artères, pour se rendre directement sur leur lieu de travail. Les femmes ont davantage tendance à marcher ou à emprunter les transports publics et leurs déplacements ont tendance à être plus compliqués, par exemple lorsqu'elles déposent leurs enfants à l'école sur le chemin du travail ou qu'elles emmènent un parent âgé chez le médecin sur le chemin du retour. Non seulement les infrastructures de transport public sont mal conçues pour supporter ces déplacements, mais le fait de laisser les routes secondaires et les trottoirs couverts de neige entraîne une augmentation des accidents et des coûts de santé importants. Cela a également un impact économique massif en termes de jours de maladie (y compris la perte de travail de soins non rémunéré).

Un autre exemple particulièrement effrayant est que pendant des décennies, les mannequins d'essai de choc pour véhicules ne tenaient pas compte des besoins des femmes. Les femmes et les hommes ont des os de la hanche de forme différente, et les ceintures de sécurité sont conçues pour nous retenir au niveau des hanches. Une étude réalisée en 2019 par l'université de Virginie a conclu que les femmes ont 73 % plus de risques d'être gravement blessées ou de mourir en cas d'accident qu'un homme portant une ceinture de sécurité.

Lorsque j'ai lu le livre de Caroline, je l'ai trouvé aussi instructif qu'éclairant. Je me suis notamment demandé à plusieurs reprises combien de décisions en matière de conception auxquelles nous faisons confiance - parce que des données et des recherches sont censées les étayer - sont en réalité erronées. Les données ne représentent pas les besoins de tout le monde ou cachent des différences significatives dans les analyses fondées sur des moyennes. Ce livre est un avertissement sur les conséquences de l'absence de prise en compte de la diversité.

Nous n'avons abordé ici que quelques exemples et j'encourage tous ceux qui lisent cet article à lire également le livre de Caroline intitulé Invisible Women : Exposing Data Bias in a World Designed for Men pour mieux comprendre l'ampleur du phénomène.

Éviter de renforcer les préjugés

Un des sujets communs à tous les projets dans lesquels nous sommes impliqués chez Valtech est le souhait de prendre des décisions basées sur des données. Il s'agit d'un élément essentiel de la stratégie relative aux données, une stratégie menée par le gouvernement qui suggère qu'"une meilleure utilisation des données peut aider les organisations de toute nature à réussir - dans les secteurs public, privé et tertiaire". Nous devons donc nous assurer que les données que nous utilisons sont adaptées à une prise de décision impartiale. Et avec le développement de l'intelligence artificielle, il est plus important que jamais de gérer ces biais.

Parfois, nous recueillons de nouvelles données par le biais de la recherche afin d'éclairer les décisions en matière de conception. Parfois, nous exploitons des données existantes. Souvent, nous faisons les deux. La seule façon de traiter les biais liés aux données est d'en être conscient et d'y remédier lorsque nous collectons des données. Si nous héritons de données, assurez-vous que nous les interrogeons et les validons.

  • Si vous collectez des données dans le cadre d'un projet de recherche visant à informer les décideurs politiques, recueillez-vous suffisamment de données pour représenter votre base d'utilisateurs ?
  • Si vous exploitez des données ouvertes, faites-vous assez pour vous assurer de leur provenance ?

Pendant la session de questions-réponses, une personne nous a demandé quelle était la mesure la plus importante à prendre pour les spécialistes des données. La réponse est simple : assurez-vous de décomposer vos données en fonction du sexe. Il y a bien sûr beaucoup d'autres choses que nous devrions envisager pour lutter contre les biais dans les données, mais il s'agit là d'une première étape très concrète.  

Partager des informations sur les données grâce au storytelling

Le webinaire était ensuite consacré à l'exploration d'un autre défi essentiel lors de l'utilisation des données pour prendre des décisions et éclairer la conception de services digitaux. La plupart des livraisons impliquent un travail transversal et de multiples équipes, départements, organisations ou agences : il est essentiel de communiquer sur le sens des données et de partager une vision de ce qu'elles nous disent.

Nicholas Heck-Grossek, de la société Tableau, a souligné que "la puissance des données s'accompagne d'une grande responsabilité". Depuis des centaines d'années, les gens utilisent la narration pour illustrer la signification des données. La storytelling autour des données est une approche structurée de la communication de données qui associe la data à une histoire et à des éléments visuels pour apporter du contexte et de la compréhension.

Comprendre la partialité des données en pratique

Le webinaire s'est achevé par une table ronde. Nous avons eu la chance de recevoir quatre personnes qui ont joué un rôle important dans la prestation de services digitaux dans le secteur public.

Sophie Adams dirige le département expérience consommateur de l'Office for Zero Emission Vehicles et a reconnu les défis à relever pour s'assurer que le déploiement des bornes de recharge et de l'infrastructure soit effectué pour un public diversifié, et pas seulement pour les conducteurs masculins et les adeptes de la première heure.

Ian Gordon, responsable data pour le programme de restauration et de renouvellement du Parlement, a souligné la nécessité de continuer à remettre en question les préjugés et ceux liés aux données.

Louisa Nolan, responsable data science de santé publique à Public Health Wales, veille à ce que les différents groupes ne soient pas laissés de côté, que ce soit en raison de leur sexe, de leur appartenance ethnique, de leur milieu socio-économique ou d'autres facteurs. Elle s'est félicitée de l'acceptation croissante de la data science dans les départements de santé publique. Toutefois, elle a également souligné la nécessité de ne pas se contenter de "désagréger, analyser et surveiller", mais d'agir et de s'engager auprès des personnes que nous voulons aider, ainsi que le besoin de recherches sur les utilisateurs et d'autres compétences.

Parmi ses missions, Giuseppe Sollazzo, directeur adjoint du NHS AI Lab et fondateur de l'Open Data Camp, met en place des initiatives d'IA de type "skunkworks" qui établissent des preuves de concept pour tester les modèles. Il a reconnu que les processus établis et les bases de données existantes comportent des biais. Le défi consiste à les comprendre, à essayer de rendre les données existantes utilisables avec des solutions adéquates, et à collecter de nouvelles données d'une manière qui ne génère pas de biais.

Le panel s'est accordé sur l'importance de l'utilisation des données pour concevoir des services, sur l'effet considérable que l'intelligence artificielle pourrait avoir en amplifiant les préjugés et sur le fait que le niveau de prise de décision automatisée devrait être examiné au cas par cas afin de s'assurer de sa pertinence. Les codes de déontologie et les normes concernant l'utilisation des données ont été clairement approuvés, de même que la nécessité de bien les comprendre au moment de la collecte.

Chez Valtech, nous pensons que chaque entreprise doit tenir compte de la provenance des données qu'elle utilise ou qu'elle collecte. Si vous souhaitez en apprendre davantage sur le traitement des biais de données dans les services digitaux du secteur public, contactez-nous dès aujourd'hui.

 

Nous contacter

The experience innovation company