Vous souhaitez que votre entreprise innove, se réinvente ou engage des transformations profondes, dans le contexte de problématiques BtoB et/ou BtoC ?
Cela peut se matérialiser par exemple à travers la conception d’un nouveau produit ou encore l’optimisation d’un processus métier ; et vous voulez mettre en œuvre ces chantiers via des méthodes d’innovation comme le Design Thinking & le Lean Startup.
Dans le cadre de cette approche plaçant l’usager et ses besoins au centre des réflexions, caractérisée par une logique pragmatique de « Test & Learn » (prototypage, tests fonctionnels et incorporation de feedbacks dans des cycles de travaux courts), il peut y avoir des synergies entre cette méthodologie projet et une chaîne de traitement de données sous-jacente.
Un traitement de données pertinent peut en effet intervenir et apporter une plus-value au cours des différentes phases de déroulement de vos projets d’innovation et de transformation menés avec du Design Thinking.
Et réciproquement, la modélisation du contexte de l’usager ainsi que les phases de tests et de validations consécutives peuvent permettre de préciser et/ou optimiser un projet d’intégration et d’analyse de données.
Quelles sont ces synergies ? Qu’apportent-elles le cas échéant ?
Spécifier le contexte utilisateur via une collecte de données adéquate
Dans le cadre de la conception d’une nouvelle ligne de produits (par exemple une montre connectée) à destination du consommateur final, il vous sera sans doute utile de disposer de témoignages, de retours d’expérience en quantité et en diversité, représentatifs de profils utilisateurs potentiels ou identifiés.
Le cas échéant il pourra être utile de mettre en place une collecte systématique de données (réseaux sociaux, questionnaires…), à des granularités (groupes types, catégories d’utilisateur…) et fréquences adaptées. Ce qui vous permettra par exemple d’identifier avec plus de précision une problématique consommateur d’intérêt pour une population plus large.
Modéliser le processus métier pour identifier les variables
Les méthodes et outils de représentation de l’usager et de son contexte (Persona, Empathy Map…) peuvent permettre de circonscrire efficacement les facteurs pouvant constituer des axes d’amélioration, et identifier les données correspondantes. Ce qui permettra à son tour d’identifier les variables pertinentes pour une analyse par la suite.
Par exemple dans le cadre de la construction d’une interface de monitoring de performance opérationnelle, il peut être intéressant de délimiter les caractéristiques des données correspondantes à une prise de décision, dans la séquence d’un processus métier analysé (indicateurs, niveaux d’agrégation, temporalités, opérations de filtrage en amont, etc…).
Formuler la problématique à adresser
La problématique métier dont va dépendre l’implémentation, va également émerger lors de cette étape de « modélisation » de l’utilisateur.
Dans le contexte précédent de contrôle de performance opérationnelle, le métier en question pourrait par exemple vouloir passer d’une logique de prise de décision et d’action réactive en fonction d’un évènement, vers une capacité d’action prédictive.
Quelle sera dans ce cas la visualisation la plus adaptée ? L’utilisateur disposera t-il d’une vue modélisant l’ensemble de son contexte ou une vision parcellaire d’intérêt ? De zoomer au besoin sur des informations de granularité plus détaillée ?
Ces spécificités des besoins de l’utilisateur final vont entraîner des modifications de la chaîne sous-jacente actuellement en place, depuis les systèmes sources desdites données (applications productrices, bases de données référentielles, …).
Optimiser la chaîne de traitement de données itérativement
Comme évoqué précédemment, la modélisation du processus métier à travers les outils de représentation de l’usager et de son contexte permettent de distinguer efficacement les axes d’amélioration sur lesquels innover et les variables correspondantes, ainsi que les fonctionnalités du système cible à construire en réponse à ces besoins utilisateur identifiés.
La chaîne de traitement construite sur la base de ces entrants peut ainsi être soumise en fin d’itération, à la phase de tests et de validation. Cette phase, dépendant des retours utilisateurs selon un certain nombre de critères (ergonomie, niveau de détail visualisé…) va permettre de détecter plus rapidement dans un projet d’intégration, d’analyse de données et de Data Science des problématiques typiquement liées aux jeux de données d’entrée (exhaustivité des sources de données, finesse et fraîcheur nécessaires, données incomplètes…).