jeudi 10 décembre 2015

Data Driven Design : Quelle méthode choisir?

Les enjeux du D.D.D

Le Data Driven Design (D.D.D) est une approche du design basée sur l’utilisation systématique de la donnée quantitative et qualitative. Il est utilisé dans un cadre d’amélioration continue de la performance d’un dispositif digital.

Le Data Driven Design rompt avec la méthode traditionnelle de conception digitale, essentiellement basée sur le talent du designer et sur sa capacité à mener une recherche centrée utilisateur pour décider du meilleur design à créer. Une démarche qui conduit à une refonte régulière du produit digital, et qui ne capitalise pas sur les enseignements des versions antérieurs. En soi, il est peu ou pas évolutif.

A contrario, le Data Driven Design plaide pour la mise en place d’objectifs précis et quantifiés (indicateurs clés de succès – KPI’s) avec des résultats mesurés. A l’instar des web analytiques, les données du D.D.D sont consolidées dans un tableau de bord de l’expérience utilisateur (UX dashboard), qui évolue dans le temps en fonction des améliorations des produits. L’enjeu central est l’augmentation de la performance, sous entendu :
  • l’accomplissement des tâches de l’utilisateur. (transformation, usage.)
  • la qualité de la relation entre l’utilisateur et la marque (satisfaction, engagement.)  

Quelle méthode choisir ?

Quand on se pose la question du Data Driven Design, on se pose la question de la méthode. Il n’y a pas à ce jour de modèle établi, chaque entreprise définit sa propre méthode en fonction de ses enjeux spécifiques.
Cela dit, en France, on constate fréquemment un manque de savoir dans ce domaine. De ce fait, les entreprises sont conscientes de leurs problèmes de performance digitale (par les analytiques), mais ne savent pas nécessairement pourquoi le dispositif pose problème, et de ce fait engagent des améliorations parfois arbitraires.

Voici 3 méthodes (sans doute parmi d’autres). Le nom qui leur est donné ici n’a rien d’officiel, l’ambition est avant tout de les distinguer de façon explicite.

1/ Revue d’expert
2/ HEART by Google.
3/ Web analytiques augmentés


Mapping des moyens du Data Driven Design
Les moyens du Data Driven Design


1/ Revue d’expert (expert review scorecard.)


La démarche s’appui sur l’analyse d’un expert UX / ergonome, qui réalise un audit d’un parcours utilisateur, d’un site ou d’une application pour en déterminer la performance du point de vue de l’UX.

Pour ce faire, l’expert utilise une grille de critères qui sont classés par catégories. Un score est attribué à chaque critère, avec un total par catégorie et un total global.  Ces totaux sont des marques de performance du site, l’audit sera réalisé  une fois divers travaux d’améliorations achevés.

  • Les catégories sont le suivantes : Navigation, Contenus, Présentation, Interaction, Utilité.
  • Chaque critère est exprimé sous la forme d’une affirmation telle que : « Les options de navigation sont claires et visibles », ou « Le nombre de pages pour accomplir la tâche est approprié.»
  • Chaque critère reçoit une notation de 1 à 5, à convertir en pourcentage. (base 100)

Plus : 


  • Facile à mettre en œuvre, process d’audit externalisable après d’ergonomes indépendants.
  • S’appui sur les web analytiques pour pointer les problèmes.
  • Pérenne, permet un suivi de performance comparatif d’une année sur l’autre. (Avant / après.)

Moins :


  • Méthode qui reste suggestive, qui peut varier d’un expert à l’autre en terme de résultat.
  • N’intègre pas la dimension comportementale (personas, carte du parcours client.)
  • N’’appréhende pas l’état d’esprit de l’utilisateur : satisfaction, stress…


Expert-ergonome


2/ Heart by Google


Google a développé un framework UX pour mesurer la qualité de l’expérience utilisateur dans toutes ses applications et services web. Ce framework est baptisé HEART, acronyme de Happiness, Engagement, Adoption, Retention et Task success.  Il s’appliquer autant à mesurer la performance UX de l’ensemble d’un produit ou à une fonctionnalité en particulier.

HEART combine mesure quantitative et qualitative. Par exemple :

  • l’Happiness (satisfaction) se collecte via des sondages en ligne.
  • l’Engagement se mesure en nombre de visites par utilisateur et par semaine, de fait il s’appuie sur les web analytiques etc.

Dans ces deux cas, un score est déterminé en sortie.

Heart Framework by Digital Telepathy


Le framework HEART présente les 5 catégories en ordonné. 3 colonnes se succèdent en abscisse : Objectifs, Signals et Metric.

Déroulement : 


On assigne un objectif qu’on associe à une catégorie. Par exemple :

  • Objectif d’engagement : Les utilisateurs s’engagent d’ils vis à vis du contenu xx ?
  • Dans ce cas, le signal attendu par l’utilisateur est le temps qu’il va passer sur ce contenu.
  • Le metric associé sera le temps passé sur ce contenu par jour et par user.


Une deuxième catégorie, la rétention, pourrait être utile pour ce contenu. Par exemple : Les utilisateurs reviennent t’il dessus régulièrement ? 


Plus : 


  • Basé sur des scénarios d’usages et de comportement, une approche très user centric.
  • Complémentaire avec le parcours d’expérience client cross canal*
  • Intégration poussée de la satisfaction de l’utilisateur pour comprendre les problèmes


Moins :


  • Un framework en évolution constante, rend le comparatif d’une année sur l’autre difficile.
  • Peu d’adhérence avec les web analytics traditionnels.
  • Un « backlog » d’objectif complexe à construire.



Pour en savoir plus sur HEART :
http://www.dtelepathy.com/ux-metrics/ http://static.googleusercontent.com/media/research.google.com/fr//pubs/archive/36299.pdf
https://library.gv.com/how-to-choose-the-right-ux-metrics-for-your-product-5f46359ab5be#.bphzxsxea


* Voir l’article sur la carte de l’expérience client
http://fredericjacquet.blogspot.fr/2015/08/la-carte-du-parcours-client-pour-les.html


Google suite



3/ Web analytiques augmentés


Une méthode qui capitalise sur la culture web analytiques en place, moyennant des adaptations du plan de taggage.  Elle recentre les objectifs sur le taux de succès des tâches, et sur l’identification des freins éventuels pour les mener à bien dans un temps donné.

Quelques exemples de données utiles :
le nombre de visiteur et visiteurs uniques le long d’un parcours et sur les pages de destination. On déterminera le taux d’abandons, le taux de rebonds, le temps moyen de consultation d’une page, l’utilisation de fonctionnalités, le nombre de clic sur une action ou le taux de succès d’une inscription…

L’analyse de ces parcours par les métriques nous permettra d’identifier des problèmes potentiels. (Taux d’abandon élevé, parcours erratique..) En somme, les web analytiques révèleront qui sont nos visiteurs  (who?), par où ils viennent (from where?), ce qu’il font (What ?) et quand préfèrent ils le faire (when?) 

L’analyse des données quantitatives est néanmoins limitée. Elle ne nous renseigne pas sur « pourquoi le font-ils ? » (Why?) ni sur « comment il le font ? » (How?) C’est à ce stade que le sondage en ligne ou le test utilisateur individuel en laboratoire entrent en jeu pour nous aider à comprendre les failles d’un dispositif pour le corriger.

On mettra alors en place un dispositif d’A/B testing pour déterminer la performance d’une solution alternative qui résulte de ces observations.

Par exemple :
Via les web analytiques, on observe dans un tunnel d’achat une déperdition forte au moment ou le site impose de créer un compte. Est-ce la création de compte qui pose problème à certain ? Ou est-ce que celui-ci est trop dense ? Arrive t’il au mauvais moment de l’achat ? Ou encore est mal formulé ? Pour répondre précisément à cette question, seul un test utilisateur individuel sur un panel de 12 profils hétérogènes permettra de comprendre « »pourquoi ? »


Plus : 


  • Capitalise sur la culture de la donnée / web analytiques en place.
  • Basé sur des scénarios d’usages
  • Bon suivi des améliorations de performances d’une année sur l’autre.

Moins :


  • Favorise une vision silo / mono canale / mono device.
  • Tests utilisateurs lourds. (prix / préparation.)
  • Difficulté à déterminer les tailles d’échantillons pertinentes.


Matrix

Aucun commentaire:

Enregistrer un commentaire