J'ai récemment reçu en consultation un jeune garçon de six ans, accompagné de ses parents, pour une évaluation de la vision. Les parents étaient préoccupés car ils avaient remarqué que leur fils avait tendance à fermer un œil lorsqu'il se concentrait sur des objets à distance ou lorsqu'il regardait la télévision. Après un examen approfondi, j'ai diagnostiqué une amblyopie dans son œil gauche. L'amblyopie, souvent appelée 'œil paresseux', est une condition où l'acuité visuelle d'un œil est significativement plus faible que l'autre, même avec des lunettes ou des lentilles de contact. Dans le cas de ce garçon, l'amblyopie s'était développée en raison d'une différence non corrigée de réfraction entre ses deux yeux, une condition connue sous le nom d'anisométropie. Pour traiter l'amblyopie de ce patient, j'ai prescrit des lunettes correctrices pour équilibrer la réfraction entre ses deux yeux. En outre, j'ai recommandé un traitement d'occlusion, qui implique de couvrir l'œil sain avec un patch pendant plusieurs heures chaque jour pour encourager l'utilisation de l'œil amblyope et améliorer sa vision. Les parents étaient soucieux de savoir si leur fils récupérerait une vision normale. J'ai expliqué que le traitement de l'amblyopie est le plus efficace lorsqu'il est commencé tôt, et étant donné son jeune âge et l'engagement des parents à suivre le plan de traitement, j'étais optimiste quant à ses chances de récupération. Cependant, j'ai souligné l'importance du suivi régulier et de l'adhésion stricte au traitement pour maximiser les chances de succès. Ce cas illustre l'importance de la détection et du traitement précoces de l'amblyopie pour prévenir les déficits visuels à long terme chez les enfants
En tant que neuropédiatre, je suis souvent confronté à la complexité de communiquer avec mes jeunes patients et leurs familles, surtout lorsqu'il s'agit de sujets délicats comme les troubles neurologiques. Lors d'une récente conférence avec d'autres spécialistes, j'ai soulevé une question qui me tient particulièrement à cœur : « Comment pouvons-nous, en tant que professionnels de la santé, choisir les mots justes pour expliquer des conditions complexes et parfois effrayantes à nos jeunes patients et à leurs parents ? » Je suis constamment à la recherche d'un équilibre entre fournir des informations précises et détaillées, tout en étant sensible et compréhensible, surtout pour les enfants. Par exemple, lorsqu'il s'agit de parler de l'épilepsie ou de troubles de la vision liés à des conditions neurologiques, je me demande toujours si j'utilise des termes qui peuvent être facilement compris sans minimiser la gravité de la situation. Je voudrais connaître les stratégies que mes collègues utilisent pour naviguer dans ces discussions délicates. Comment simplifiez-vous des concepts médicaux complexes ? Comment assurez-vous que les enfants et leurs parents se sentent informés et soutenus, sans être submergés ou effrayés ? Cette question est cruciale pour améliorer notre pratique et garantir que nos jeunes patients reçoivent non seulement les meilleurs soins possibles, mais aussi une communication claire et empathique. J'attends avec impatience de partager des idées et des expériences sur ce sujet.
Dans le cas d'un enfant présentant une nystagmus congénital avec des antécédents familiaux de maladies neurodégénératives, quelles seraient les meilleures approches diagnostiques et thérapeutiques pour distinguer entre une origine neurologique et une origine ophtalmologique de ce trouble ?
(lire la suite)
Dr Marie-Laure Moutard
· Neuropédiatre
· il y a 1 an
Vidéo dans laquelle Manue nous parle de ses outils préférés (Stable diffusion, Adobe podcast, AutoGPT...) Des cases studies (persona, recherche utilisateur, création) et finie par une réflexion sur les usages, les limites et les process La suite ici: . https://www.youtube.com/watch?v=D5IeZcwUM0I&ab_channel=ManueMar%C3%A9v%C3%A9ry Attention : les propos sont valables le 12 mai 2023 : avec les changements de règlementations, les nouveaux outils et les rachats, il est possible que les informations de cette vidéo soit obsolète rapidement.
Olivier sauvage (Wexperience) et Guillaume Gronier travaille sur une nouvelle grille d'évaluation UX pour les sites E-commerce qui prennent en compte l'aspect émotionnel. Objectif 400 participants afin de créer cela. Pour 10 minutes de votre temps c'est pas mal non ? Le questionnaire sera publié sous licence creative commons. Donc, accessible et utilisable par tous par la suite. Participez-ici: http://guillaumegronier.com/uxm/
Grâce aux progrès de l’Intelligence Artificielle ces dernières années, les outils de transcription automatiques se sont démocratisés et apportent aujourd’hui une aide non négligeable pour la recherche utilisateurs, en particulier lors d’interviews. Pour ne rien gâcher, ces outils sont souvent intégrés directement dans nos outils préférés : Dovetail, Zoom, etc. proposent notamment leur propre outil de transcription. Certains outils de transcription indépendants peuvent également se greffer facilement à d’autres outils standards, ce qui permet par exemple d’utiliser tel ou tel outil en fonction de la langue de nos interlocuteurs, la qualité des transcriptions étant souvent variable en fonction de la langue. Bref, la vie est belle, non ? 😎 Pour être honnête, oui et non… C’est effectivement super pratique et plutôt efficace (même s’il faut souvent ajuster quelques mots mal retranscrits à cause de l’accent ou parce qu’il s’agit de vocabulaire très spécifique ou d’acronymes) mais un gros point noir que tous ces outils ont en commun est qu’ils sont proposés en mode SaaS. Cela signifie que les données de nos interviews vont partir dans le cloud, très souvent dans un datacenter aux US et bien souvent on ne prend pas le temps de lire (et de comprendre) en détail la politique de confidentialité de ces SaaS. Qui exactement a accès à ces données ? Vont-elles être partagées avec des tiers ou même revendues ? Combien de temps vont-elles être conservées ? Où ? Et a-t-on bien communiqué ces informations à nos participants et obtenu leur consentement éclairé ? 🤔 Et même si on le fait dans les règles de l’art et en respectant scrupuleusement le RGPD, on peut avoir à travailler sur des sujets hautement confidentiels et aucune solution SaaS ne pourra convenir… Que faire alors ? ❓ On peut évidemment travailler “à l’ancienne” et retranscrire à la main chaque interview mais ça reste assez fastidieux… Heureusement, il y a des solutions hors ligne qui permettent une transcription de qualité 100% en local sur votre machine 👍 La solution que j’utilise depuis plusieurs mois s’appelle MacWhisper. Comme son nom l’indique, c’est une application pour Mac qui utilise le modèle Open Source Whisper d’OpenAI. L’interface de l’outil est perfectible et il manque la détection automatique des participants (il faut les indiquer à la main pour l’instant) mais la qualité de transcription est excellente en anglais et très bonne en français (au début il faut tester avec les différents modèles pour voir ce qui convient le mieux à chaque situation mais une fois qu’on est calé, c’est super et surtout très rapide). Sur les interviews pour lesquelles j’ai utilisé MacWhisper (plusieurs dizaines d’heures en anglais et en français, avec différents accents), j’ai trouvé les résultats bien meilleurs qu’avec Dovetail par exemple. N’hésitez pas à essayer la version gratuite (les modèles disponibles sont un peu moins bons qu’avec la version Pro) ou passez directement à la version Pro (26€ la licence perpétuelle*, c’est donné !) et faites vos retours en commentaire ! * La licence couvre toutes les mise à jour mineures. Pour les versions majeures, il faut reprendre une licence.
(lire la suite)
Thierry Raguin
· Design Strategist / ResearchOps / DesignOps / UXR / UXD
· il y a 1 an
Très bon article qui sort un peu des sentiers battus de ce que lit on ce moment sur la différence stratégique et évaluative. Par définition l'évaluative est stratégique et le défi de l'utilisabilité n'est pas un problème simple. (si votre produit ramène des revenus) A découvrir ici
Question un peu provocatrice par nature, mais où j'aimerais que cet exercice serve de repository d'approches diverses et de discussion. En réalité, le risque que l'on rencontre cela dans nos carrières prend de l'envergure. Avec le shift du produit pur vers des services continus, et une compétition globale qui s'accroient de jour en jour, le besoin dans nos organisations de se réinventer est toujours présent. Pour l'avoir vécu quelques fois dans ma carrière, lorsque la machine est lancée il est dur de prendre de la distance et sortir la tête de l'eau du process. Donc si ce post peut servir à d'autres et être amélioré dans le futur, tant mieux. Point de départ L'hypothèse de départ étant qu'un dirigeant / C-level aient une intuition, et crée une équipe charger de lancer quelque chose pour conquérir le marché. ( En 2023, encore +90% des lancements doivent être réalisés pour ces raisons) Limites de l'exercice Peu de nous travaillant à Apple et autres, imaginons tout de même un budget R&D et une timeline limitée. (Pas tout le monde peut se permettre ce genre de bet pendant plusieures années) Etant dans une entreprise, un process doit être communiqué, avec des timelines de temps et de budget. Prenez en compte cela, comme si vous reportiez à quelqu'un (Head of Innovation - Co-founder - CPO etc..) Comme tout lancement de produit l'objectif est d'arriver à définir un MLP, d'arriver à un PMF et donc identifier vos users prioritaires. (Je répondrais moi même plus bas à ce petit exercice )
Jane Davis, Principal UXR chez Great Question, présentent ses recherches sur l'utilisation et la perception de l'IA dans la recherche en mettant l'accent sur les défis, les opportunités et l'éthique. Ned Dwyer, PDG de Great Question parlent de certains des défis du point de vue du produit en tenant compte des informations personnelles, de l'éthique et de la faisabilité. Replay de l'event de septembre 2023 https://vimeo.com/861839354?share=copy Transcript https://docs.google.com/document/d/1ua4NfLMrxPUB0geEMbtTzN-23Hw1peNjD-CKtblC6BM/edit?usp=sharing
Bonjour, J'ai besoin de retour d'expérience d'UXR spécialisé en tests quanti dans un environnement d'entreprise. Nous sommes tous au fait du calculs des intervalles de confiance, marge d'erreur etc. Toutefois dans un environnement industriel il est souvent difficile d'appliquer à 100% les statistiques, le temps et le budget ne permettent pas de faire des tests quanti avec 100/200/300 personnes par exemple. D'où mes questions : Comment choisissez-vous le nombre de vos échantillons ? Comment gérez-vous ce nombre quand il y a plusieurs sub-group ? Comment faites-vous pour garantir un taux de qualité satisfaisant ? Merci à vous !
Dans cet article, je partage mon retour d'expérience sur la conception d'Alix, un chatbot pour les aidants de malades d'Alzheimer. J'y présente une approche innovante combinant : La co-conception avec les utilisateurs finaux pour créer une expérience conversationnelle intuitive L'IA générative (GPT) pour plus de liberté, tout en contrôlant les réponses générées La protection des données comme pilier éthique Cette approche holistique, inspirée du marketing et des neurosciences, permet de créer des chatbots à la fois éthiques et performants. Je montre comment appliquer concrètement ces principes à chaque étape du processus de conception. Un cas pratique pour les designers soucieux de développer des chatbots vraiment centrés sur l'humain et détaché de la hype actuelle. N'hésitez pas à me poser vos questions sur la conception de chatbots éthiques. https://medium.com/@lydie_cd/case-study-comment-utiliser-lapproche-hybride-ia-g%C3%A9n%C3%A9rative-et-r%C3%A9seau-conversationnel-pour-cr%C3%A9er-1308da691d51
Sujet connexe à la recherche qui m'a fait réfléchir à nos difficultés sur le terrain. Cette vidéo investigation de John Harris montre bien les forces, et les rouages humains lorsqu'une organisation (dans ce cas là un pays) prends des décisions et va tordre le coup aux évidences et choisir les preuves pour être aligné sur son discours. On parle de comment les gouvernement américain à convaincu le pays d'aller faire la guerre en Irak: https://www.youtube.com/watch?v=LP3T_VAkY9o&list=WL&index=9&ab_channel=JohnnyHarris C'est un exemple extrême de politisation. Le niveau de transparence et de processus décisionnels à passer pour un gouvernement est bien plus fort que dans une entreprise. Néanmoins cela montre à quel point comment les renseignements x insights seront utilisés à des fins politiques, et quel est le sort des "lanceurs d'alertes" venant du terrain. En gros vous serez ignorés, ou pire "remerciés". Rien de déprimant dans cela, juste des luttes de pouvoirs à fuir. Lorsque cela arrive ça nous dépasse. Nous n'avons: Ni le pouvoir (et stabilité de la position - rôle est lié à un contrat par ex) ni la crédibilité interne ni la santé mentale de s'engager dans une voie de la vérité (si vous êtes dans le privé par ex) Lorsque cela se passe le mieux à faire est de laisser l'organisation se brûler et faire ses propres erreurs.
Blog de l'auteur de "Quantitative user experience" sur le sujet. C'est tout nouveau donc peu d'articles pour l'instant, mais à suivre. https://quantuxblog.com/
Hello ! Je travaille sur la création d'un outil de maturité d'UX Research et j'ai besoin d'aide pour l'améliorer s'il vous plait ! Pour l'instant, les questions, le scoring et l'automatisation de l'analyse de données est posée. Mes interprétations ne sont pas encore très bien adaptées et je pense que le bilan pourrait être amélioré. Je n'ai pas encore fait l'automatisation de l'envoi du bilan donc il y a un délai de 24h environ. Si vous avez 5 minutes et que vous voulez m'aider, cliquez sur ce lien. Un grand merci 🙏
(lire la suite)
Sophie Vancompernolle
· UX Researcher
· il y a 1 an
Hello à tous ! J'aimerais approfondir le sujet de la psychométrie, mais je ne trouve pas vraiment de ressources intéressante ou pertinente. Est-ce que quelqu'un à des ressources, livres et autres à recommander ? merci !
Kate Towsey (la UXR derrière le terme research ops) à lancé sa communauté via invitation et organise des événements trimestriel ouvert au public. Le prochain sera le 31 août sur le thème des repository. Par contre ça sera à 23h https://chacha.club/events "Vous êtes-vous déjà demandé quel était le minimum que vous deviez faire pour fournir une bibliothèque de recherche qui réponde toujours à vos objectifs de gestion des connaissances – ou du moins les oriente dans la bonne direction ? Que diriez-vous de la meilleure stratégie opérationnelle pour immerger les gens dans la compréhension de leurs utilisateurs finaux et de leurs clients ?"
Bonjour à tous, J'envoie une bouteille à la mer : auriez-vous entendu / vu passer des insights issus de user research sur les outils de présentation (type Google Slide, PowerPoint...) ? Je suis à la recherche d'insights (pour ne pas réinventer la roue) que peut-être Google ou même Microsoft auraient publiés (pourquoi pas ?) ou tout autre personne d'ailleurs. Quelles sont les motivations des users pour créer une présentation ? Quels contextes ? Quels cas d'usage ? Une fois dans l'outil de présentation, quelles sont les stratégies d'utilisation ? Quelles sont les difficultés rencontrées ? Quelles sont les points positifs ? Merci pour vos lumières !
On le sait, la research ce n'est pas un sujet facile. C'est complexe, ça fait peur et surtout c'est très opaque comme sujet. Ca veux tout et rien dire pour certains. J'ai observé lors de mes projets qu'une métaphore bien placée permettait d'éclaircir la situation et rendre le contexte de la recherche tangible pour mes clients x stakeholders. Cela permettait aussi de sauver des situations tendue avec des C-level où la vitesse des sujets de conversations est très rapide et expliquer une approche méthodo peuvent leur faire perdre patience. Donc je me posais la question, quelles sont vos métaphores favorites et les plus efficaces pour parler de research ? Et dans quel contexte les utilisez-vous ? Métaphore 1: L'éléphant et les aveugles qui croient savoir la vérité Image un peu cliché de la recherche mais tellement vrai. Je l'utilise souvent lorsque plusieurs départements x équipes apportent leur vérité sur la situation sans avoir pris en considération d'autres moments clés de la journey. Je l'utilise aussi lorsque j'ai des scopes limités en research, où par exemple on veut m'obliger à étudier un moment clé, sans prendre en compte ce qu'il se passe avant ou après. De cette manière j'essaie de montrer que l'on va penser que l'on détient une vérité alors qu'en fait c'est un bout de vérité d'un morceau beaucoup plus gros. Très utile dans les projets de type plus innovation et lancement de nouveau produit sur un marché. MÉTAPHORE 2: Le bourré qui cherche ses clés sous le lampadaire J'utilise cette métaphore surtout dans des situations où les équipes mentionnent que personne ne s'est plaint Les typiques: "On n'a jamais eu de feedback dessus. Pourquoi faire de la recherche ?""Tout marche très bien" MÉTAPHORE 3: you don't know what you don't know A utiliser en combinaison des deux autres situations pour visualiser la connaissance lors d'un workshop, ou lorsque vous êtes dans des équipes un peu plus matures en research et qui commence à prendre confiance dans la research. (J'observe qu'après un certain niveau certaines équipes ne cherchent pus à apprendre et croient connaître) Donc lors d'un workshop j'utilise cela avec un tableau d'hypothèses priorisées par niveau de preuves déjà existantes. Dans un Figjam lorsque vous dezoomez cela permet de comparer entre ce que l'on connait et ne connait pas. Très efficace pour rester humble.
Je suis cette publication US assez tournée tech mais qui à souvent des supers sujets très liés à nos métiers et qui touche directement les UXR (mais bon ca pourrait être tous les UX en général) https://every.to/no-small-plans/the-art-of-subtle-influence
Une question toute simple, pour une notion qui jette souvent le trouble dans les équipes produit avec lesquelles j'ai bossé. Lorsque j'entend dire : "à ce stade (généralement en amont), quelles sont nos hypothèses pour cette opportunité, cet usage, cette fonctionnalité ?" j'anticipe les questions qui vont surgir concernant la nature d'une hypothèse, son format... se situe t'on dans le champs des sciences sociales où elles obéissent à des règles strictes ou dans l'expace plus subjectif de l'intuition et du sens commun, où elles s'apparentent plus à de simples questions de recherche... Quelle est votre expérience, votre définition (si vous en avez une) de ce qu'est une hypothèse que l'on va formuler dans une phase de discovery ?
Nous avons initié la discovery continue au sein de notre équipe produit depuis 1 trimestre, mais nous manquons d'efficacité. Je cherche des rex et exemples concrets : sur la gestion du script à la mise à jour de l'opportunity solution tree. Merci :)
Hello par ici 👋 Petite question orga/repo . En tant qu'UXR, vous estimez (grosse maille) à combien de temps par semaine (ou par mois) la maintenance du repository de votre organisation ? (Suivi/revue des tags, suivi de la documentation des expérimentations intégrées, amélioration des templates...) Ce temps là a-t-il fait l'objet d'une discussion avec votre manager ? Ou ça se fait "naturellement" ? Thanks !
Un outil canadien de research tourné très journal de bord et ethnographie qui permet de faire réaliser des tâches à la maison (pre-entretien), du mobile shopping (In-moment research) et des animations de focus group ou co-création en ligne. https://recollective.com/
Je suis fille de prof de maths, donc les nombres c'est un peu ma LV2 ! J’adore travailler avec de la donnée et les représentations statistiques comme les ACP, dendrogrammes, AF. En général, dans la donnée, tu as deux possibilités : tu veux absolument savoir une chose par la data ou alors l'attitude opposée, c'est d’aller explorer librement cette immense base de données. Tu peux vite te perdre dans les deux. Parce qu'en fait chaque donnée que tu vas collecter, tu peux la croiser avec d'autres données. Potentiellement tu as une infinité de paramètres à aller creuser. Les 2 erreurs les plus communes que j’observe sont celles-ci: Tu peux te perdre dans ce que tu recherches (excès de curiosité, pas de recherche guidée). Tu peux être trop directif (et te couper d’énormément d’information utile). La data te donne l’impression que” plus tu en fais mieux c'est”. Tu commences à explorer, tu fais des stocks. C'est important de stocker, de séquencer le projet parce qu'il y a un moment donné tu peux saturer ! tu peux savoir tellement de choses… et tu veux tout savoir. Donc il faut se discipliner et être organisé. Sinon ça peut vite être le vrac dans ce que tu vas chercher derrière. Et d’un autre côté, il ne faut pas avoir peur de la data, parce que je sais qu'il y a une arithmophobie croissante dans le monde de l'UX. Quand j'entends des influenceurs UX dire "moi je n'aime pas le quanti et de toute facon je ne sais pas faire"... ca m’interroge car je me demande si on peut encore faire de la user research aujourd'hui sans faire de quantitatif, sans comprendre les chiffres et sans utiliser la data. J’aurais peur d’être obsolètes d'ici à quelques années. Et puis, aujourd’hui, beaucoup de choses sont automatisées, tu peux très bien faire des stats sans connaitre les formules complexes : Il faut savoir à quoi sert la donnée et ce que veulent dire les statistiques que tu vas récolter. J'adore particulièrement bosser avec les avis clients. Parce que l'exploration des datas ne sert pas juste quand tu as fini le produit et que tu l'as testé. C'est après en post achat, ce que tu analyses. Parce que si tu veux vraiment faire des guidelines solides, il faut s’appuyer sur ton produit. Souvent l'UX va s'arrêter au moment où il a fait un premier test et basta. C'est comme faire la moitié du travail. Et que fait-on du reste ? Donc oui les avis clients c'est quand même un bon kif. A force d'en faire, ça devient un automatisme. Amener de la donnée dans son travail d'UX La première étape évidemment, ça va être de créer ou de trouver la data. Et la bonne nouvelle, c’est qu’aujourd'hui il y en a partout et sur tous les sujets. Entre les avis, l’UGC, les parcours, … Alors franchement si on ne trouve pas...je me dis qu’il est temps de faire un tour chez l’ophtalmo. Il y a toujours de la donnée disponible. Si on me rétorque que le produit n'existe pas encore et qu’il est unique, et bien tu vas voir ce que fait la concurrence. (concurrence élargie: pour ceux qui n’ont pas de concurrents “directs”). On peut aussi créer sa propre donnée. Une fois que la donnée est récupéré il est souhaitable de s'entourer d'un data scientist compétent. Le travail en binome va commencer. On va déméler et donner du sens au données. Pour les plus motivées et ceux qui sont à l’aise avec R, Anaconda, Python.. Ils peuvent être autonomes.
(lire la suite)
Manue Marévéry
· Consumer Science Manager
· il y a 1 an
Un autre de mes conseils serait de ne jamais accepter le "c'est mieux que rien". Quand tu es dans une entreprise et que tu exprimes le besoin de 30 utilisateurs et qu'on te répond, que tu as le budget pour 5 utilisateurs... Je ne pense pas que la meilleure idée soit de faire un test dégradé. Parce que les gens vont s'habituer à des choses de moins bonne qualité. et le jour où tu vas me demander un budget pour 30, ils ne vont pas comprendre… puisque tu as toujours fait avec 5. Pour moi les choses sont assez simples : Si tu n'as pas le budget pour faire une bonne étude, tu ne la fais pas. Si tu n'as pas les moyens pour faire un bon prototype, tu ne le fais pas. Je pense que c'est une hygiène de l'UX à s'appliquer. Si tu n'as pas les moyens, tu ne le fais pas tout simplement.. Le "c'est mieux que rien",en réalité ca devient vite “pire que tout”. Autant assumer un parti pris plutôt que de faire les choses à l’arrache.. Quand j'entends "oui mais on ne peut interroger que nos amis, ils sont dans la cible"... mais es-tu sur de cela? Ne vont-ils pas être influencés dans leur réponse parce qu’ils te connaissent et connaissent ton entreprises? Serais-tu prêt à parier que le comportement de tes amis et ceux du client final seront le même? Alors oui, certes, tu vas donner l'illusion que tu as fait quelque chose mais tu ne sais pas si au fond le résultat sera sur ton futur utilisateur. Je vais plutôt essayer de négocier : “tu as 1000€ pour cette étude, alors la seule chose que je peux te dire c'est si les utilisateurs vont apprécier ton logo. Voilà ce que tu pourras savoir.Mais si tu me donnes 10 000€, je pourrai te dire si ton site sera un succès ou pas. Pour le coup, je fais en sorte que mes études soient le moins chères possible, mais toujours avec des prestataires compétents. Je suis dans une optique d'optimisation, d'efficacité opérationnelle... Il faut être parfois être inventif pour tenir le budget. Et si ca ne passe toujours pas et bien… dans ces cas-là, sinon je suis désolée mais je ne le fais pas.Ils peuvent passer par une agence externe, se débrouiller autrement, mais moi en tout cas, je ne le ferai pas. J'ai mieux à faire de mon temps que de réaliser un test qui ne sert pas à prédire le futur comportement de l’utilisateur parce qu’il a été mal fait.
(lire la suite)
Manue Marévéry
· Consumer Science Manager
· il y a 1 an
Chez Decathlon, on faisait beaucoup de tests. On faisait des corrélations entre les notes du tests et la note d'avis client. En général, on testait un produit et des mois après le produit sortait. On savait à l’avance si ça allait être bien ou pas. Cette manière a toujours bien marché. On avait un très bon modèle prédictif. Cela reste une modélisation et parfois tu as des surprises : par exemple tu as des gens qui ne sont pas prévus dans ta cible initiale et qui achètent quand même ton produit. Parfois tu as des éléments tels que le covid ou la guerre en Ukraine etc. qui viennent faire bouger ce que tu attendais en termes d'usage, et aussi tu peux être en retard ou en avance. Donc avec toutes ces inconnues, ce qui est important, c’est lorsque tu remets un rapport, tu expliques les limites de ton étude. Une fois que tu fais ça, tu es rarement contesté, car tu as su prédire. Mais si tu n'as pas précisé quelles étaient les limites, tu as en vendu du rêve, attention au retour à la réalité. Je suis très attentive à ça : "Attention, c'est basé sur du déclaratif. Attention, cette étude a été réalisée pour la France et n'est pas valable ailleurs". Je crois que dans toutes nos études on devrait expliquer nos limitations.
(lire la suite)
Manue Marévéry
· Consumer Science Manager
· il y a 1 an
Déjà il faut se poser la question de l'utilisabilité avant de parler d’utilisation. Pour l’évaluer - l'utilisabilité- je préfère amplement utiliser une grille experte répétable et reproductible plutôt que des interviews ou des tests. Comme elle se base sur des critères mesurables : Elles ont une très bonne interjuge : , c'est-à-dire que deux UX différents vont donner la même évaluation sur une interface. Ce qui n’est pas le cas avec d’autres critères qui sont habituellement enseignés. Je prends un exemple : ”le site prévient les erreurs de l’utilisateur” est assez subjectif , alors qu’évaluer s'il y a “Moins de 5 typo dans une même page” l’est un peu moins. Il y a énormément de grilles qui sont disponibles et qui sont de bonne qualité. Une fois que j’ai fait la grille, je peux tester les zones avec des utilisateurs qui ont été mis en doute par l’audit. Je préfère également donner des guides de conception (des guidelines), plutôt que de faire du test U à répétition. Je pense qu'il n’est pas toujours nécessaires de tester pour se rendre compte qu'une couleur n'était pas lisible sur une maquette parce que le contraste n’est pas suffisant. Pour revenir au sujet de base, sur l’utilisation, afin de savoir si une plateforme va être utilisée ou pas, il faut le faire sur une étude quantitative et idéalement en comparatif. On va proposer plusieurs solutions (donc notre préféré mais aussi au moins une idée bien naze) pour être de mesurer une différence d’appréciation. On pourra alors dire que: “L’utilisation sera de X %”. Toute fois, il ne s’agit que du déclaratif et il peut y avoir un écart énorme entre la réalité, c’est pourquoi on préfère avoir du comparatif “l’utilisation sera de X% de plus que l’autre idée” Une des choses que je fais beaucoup, c'est que lorsque quelqu'un vient me voir pour une demande de faire étude. On va passer beaucoup de temps à clarifier sa question de recherche en utilisant la méthode des 5 pourquoi. Quel est le vrai but de cette étude? En fait, je vais énormément challenger l’objectif et l’impact de mes études, parce que j'ai fait d'études qui ne servent à rien.Donc, je continue, je continue, je continue jusqu’à ce que je sois sûre que l’étude servira à prendre une décision. (si ce n’est pas le cas je dis non)Et si j’ai encore un doute sur l’utilité de l’étude, il m’est arrivé de “hacker” la conversation en donnant un résultat au hasard. Parmi les outils que j'ai à la maison, j'ai la "eight ball" (elle dit “maybe, yes, no, …”), et j'ai aussi un dé à 60 faces. Quand j'ai quelqu'un qui vient, qui me pose une question, ça peut m'arriver par provocation, de lancer l'un des deux. Moi : La réponse c’est 51 %". Dans ce cas-là qu'est ce que tu fais avec cette donnée-là ? Lui: “Je veux quand même faire mon produit.”Moi: Alors pourquoi veux-tu faire une étude ? “Cela m’aide à savoir s'il est nécessaire de lancer l’étude… ou pas.
(lire la suite)
Manue Marévéry
· Consumer Science Manager
· il y a 1 an
Je donnerai ce conseil à un débutant : ne jamais croire que tu as compris l'utilisateur. À partir du moment où tu penses que tu as compris l'utilisateur, c'est que tu as arrêté d’essayer de le comprendre. Si jamais dans la boite où tu travailles, un UX ou un PO te sort “je connais l’utilisateur”. C'est qu'il a arrêté le process de reflexion. Parce que la compréhension de l'utilisateur c'est un process continu et ce n'est pas quelque chose de figé. J’ai tendance à penser que quand tu es UX et qu'il y a un truc que tu crois savoir faire parfaitement, c'est que tu as perdu ton discernement. Si tu crois que tu as trouvé la méthodologie parfaite que l’on peut appliquer dans tous les cas et contextes : c’est une illusion. Chaque étude a ses limites. J'ai quinze ans de carrière derrière moi, j'ai plus de 300.000 utilisateurs qui ont répondu à mes questionnaires et 700 études différentes... Il n'y a pas une fois où je ne me fais pas relire par un pair. Je reste vigilante. Car le jour où on croit qu'on est “bon” ou qu’on a “compris”, c'est qu'on a arrêté de bien travailler. En résumé, le secret c'est d’être à l’aise avec les incertitudes et avec le fait qu’on ne peut pas tout savoir. C’est une remise en question permanente, et pour cela il faut s’armer d’un bon esprit critique. Quand on me demande ce que pensera l’utilisateur du produit, ma réponse préférée est “ça depend!” car je n’ai pas la science infuse et l’humain n’est pas trivial ni rationnel dans ses décisions qui dependent du contexte, de sa personnalité, de son humeur, de son expérience passée… D’ailleurs cet esprit critique est valable pour son travail mais il est aussi de mise pour le reste. Et notamment ce que l’on peut apprendre en expérience utilisateur. Il y a des livres et des auteurs aujourd'hui qui sont cités comme des références... Franchement ? Vous êtes sûrs ? Le domaine de l’UX n’est pas épargné par les “fake news” et les contre-vérités. Il y a aussi des influenceurs en UX qui avancent des propos méthodologiques tout à fait contestables (voir contre-productives). Malheureusement, cela a un impact sur les plus juniors. Il y a des juniors qui arrivent avec des méthodologies hasardeuses...parfois on se demande où ils ont appris ça ! Parfois les méthodes sont supers mais sont appliquées … dans le mauvais contexte. Si je prends un cas précis, c'est le mythe du test avec cinq utilisateurs. Le junior va faire un test sur cinq personnes et c'est suffisant pour lui. Il donne même une note (“le site a 7/10”). Alors j'explique que c’est statistiquement pas possible ni suffisant pour donner une note. Si je change mes 5 testeurs aurais-je la meme note? Certainement pas. Il me répond "c'est Norman qui a dit ça !" et je lui réponds : "Et alors ?". Il n'a pas compris le contexte dans lequel c'était dit (5 personnes pour détecter une majorité des défauts, certainement pas pour faire une évaluation !) et ce n'est pas parce que c'est tu as une personne que tu as sacralisée qui te dis une chose que c'est vrai. Je sais que ce n’est pas sa faute : il y a beaucoup d’écoles qui enseignent l’UX avec des niveaux très hétérogènes. Je vois parfois des professeurs qui ont des parcours "surprenants" considérant les matières qu'ils enseignent. Et aussi quelques autodictactes qui, certes ont le mérite d’avoir appris seuls, mais dont les méthodologies me font parfois hérissées les poils. Méfiez-vous de ce que vous avez appris, ayez un regard critique sur la profession, et entourez-vous de pairs de confiance. Je vous raconte ma petite histoire pour exemplifier cela. Mon tout premier test c'était pour choisir un vélo pour les femmes urbaines à Paris. Je n’avais jamais conduit de test avant ce jour. J’ai passé mes vacances d’été à lire des bouquins pour apprendre à le faire correctement. J'ai ingurgité des dizaines de bouquins en analyse sensorielle, en marketing pour préparer mon étude. Alors on a produit des vrais vélos, qu’on a mis dans une vraie situation (dans un magasin) avec de vraies testeuses (recrutées). J'ai vu que statistiquement il m'en fallait 200. Donc ca nous a couté cher. Mais je voulais faire cela bien. Pas question de déroger sur la qualité de l’étude. Surtout que c’était une premiere ! Comme je l’avais vu dans les livres, j’ai posé plusieurs questions à mes testeuses. Quelle est leur couleur préférée ? Parmi les vélos, quel est celui qu'elles prendraient ? Et le cas échéant, quel est celui qu'elles achèteraient ? Si on vous en offre un lequel vous prendriez? Et en fait, quelle que soit la question que je posais, je n’ai jamais eu la couleur qui s'est le plus vendue Ça m'a ennuyé ! Il y avait un vrai problème. A quoi servent mes études si elles ne permettent pas de prédire le résultat !?! Il y a eu un décalage énorme entre la méthode et le résultat des ventes. Et c’était embêtant parce qu'on a sorti l'artillerie lourde et c'est un test qui nous a coûté cher et qu’on avait passé des mois à préparer. Et pour rien. Ça m'a mis un gros coup de pied au derrière sur le fait qu'il y avait peut-être d'autres choses à aller chercher. Alors j’ai repris les banc de la fac (pour comprendre ce qui se passent dans la tete des gens) et j’ai déployé un arsenal de technique implicite pour palier à l’absence de fiabilité du déclaratif. Je peux en citer plusieurs : 1. La biométrie. Car le corps sait ce qu’il se passe bien mieux que notre propre introspection. Il ne trahit pas. Il réagit à chaque stimuli. 2. La data. Grâce à elle, Facebook arrive à mieux prévoir ce que l'on va faire que …nous-même ! Il sait si on va aimer telle ou telle publicité grâce à des algorithmes qui analysent chaque jour des millions d’utilisateurs. C'est quand même assez flippant. 3. La psychométrie. C'est l'art de mesurer la personnalité des gens. On va aussi développer des questionnaires qui doivent être extrêmement de bonne qualité, robustes. Grâce à eux, on peut mesurer des aspects de la psychologie des utilisateurs. En fait, j’utilise régulièrement ces trois outils que sont la biométrie, la data et la psychométrie pour essayer d'aller un cran plus loin sur la recherche utilisateur. Mais j’ai encore beaucoup à apprendre. Je suis actuellement des cours en Psychologie Evolutionnaire et en Linguistique.
(lire la suite)
Manue Marévéry
· Consumer Science Manager
· il y a 1 an
Dans un écosystème où les process de research sont récents et en cours de construction, tout apparait centré autour de l'atomic research, des insights et du repository. En fait J'ai l'impression qu'on privilégie des process à la place du sens, et du coup le sens se perd. Cela me fait revenir aux bases...il m'apparait important de redéfinir le sens de ce qu'est un insight / un pain point ...et d'intégrer une certaine logique de traitement de l'information pour être efficace et impactant. Je ne sais pas si certains d'entre vous l'on déjà vécu, mais je suis curieuse de vos avis et retours sur ce sujet. pain point versus insights : quelles distinctions ? Comment les traiter ? Les relier ? quid des signaux faibles : comment les traiter ?
L’économie comportementale, ça vous parle? Si ce n’est pas le cas, pas de panique, ce guide est une excellente resource pour se plonger dans le sujet, en sélectionnant des cas pratiques et en s’inspirant des résultats d’autres chercheurs en sciences comportementales. D’ailleurs je suis une grande fan de la co-auteure de sa préface: Sheena Iyengar — son Ted Talk sur l’art de choisir est génial et son livre m’attend sur ma bibliothèque! https://www.behavioraleconomics.com/be-guide/the-behavioral-economics-guide-2023/ Lien vers le Ted Talk: https://www.ted.com/talks/sheena_iyengar_the_art_of_choosing
(lire la suite)
Marie-Aude Sourd
· Senior UX researcher
· il y a 1 an
C'est les vacances en France, mais pas dans le reste du monde donc il y a encore des événements pour apprendre et échanger - en anglais :) 👉 14 Juillet – Research Rumble: Personas - par UX Researchers Guild👉 18 Juillet – Networking Women in CX Online Speed Networking par Women in CX ™👉 25 Juillet – 📖 The UX Book Club Book 📖 Design Thinking and Innovation Metrics by The UX Book Club👉 26/27 Juillet – Augmented reality (AR) experiences in museums: designing for immersive learning and engagement by UX Research and Strategy Group👉 27 Juillet – Monthly CX Ops Roundtable by CX Ops: Monthly Roundtables for Professionals Who Impact Customer and Employee ExperienceEt probablement un groupe d'entraide entre UXR vers le 20 juillet organisé par nos soins! Bel été
Ce qui manque actuellement et ce que j'aimerais voir se développer, c'est une culture de challenge entre les chercheurs, similaire à celle des designers.
Les chercheurs sont souvent un peu solitaires.
Il y a UN chercheur et DES designers. Du coup nous commençons à mettre cela en place en interne, avec les différentes équipes UX dans les différents pays.
Nous organisons des moments dédiés où nous discutons d'outils et de méthodes.
Tout comme il y a des revues de design, nous mettons en place des revues de recherche où nous pouvons présenter nos sujets de recherche aux autres.
Il m'arrive encore aujourd'hui de mettre un mois, voire un mois et demi, avant de bien comprendre certains sujets sur lesquels je travaille.
Au départ, je ne comprends pas ce que le PM me demande, il n'y a pas de maquettes, pas de contexte sur le projet.
Je tourne en rond, et finalement, tout se débloque lorsque je demande l'avis d'un collègue qui jette un regard extérieur sur le sujet.
C'est là que tout devient clair :
"Ah, en fait, tu pourrais le faire comme ça."
Dans certaines entreprises l'écosystème peut être très complexe, avec de nombreux services différents, et cela peut être nébuleux.
Nous nous efforçons de créer des workflows pour guider nos démarches. Ainsi, lorsqu'il s'agit de mener une discovery, nous savons comment procéder, et lorsque nous réalisons des tests, nous avons une méthodologie à suivre.
C'est pourquoi il est essentiel d'avoir des modèles prédéfinis pour nous aider à structurer et à standardiser notre travail, et les research reviews en font parties.
Ce que j'aurais aimé au début de ma carrière, c'est que l’on me dise l’importance de mieux comprendre l'organisation dans laquelle on travaille au-delà du produit.
Pour comprendre cela il faut comprendre mon parcours.
J’ai un cursus universitaire, en sociologie et anthropologie et j’ai bifurqué vers le design à la fin de ma thèse.
Quand l’UX est arrivé la double casquette m’a permis de tout de suite être à l’aise. Mais le rôle propre d’UX Researcher, c’est dans mon précédent emploi que je l’ai pris en premier, il y a 4 ans.
Lorsque tu es designer tu as l’habitude de travailler sur des interfaces, tu produis des choses. Mais un researcher c’est plus que ça. Il produit de la connaissance, il produit plein de connaissances pour le design mais aussi sur l’ensemble du process produit et c’est hyper important.
Je crois qu'aujourd'hui, le sujet sur lequel je suis le plus affûtée, c’est de bien comprendre l’organisation du produit.
En arrivant dans mon précédent emploi, j’ai mis du temps à comprendre l’organisation produit. Parce que finalement le researcher est dans le process produit, l’interface entre le PM et le design. J’ai vraiment eu besoin de bien comprendre les process et les rôles de chacun et aussi les interactions entre les équipes
Encore aujourd'hui, ce n’est pas forcément toujours facile. L'entreprise dans laquelle je travaille actuellement est une grosse entreprise. L'avantage que j'ai, c'est qu'elle est hyper bien structurée.
On a beaucoup de rituels, donc on peut bien voir comment ça fonctionne. Les PM avec qui je travaille qui sont les PM front, nous intègrent dans leurs rituels de dev, et nous, on les intègre dans nos ateliers de construction, de co-conception et de recherche aussi.
C'est notre manière, de bien comprendre et connaître la manière dont on travaille les uns et les autres.
Parce que souvent comme researcher, tu vas te retrouver dans la situation où on va dire
“Vas-y, il faut qu'on ait des insight utilisateurs sur tel sujet”
Mais tu ne comprends pas dans quel objectif ça s’inscrit, dans quel roadmap, etc.
Maintenant, dans mon équipe, on a construit un template de briefs pour se demander à chaque fois pourquoi on veut faire ce sujet de recherche
Quels sont les objectifs business ?
La stratégie, etc.
Quel est l’impact attendu
Comme ça, on sait bien ce qu'on fait, pourquoi on le fait et comment on rend toute la recherche activable pour les parties prenantes.
Je suis très compétente en méthodologie qualitative et les entretiens exploratoires, car c'est mon domaine d'expertise. Une astuce que j'ai apprise dès le début, c'est que la phase de préparation est d'une importance cruciale pour mener efficacement des entretiens exploratoires. Il y a une idée préconçue qui m'agace et que l'on entend souvent : "Il ne faut surtout rien dire, rien regarder pour arriver neutre sur le sujet." C'est la première erreur que l'on apprend à éviter lors d'études en sociologie. On ne peut jamais être totalement neutre, notre regard sera toujours biaisé. La clé est de reconnaître ce biais et de s'en affranchir. Ainsi, en lisant, en posant des problématiques, en formulant des hypothèses, on s'assure qu'au moment d'être sur le terrain, on est capable de reconnaître ce biais et de dire : "Ah, ce que je vois, c'est un regard biaisé", et on en est conscient. Si on ne se prépare pas, tout est biaisé, mais on ne sait pas ce qui est vrai ou faux. Donc, pour moi, la réussite d'un bon entretien exploratoire passe par une phase de documentation. C'est quelque chose que peu de personnes font. Prendre le temps de lire un peu de contenu scientifique ou même du contenu marketing sur le sujet permet d'avoir des premières pistes de réflexion, un point de référence. Une fois que cela est fait, on construit le protocole d'entretien en se basant sur les hypothèses que l'on souhaite étudier par la suite. Les erreurs à éviter sont justement d'induire des réponses en prétendant être neutre. Plus on est armé et préparé pour l'entretien, plus on peut être certain que cela sera un échange ouvert où l'on saura laisser la personne s'exprimer sans trop intervenir. Bourdieu dit qu'un sociologue est quelqu'un qui regarde avec ses yeux, tout comme un photographe prend une photo ou un peintre peint un tableau. Ainsi, il transcrit une réalité vue à travers son regard. Cependant, si ce regard reste complètement subjectif, sans être encadré, il devient inexploitable. L'erreur est de croire que la naïveté ouvre toutes les possibilités, alors qu'en réalité, pour moi, cela réduit considérablement la portée de l'étude.
https://www.userinterviews.com/state-of-user-research-2023-report Toujours tourné très US, mais avec quelques insights intéressants que j'ai ressenti sur le terrain: Par exemple la baisse moitié du remote pour les UXR :( Plus de 50% des équipes ont une gestion décentralisée de la recherche (en gros tout le monde)
Dans ma liste de livre à lire en 2023., et je pense une obligation pour n'importe quel researcher ou personne exposée à de la research. Voici un livre qui expose les mythes sur des pratique douteuse de certains dans la monde de Pharma, medicines douce et des statistiques douteuses https://www.amazon.fr/Bad-Science-English-Ben-Goldacre-ebook/dp/B002RI9ORI
La première conférence focalisée sur le quanti en UX que j'ai vu passer. C'était la semaine dernière (Juin 14 2023) Les replays sont disponibles ici contre 35$. Donc vraiment une bonne affaire. https://hopin.com/events/quantuxcon2023 Pas encore eu le digérer mais ça peut être sympa à visionner pour l'été. Curieux de vos retours si vous achetez.