Accueil🇫🇷Chercher

Procédures expérimentales pour l'évaluation de l'ergonomie dans les interactions homme-machine


Les procédures expérimentales pour l'évaluation de l'ergonomie dans les interactions homme-machine sont des méthodes utilisées pour identifier et évaluer des problèmes d'utilisabilité et d'utilité dans la réalisation d'une tâche ayant recours à des interactions homme-machine (IHM).

Le recours à la réalisation d'une tâche dans les interactions hommes-machines s'applique lors de l'utilisation de logiciels, de systèmes interactifs ou d'une interface à travers un environnement informatique.

Classification

Il existe plusieurs classification disponibles dans la littérature. Elles permettent de représenter les méthodes d'évaluations pour en simplifier la sélection selon 3 critères: les objectifs d'évaluation, la source des données d'évaluation et le moment de l’évaluation [1].

Une des premières classification a été réalisé par Bernard Senach en 1990, elle distingue deux approches, une approche empirique et une approche analytique. L'approche empirique permet de recueillir des informations lors de l'utilisation de l'interface. Les informations recueillies se composent d'une récolte de données qui concerne le comportement de l'utilisateur. On cherche à analyser les performances de l'utilisateur pour la réalisation d'une action spécifique. L'approche analytique examine la conception de l'interface. Les méthodes utilisées dans cette approche cherchent à prédire les propriétés et les comportements que pourrait rencontrer l'utilisateur sans que sa présence soit requise[2].

En 1991, Andy Whitefield & al mettent en avant la présence réelle ou représentative de l'utilisateur pour classifier les méthodes utilisées par un grand nombre d'ergonome. Quatre approche d'évaluation se distinguent: les méthodes analytiques, d'observations, les rapports de spécialistes et d'utilisateurs[1] - [3].

Selon Holyer (1993) Quatre types de méthodes se fondant sur leur philosophie d'origine. Elles sont issues de la psychologie cognitive et/ou sociale, des sciences sociales, de l'ingénierie[1].

Selon Balbo (1994) Les méthodes d'évaluations sont réparties selon : les connaissances requises, les ressources matérielles, les facteurs situationnels, les moyens humains et les résultats fournis[1].

Selon Grislin et Kolski (1996) Les méthodes sont classées selon leur approches. Les approches sont centrées sur les avis et/ou les activités des utilisateurs, des experts et sur la modélisation de l'interface.

Selon Farenc (1997) L'utilisateur présent ou non, la ou les tâche(s) et l'interface sont les données permettant la classification.

Selon Dix, Finlay, Abowd et Beale (1998) Les méthodes sont répertoriées selon l'évaluation d'experts à travers l'analyse, l'observation et l'expérimentation[4].

Selon Bastien et Scapin (2001) Les utilisateurs produisent des rapports. Ils sont observés.

L'interface est caractérisé par les utilisateurs et la tâche.

Inventaire des outils

Méthodes d'évaluations [5]
Types de données Temps Participants
Tests utilisateur Qualitatives Différé Utilisateur
Entretiens Qualitatives Différé Utilisateur
Incidents critiques Qualitatives Différé Utilisateur
Tests utilisateurs Quantitatives et Qualitatives Réel et Différé Utilisateur
Brainstorming Qualitatives Différé Utilisateur
Instruction au sosie Qualitatives Différé Utilisateur
Focus Group Qualitatives Différé Utilisateur
Enquête contextuelle Qualitatives Réel Utilisateur
Évaluation heuristique Qualitatives Réel Ergonome
Cheminement cognitif Qualitatives Différé Développeur
Évocation Qualitatives Différé Utilisateur
Protocoles verbaux Qualitatives Différé Utilisateur
Tri de cartes Qualitatives Différé Utilisateur
"Penser à voix haute" Quantitatives Réel Utilisateur
Questionnaire Quantitatives et Qualitatives Différé Utilisateur
Data Log Quantitatives Réel Utilisateur
Mouvement oculaire Quantitatives Réel Utilisateur

Tests d'utilisateurs

Les tests utilisateurs permettent la mise en situation de l'utilisateur afin d'observer et de mesurer ses comportements. Les tests peuvent être réalisés sur un prototype, une maquette et/ou sur un produit fini. Ils donnent aussi la possibilité aux développeurs de détecter des erreurs conceptions auxquelles ils n'auraient pas penser[6].

Entretiens

En amont de la réalisation du produit, les entretiens servent à recueillir les attentes, souhaits et opinions des futurs utilisateurs. Ils mettent également en lumière le profil des utilisateurs. L'évaluateur doit être capable de stimuler les réponses du participant afin de pouvoir détecter une mauvaise compréhension de la question, recadrer le participant s'il s'éloigne du thème de l'entretien[7].

Incidents critiques

Cette technique permet de recueillir les incidents fréquemment rencontrés par des utilisateurs en amont de la conception ou de la refonte d'un produit. L'utilité de la méthode des incidents critiques est d'identifier les vulnérabilités qui peuvent être liées à des risques et à la sécurité[8].

Brainstorming

Le "remue méninges" donne la possibilité d'engendrer un grand nombre d'idée lors de la conception et de la refonte d'un produit. Il permet de définir les caractéristiques importantes ou inutiles d'une interface[9].

Instruction au sosie

Particulièrement utilise dans les domaines hautement spécialisés comme le domaine médical ou financier dans le cadre d'une automatisation des tâches. Cette technique, utilisée en phase de conception d'un produit, rend possible la structuration des informations et des mécanismes de fonctionnements d'une tâche. L'utilisateur explique à son sosie, l'évaluateur, les actions qu'ils réalisent à l’exécution d'une tâche[10].

Focus Group

L'intérêt du Focus group est l'utilisation d'un ou de plusieurs groupes d'utilisateur appartenant à l'utilisateur cible du produit. Ce groupe se compose de 7 à 8 personnes maximum. Le but de cette méthode est de récolter des avis et comportements sur la réalisation d'une tâche[11].

Enquête contextuelle

Utilisée en phase de conception d'un produit, cette technique collecte des données sur les actions précises que doit effectuer l'interface par rapport au contexte d'utilisation. Elle aide à diminuer une méconnaissance du domaine d'application du produit (non habituelles, émergentes) et/ou améliorer un produit déjà existant. L'évaluateur observe l'utilisateur dans son travail. Il est aussi amené à poser des questions pour comprendre le déroulement des actions et des stratégies mise en place par l'utilisateur[12].

Cheminement cognitif

Le cheminement cognitif nommé en anglais le "Cognitive Walkthrough", est un procédé permettant la reproduction du parcours de l'utilisateur à travers l'interface. Le but étant la vérification de critères d'utilisabilité préalablement définis. L'évaluation peut être faite sur une maquette ou sur un prototype. L'expérience dans l'analyse des interface permet à un évaluateur de bien identifier les éléments ne respectant pas les critères d'utilisabilité. L'évaluateur doit être également capable d'effectuer un profil des utilisateurs finaux afin de créer à travers le contexte d'utilisation de l'interface, des scénarios. de l'interface[13] - [14].

Évaluation heuristique

Les évaluations heuristiques sont produites en observant une interface. Cette observation consiste à mettre en avant les bonnes et les mauvaises élaborations de l'interface à travers l'utilisation de règles[15].

Ces règles se basent sur des principes d'utilisabilité. Les principes incluent la simplicité et le naturel des dialogues, l'utilisation de la langue de l'utilisateur, la minimisation du temps de réflexion de l'utilisateur, la solidité de l'interface, la capacité à produire un commentaire, la disposition de points de sortie de l’interface, la faculté à présenter des raccourcis, l'apparition de messages d'erreur correct et la prévention des erreurs[15].

Le nombre d'évaluateurs conseillé est de 3 pour pouvoir détecter une grande majorité des problèmes, le nombre optimal étant de 5 évaluateurs. Leur nombre impaire permet de trancher plus facilement dans le cas d'un résultat de l'évaluation contradictoire entre les évaluateurs[5].

Évocation

L'utilisateur, après avoir utilisé le produit ou un prototype, dessine des parties des pages explorées définies préalablement par l'évaluateur. La sélection des points à évoquer par l'utilisateur doit être réalisée par un ergonome puisque seul ce type de profil est capable de connaître les mécanisme cognitifs mis en jeu dans la représentation spatiale.

Cette technique permet la connaissance des éléments gardés en mémoire par l'utilisateur et de révéler quels éléments graphiques ont été compris ou non[16].

Protocoles verbaux

Grâce à la réalisation d'une tâche bien définie d'un utilisateur cible du futur produit fini tout en exprimant ses raisonnement à hautes voix, ces protocoles donne lieu à une collecte d'informations précises sur le raisonnement et les décisions effectués par l'utilisateur[17].

L'évaluateur est une personne capable de mener un entretien technique (présentation de la consigne, guidage de l'expérience [18])[19].

Tri de carte

Le tri de cartes reproduit la représentation d'éléments présents dans l'interface comme des boutons, des titres, des paragraphes, des liens, etc.) sur des feuilles en papier. Les éléments représentant sont choisis avec le plus grand soin selon l'évaluation souhaitée.

Cette méthode peut être utilisée pendant la conception (modéliser l'architecture), le développement (cohérence et fonctionnalités), l'évaluation (identification des problèmes d'ergonomie). Le but est de rassembler en groupe et de nommer ces groupes grâce aux éléments disponibles[20].

L'interprétation des résultats requiert une expérience en analyse de données et en ergonomie afin de comprendre le produit en termes d'utilisabilité[21].

"Penser à voix haute"

Proche dans son principe de la méthode des protocoles verbaux, la technique du "penser à voie haute" se différencie dans le fait de la nécessité l'interaction d'un produit plus ou moins fini.

Les sujets de l'évaluation sont des futurs utilisateurs [22], connaissant et étant expert de la réalisation de la tâche à l'aide du produit.

Il est recommandé de faire appel à un ergonome ou un psychologue expérimenté dans les protocoles verbaux afin de bien dérouler l'entretien avec le sujet. L'expérimentateur doit également être capable de bien connaître l'utilisateur d'un point de vue cognitif et les causes pouvant le gêner[23] - [14].

Questionnaire

Comportant des questions ouvertes, fermées, phrases à compléter, etc., les questionnaires permettent la connaissance des utilisateurs (niveau d'expertise du domaine de l'application, degré de familiarité avec les technologies, composantes socio-démographiques [24], degré de handicap), leurs opinions et avis sur un produit fini ou en cours de réalisation[25].

Data Log

Dans le but mettre en avant les possibles erreurs, les stratégies de déplacements, de pointage et les comportements des utilisateurs, l'analyse des fichiers log (en anglais Data Log) tracent l'activité de l'utilisateur à travers une interface[25].

Ses fichiers peuvent prendre plusieurs formes comme des captures d'écrans [26], des enregistrements vidéo, des fichiers journalisations [27]

Contraintes

Les contraintes à réaliser des évaluations se mesurent et s'établissent selon, le temps requis à mettre en place celle ci vs le temps pour produire l'interface[28], l'expertise prescrite ou simplement les tendances et les traditions[29].

Histoire

1940 - 1950 : Fiabilité

Classic shot of the ENIAC

Les premières évaluations concernaient la fiabilité. Réalisées sur la première génération d'ordinateurs (utilisation de tubes électroniques), elles étaient utilisées pour minimiser les pannes. En effet, les premiers ordinateurs étaient de larges machines composées d'une quantité importante de composants.

On peut citer comme l'un des premiers ordinateurs, l'ENIAC.

Les évaluations étaient accomplies pendant l'utilisation de la machine[30].

Les utilisateurs, ingénieurs et mathématiciens étaient les principaux évaluateurs[31] - [30].

1950 - 1960 : Performance

La seconde génération d'ordinateurs (utilisation de transistors) a permis des études portées sur des évaluations appelées des tests de validation. Possédant les connaissances nécessaires (langages de programmation, infrastructures de la machine ) pour utiliser les systèmes, les utilisateurs, des programmeurs et des ingénieurs étaient également les évaluateurs [32].

Ils évaluaient à l'aide de tests d'acceptation si leur machine (comme l'UNIVAC) atteignait les spécifications établies dans le contrat de construction (reformulation nécessaire)[33].

1960 - 1970 : Performance de l'utilisateur

À la fin des années 1960, la troisième génération d'ordinateurs apparaît (utilisation de circuits intégrés). Les ordinateurs deviennent un outil personnel. Ils sont utilisées pour réaliser des tâches qui ne sont pas de la programmation mais de l'édition de textes, consultation de documents, jeux. Les profils des évaluateurs se diversifient et inclus des psychologistes[34]. Les évaluations cherchent à comprendre la vitesse de l'utilisateur à réaliser une tâche[35].

1970 - 2000 : Utilisabilité

L'apparition des interfaces graphiques portent les évaluations à s'intéresser à l'utilisabilité. Le développement de logiciels utilisables par un utilisateur novice permet un meilleur apprentissage de son utilisation. Différentes méthodes apparaissent pour évaluer l'utilisabilité d'un logiciel: le modèle GOMS, la méthode du "think aloud", l'évaluation heuristique et l'inspection cognitive[34].

2000 - Aujourd'hui : UX

L'UX, User Experience est un paradigme pour le design et l'évaluation des interfaces hommes-machines. Il permet de prendre en compte durant la conception d'un logiciel tout ce qui affecte l'interaction entre l'utilisateur et la machine [36].

De nouveaux modèles apparaissent pour satisfaire de nouveaux besoins grâce à l'évaluation de : l'influence de l'esthétique[37], l’aptitude à achever un but comportemental comme l'amusement, la joie ou la dépense physique [38].

Références

  1. Ezzedine 2012, p. 215
  2. Senach 1990, p. 6
  3. Whitefield 1991, p. 74
  4. Dix 1998, p. 318
  5. Baccino 2005, p. 185
  6. Karat 1988
  7. Baccino 2005, p. 128-132
  8. Baccino 2005, p. 138-140
  9. Baccino 2005, p. 148-151
  10. Baccino 2005, p. 152-155
  11. Baccino 2005, p. 162
  12. Baccino 2005, p. 174-175
  13. Baccino 2015, p. 197
  14. Kahjouei 2011, p. 6
  15. Nielsen 1990, p. 1-2
  16. Baccino 2005, p. 208-209
  17. Baccino 2005, p. 214
  18. Ericsson 1980, p. 215-251
  19. Baccino 2005, p. 219
  20. Baccino 2005, p. 225-228
  21. Lewis 2010, p. 411
  22. Henry 2003, p. 1643
  23. Baccino 2005, p. 234
  24. Pakdel 2011, p. 222
  25. Baccino 2005, p. 246
  26. Gray 1996, p. 93
  27. Boase 2013, p. 512
  28. Nielsen 1995, p. 1
  29. Nielsen 1990, p. 1
  30. Pollard 1951
  31. Kaye 2007
  32. MacDonald 2013, p. 1970
  33. McPherson 1951
  34. MacDonald 2013, p. 1971
  35. English 1967
  36. MacDonald 2013, p. 1972
  37. Tractinsky 2000, p. 141
  38. Gruenfeld 2013, p. 560

Bibliographie

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

Articles scientifiques

  • H. Ezzedine, A. Trabelsi, C.D. Tran et C. Kolski, Critères et méthodes d'évaluation des systèmes interactifs, Application à un poste de régulation dans le domaine des transports, Paris, Hermès science publications-Lavoisier, , 213-293 p. (ISBN 978-2-7462-3119-1). Ouvrage utilisé pour la rédaction de l'article
  • (en) A. Whitefield, J. Dowell et F. Wilson, « A framework for human factors evaluation », Behaviour & Information technology, vol. 10, no 1, , p. 65-79 (lire en ligne). Ouvrage utilisé pour la rédaction de l'article
  • (en) E.S. Jung et Y. Shin, « Two-handed human reach prediction models for ergonomic evaluation », Human Factors and Ergonomics in Manufacturing & Service Industries, vol. 20, , p. 192–201 (ISSN 1520-6564, DOI 10.1002/hfm.20174)
  • (en) D.L. Scapin et J.M.C Bastien, « Ergonomic criteria for evaluating the ergonomic quality of interactive systems. », Behaviour & Information Technology, vol. 16, no 4, , p. 220-231 (ISSN 0144-929X, DOI 10.1080/014492997119806)
  • (en) K. Moumane, A. Idri et A. Abran, « Usability evaluation of mobile applications using ISO 9241 and ISO 25062 standards », SpringerPlus, vol. 5, no 1, (DOI 10.1186/s40064-016-2171-z)
  • (en) C. Kolski et P. Millot, « A rule-based approach to the ergonomic “static” evaluation of man-machine graphic interface in industrial processes », International Journal of Man-Machine Studies, vol. 35, no 5, , p. 657-674 (DOI 10.1016/S0020-7373(05)80182-8)
  • P. Salembier, M. Zouinar, C. Mathias, G. Lorant et J-P. Wary, Evaluation ergonomique d'un système d'authentification graphique, (lire en ligne)
  • (en) H.G. Kang et P.H. Seong, « Information theoretic approach to man-machine interface complexity evaluation », IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans, vol. 31, no 3, , p. 163-171 (ISSN 1558-2426, DOI 10.1109/3468.925655)
  • F. Aschehoug, La pertinence des modeles et des formalismes de description des interfaces pour l’evaluation ergonomique, (lire en ligne)

Rapport de recherche

  • A. Pollier, Evaluation d'une interface par des ergonomes : Diagnostics et strategies ([Rapport de recherche] RR-1391), , 1-54 p. (lire en ligne). Ouvrage utilisé pour la rédaction de l'article
  • B. Senach, Evaluation ergonomique des interfaces homme-machine : une revue de la litterature ([Rapport de recherche] RR-118), (lire en ligne). Ouvrage utilisé pour la rédaction de l'article

Thèses

  • S. Balbo, Evaluation ergonomique des interfaces utilisateur : un pas vers l'automatisation, (lire en ligne)

Livres

  • (en) H. Purchase, Experimental Human–Computer Interaction : A Practical Guide with Visual Examples, Cambridge, Cambridge university press, , 245 p. (ISBN 978-1-107-01006-2, lire en ligne)

Mémoire

  • C. Kolski, Méthodes et modèles de conception et d'évaluation des interfaces hommes-machines, (lire en ligne)
  • G. Melançon, M. Noirhomme-Fraiture et B. Pinaud, Evaluation des interfaces visuelles, (lire en ligne)

Non classés

  • M. Grislin, C. Kolski et J-C. Angue, Towards an organization of man-machine interface evaluation techniques using a usability grid, (lire en ligne)


  • (en) R. Khajouei, A. Hasman et M.W.M. Jaspers, « Determination of the effectiveness of two methods for usability evaluation using a CPOE medication ordering system », International Journal of Medical Informatics, vol. 80, no 5, , p. 341-350 (DOI 10.1016/j.ijmedinf.2011.02.005)
  • (en) A. Holzinger, « Usability engineering methods for software developers », Communications of the ACM, vol. 48, no 1, , p. 71-17 (ISBN 9788578110796, DOI 10.1145/1039539.1039541)
  • (en) M. Tyllinen, J. Kaipio, T. Lääveri et M. Nieminen, « We Need Numbers! - Heuristic Evaluation during Demonstrations (HED) for Measuring Usability in IT System Procurement », ACM, , p. 341-350 (DOI 10.1145/2858036.2858570)
  • (en) T. Hollingsed et D. Novick, « Usability inspection methods after 15 years of research and practice », SIGDOC '07 Proceedings of the 25th annual ACM international conference on Design of communication, , p. 249-255 (ISBN 978-1-59593-588-5, DOI 10.1145/1297144.1297200)
  • (en) C.M MacDonald et M. E. Atwood, « Changing perspectives on evaluation in HCI: past, present, and future », CHI '13 Extended Abstracts on Human Factors in Computing Systems, , p. 1969-1978 (ISBN 978-1-4503-1952-2, DOI 10.1145/2468356.2468714)
  • (en) D. Quiñones et C. Rusu, « How to develop usability heuristics: A systematic literature review », Computer Standards & Interfaces, vol. 53, , p. 89-122 (ISSN 0920-5489, DOI 10.1016/j.csi.2017.03.009)
  • (en) S. Hermawati et G. Lawson, « Establishing usability heuristics for heuristics evaluation in a specific domain: Is there a consensus ? », Applied Ergonomics, vol. 56, , p. 34-51 (ISSN 0003-6870, DOI 10.1016/j.apergo.2015.11.016)
  • (en) S. Winter, S. Wagner et F. Deissenboeck, « A comprehensive model of usability », Engineering Interactive Systems: EIS 2007 Joint Working Conferences, EHCI 2007, DSV-IS 2007, HCSE 2007. Springer, 2008, (DOI 10.1007/978-3-540-92698-6_7, arXiv 1612.04598)
  • (en) P. Salembier, M. Zouinar, R. Héron, C. Mathias, G. Lorant et J-P. Wary, « Experimental studies of a graphical authentication system based on semantic categorisation », Actes de la 28ième conférence francophone sur l'Interaction Homme-Machine, (ISBN 9781450342438, DOI 10.1145/3004107.3004121)


  • T. Baccino, C. Bellino et T. Colombi, Mesure de l'utilisabilité des interfaces, Paris, Lavoisier, , 280 p. (ISBN 2-7462-1026-6)
  • (en) M.J. Aamir et A. Mansoor, « Testing Web Application from Usability Perspective », Computer, Control & Communication (IC4), 2013 3rd International Conference on, (ISBN 9781467358859, DOI 10.1109/IC4.2013.6653765)
  • (en) S. Riihiaho, Experiences with usability testing : Effects of thinking aloud and moderator presence, (ISBN 978-952-60-6227-3, lire en ligne)
  • (en) J. Kaye et P. Sengers, « The Evolution of Evaluation », CHI '07 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, (ISBN 978-1-59593-593-9, DOI 10.1145/1240624.2180962)
  • (en) B.W. Pollard, « The design, construction, and performance of a large-scale general-purpose digital computer », IEEE Conference Publications, (DOI 10.1109/AFIPS.1951.12)
  • (en) J.L. McPherson et S.N. Alexander, « Performance of the census UNIVAC system », Managing Requirements Knowledge (AFIPS), 1951 International Workshop on, (DOI 10.1109/AFIPS.1951.10)
  • (en) R.S. Nickerson, « Man-Computer Interaction: A Challenge for Human Factors Research », IEEE Transactions on Man-Machine Systems, vol. 10, no 4, , p. 34-51 (ISSN 0536-1540, DOI 10.1109/TMMS.1969.299924)
  • (en) W.K. English, D.C. Engelbart et M.L. Berman, « Display-Selection Techniques for Text Manipulation », Display-Selection Techniques for Text Manipulation, vol. HFE-8, , p. 5-15 (ISSN 0096-249X, DOI 10.1109/THFE.1967.232994)
  • (en) E.A. Gruenfeld, S.E. Zagarins, A.P. Walker et S.S. Skinner, « Fun and Fit: Evaluation of a Pediatric Exercise Program », Journal of Pediatric Nursing, vol. 28, , p. 557-562 (ISSN 0882-5963, DOI 10.1016/j.pedn.2013.02.033)
  • (en) J. Nielsen et R. Molich, « Heuristic evaluation of user interfaces », CHI '90 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, , p. 249-256 (ISBN 0-201-50932-6, DOI 10.1145/97243.97281)
  • (en) J. Nielsen, « Applying discount usability engineering », IEEE Software, , p. 98-100 (DOI 10.1109/52.363161)
  • (en) A. Dhouib, A. Trabelsi, C. Kolski et M. Neji, « A classification and comparison of usability evaluation methods for interactive adaptive systems », Human System Interactions (HSI), , p. 246-251 (ISBN 978-1-5090-1729-4, DOI 10.1109/HSI.2016.7529639)


  • (en) A. Dix, J. Finlay, G.D. Abowd et R. Beale, Human-computer Interaction, , 0-862 p. (ISBN 0-13-046109-1)
    3eme édition
  • (en) K.A. Ericsson et H.S Simon, « Verbal Reports as Data », Psycological Review, vol. 87, no 3, , p. 215-251 (DOI 10.1037/0033-295X.87.3.215)
  • (en) K.M. Lewis et P. Hepburn, « Open card sorting and factor analysis: a usability case study », The Electronic Library, vol. 28, no 3, , p. 401-416 (ISSN 0264-0473, DOI 10.1108/02640471011051981)
  • (en) R. Pakdel, N. Ithnin et M. Hashemi, « CAPTCHA: A Survey of Usability Features », Research Journal of Information Technology, vol. 3, no 4, , p. 215-228 (ISSN 1815-7432, DOI 10.3923/rjit.2011.215.228)
  • (en) M. Gray, A. Badre et M. Guzdial, « Visualizing usability log data », Information Visualization '96, Proceedings IEEE Symposium on, , p. 93-130 (ISBN 0-8186-7668-X, DOI 10.1109/INFVIS.1996.559227)
  • (en) J. Boase et R. Ling, « Measuring Mobile Phone Use: Self-Report Versus Log Data », Journal of Computer-Mediated Communication, vol. 18, no 4, , p. 508-519 (ISSN 1083-6101, DOI 10.1111/jcc4.12021)

Articles connexes

  • Projet:Informatique 2.0
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.