Introduction
Le développement d'interfaces efficaces avec les systèmes informatiques est l'objectif fondamental de la recherche sur les interactions homme-machine.
Une interface peut être définie comme la somme des composants matériels et logiciels à travers lesquels un système est exploité et les utilisateurs informés de son état. Les composants matériels comprennent des dispositifs de saisie de données et de pointage (par exemple, des claviers, des souris), des dispositifs de présentation d'informations (par exemple, des écrans, des haut-parleurs) et des manuels d'utilisation et de la documentation. Les composants logiciels comprennent des commandes de menu, des icônes, des fenêtres, des retours d'informations, des systèmes de navigation et des messages, etc. Les composants matériels et logiciels d'une interface peuvent être si étroitement liés qu'ils sont inséparables (par exemple, les touches de fonction sur les claviers). L'interface comprend tout ce que l'utilisateur perçoit, comprend et manipule lorsqu'il interagit avec l'ordinateur (Moran 1981). C'est donc un déterminant crucial de la relation homme-machine.
La recherche sur les interfaces vise à améliorer l'utilité, l'accessibilité, les performances, la sécurité et la convivialité des interfaces. À ces fins, l'utilité est définie en référence à la tâche à accomplir. Un système utile contient les fonctions nécessaires à l'accomplissement des tâches que l'on demande aux utilisateurs d'effectuer (par exemple, écrire, dessiner, calculer, programmer). L'accessibilité mesure la capacité d'une interface à permettre à plusieurs catégories d'utilisateurs, notamment les personnes en situation de handicap, celles travaillant dans des zones géographiquement isolées, en déplacement constant ou ayant les deux mains occupées, d'utiliser le système pour réaliser leurs activités. La performance, considérée ici d'un point de vue humain plutôt que technique, est une mesure de la mesure dans laquelle un système améliore l'efficacité avec laquelle les utilisateurs effectuent leur travail. Cela inclut l'effet des macros, des raccourcis de menu et des agents logiciels intelligents. La sécurité d'un système est définie par la mesure dans laquelle une interface permet aux utilisateurs d'effectuer leur travail sans risque d'accident ou de perte humaine, matérielle, de données ou environnementale. Enfin, l'utilisabilité est définie comme la facilité avec laquelle un système est appris et utilisé. Par extension, il inclut également l'utilité et les performances du système, définies ci-dessus.
Éléments de conception d'interface
Depuis l'invention des systèmes d'exploitation en temps partagé en 1963, et surtout depuis l'arrivée du micro-ordinateur en 1978, le développement des interfaces homme-machine a été explosif (voir Gaines et Shaw 1986 pour un historique). Le stimulus de ce développement a été essentiellement conduit par trois facteurs agissant simultanément :
Premièrement, l'évolution très rapide de la technologie informatique, conséquence des progrès de l'ingénierie électrique, de la physique et de l'informatique, a été un déterminant majeur du développement de l'interface utilisateur. Elle s'est traduite par l'apparition d'ordinateurs de plus en plus puissants et rapides, dotés de capacités de mémoire élevées, d'écrans graphiques à haute résolution et de dispositifs de pointage plus naturels permettant une manipulation directe (ex. souris, trackballs). Ces technologies ont également été à l'origine de l'émergence de la micro-informatique. Ils ont été à la base des interfaces à base de caractères des années 1960 et 1970, des interfaces graphiques de la fin des années 1970 et des interfaces multimédias et hypermédias apparues depuis le milieu des années 1980 basées sur des environnements virtuels ou utilisant une variété de reconnaissance d'entrée alternative. technologies (par exemple, détection de la voix, de l'écriture manuscrite et des mouvements). Des recherches et développements considérables ont été menés ces dernières années dans ces domaines (Waterworth et Chignel 1989; Rheingold 1991). Parallèlement à ces progrès, il y a eu le développement d'outils logiciels plus avancés pour la conception d'interfaces (par exemple, les systèmes de fenêtrage, les bibliothèques d'objets graphiques, les systèmes de prototypage) qui réduisent considérablement le temps nécessaire pour développer des interfaces.
Deuxièmement, les utilisateurs de systèmes informatiques jouent un rôle important dans le développement d'interfaces efficaces. Il y a trois raisons à cela. Premièrement, les utilisateurs actuels ne sont ni des ingénieurs ni des scientifiques, contrairement aux utilisateurs des premiers ordinateurs. Ils exigent donc des systèmes qui peuvent être facilement appris et utilisés. Deuxièmement, l'âge, le sexe, la langue, la culture, la formation, l'expérience, les compétences, la motivation et l'intérêt des utilisateurs individuels sont assez variés. Les interfaces doivent donc être plus flexibles et mieux adaptées à une diversité de besoins et d'attentes. Enfin, les utilisateurs sont employés dans des secteurs économiques variés et exécutent un éventail de tâches assez diversifié. Les développeurs d'interfaces doivent donc constamment réévaluer la qualité de leurs interfaces.
Enfin, la concurrence intense sur le marché et les attentes accrues en matière de sécurité favorisent le développement de meilleures interfaces. Ces préoccupations sont portées par deux ensembles de partenaires : d'une part, les éditeurs de logiciels qui s'efforcent de réduire leurs coûts tout en conservant une différenciation des produits au service de leurs objectifs marketing, et d'autre part, les utilisateurs pour qui le logiciel est un moyen de proposer des produits compétitifs. et services aux clients. Pour les deux groupes, des interfaces efficaces offrent un certain nombre d'avantages :
Pour les éditeurs de logiciels :
- meilleure image du produit
- augmentation de la demande de produits
- des temps de formation plus courts
- réduction des exigences de service après-vente
- base solide sur laquelle développer une gamme de produits
- réduction du risque d'erreurs et d'accidents
- réduction de la documentation.
Pour les utilisateurs:
- phase d'apprentissage plus courte
- applicabilité générale accrue des compétences
- meilleure utilisation du système
- une autonomie accrue dans l'utilisation du système
- réduction du temps nécessaire à l'exécution d'une tâche
- réduction du nombre d'erreurs
- satisfaction accrue.
Des interfaces efficaces peuvent améliorer considérablement la santé et la productivité des utilisateurs tout en améliorant la qualité et en réduisant le coût de leur formation. Cela nécessite toutefois de baser la conception et l'évaluation des interfaces sur des principes ergonomiques et des normes de pratique, qu'il s'agisse de lignes directrices, de normes d'entreprise des principaux fabricants de systèmes ou de normes internationales. Au fil des ans, un corpus impressionnant de principes et de directives ergonomiques liés à la conception d'interfaces s'est accumulé (Scapin 1986 ; Smith et Mosier 1986 ; Marshall, Nelson et Gardiner 1987 ; Brown 1988). Ce corpus multidisciplinaire couvre tous les aspects des interfaces en mode caractères et graphiques, ainsi que les critères d'évaluation des interfaces. Bien que son application concrète pose parfois quelques problèmes, par exemple une terminologie imprécise, une information insuffisante sur les conditions d'utilisation, une présentation inappropriée, elle demeure une ressource précieuse pour la conception et l'évaluation des interfaces.
De plus, les principaux éditeurs de logiciels ont développé leurs propres directives et normes internes pour la conception des interfaces. Ces lignes directrices sont disponibles dans les documents suivants :
- Directives relatives à l'interface humaine Apple (1987)
- Regard ouvert (Dim 1990)
- Guide de style OSF/Motif (1990)
- Guide IBM Common User Access pour la conception de l'interface utilisateur (1991)
- Référence de conception d'interface avancée IBM (1991)
- L'interface Windows : un guide de conception d'applications (Microsoft 1992)
Ces directives tentent de simplifier le développement d'interfaces en imposant un niveau minimal d'uniformité et de cohérence entre les interfaces utilisées sur la même plate-forme informatique. Ils sont précis, détaillés et assez complets à plusieurs égards, et offrent les avantages supplémentaires d'être bien connus, accessibles et largement utilisés. Ils sont les de facto normes de conception utilisées par les développeurs, et sont, à ce titre, indispensables.
En outre, les normes de l'Organisation internationale de normalisation (ISO) sont également des sources d'informations très précieuses sur la conception et l'évaluation des interfaces. Ces normes visent principalement à assurer l'uniformité entre les interfaces, quelles que soient les plates-formes et les applications. Ils ont été développés en collaboration avec des agences nationales de normalisation et après de longues discussions avec des chercheurs, des développeurs et des fabricants. La principale norme de conception d'interface ISO est ISO 9241, qui décrit les exigences ergonomiques pour les unités d'affichage visuel. Il est composé de 17 parties. Par exemple, les parties 14, 15, 16 et 17 traitent de quatre types de dialogue homme-machine : les menus, les langages de commande, la manipulation directe et les formulaires. Les normes ISO devraient avoir la priorité sur les autres principes et directives de conception. Les sections suivantes traitent des principes qui doivent conditionner la conception des interfaces.
Une philosophie de conception centrée sur l'utilisateur
Gould et Lewis (1983) ont proposé une philosophie de conception axée sur l'utilisateur de l'unité d'affichage vidéo. Ses quatre principes sont :
- Attention immédiate et continue aux utilisateurs. Un contact direct avec les utilisateurs est maintenu, afin de mieux comprendre leurs caractéristiques et leurs tâches.
- Conception intégrée. Tous les aspects de l'utilisabilité (par exemple, l'interface, les manuels, les systèmes d'aide) sont développés en parallèle et placés sous contrôle centralisé.
- Évaluation immédiate et continue par les utilisateurs. Les utilisateurs testent les interfaces ou les prototypes très tôt dans la phase de conception, dans des conditions de travail simulées. Les performances et les réactions sont mesurées quantitativement et qualitativement.
- Conception itérative. Le système est modifié sur la base des résultats de l'évaluation et le cycle d'évaluation recommence.
Ces principes sont expliqués plus en détail dans Gould (1988). Très pertinentes lors de leur première publication en 1985, quinze ans plus tard elles le restent, du fait de l'impossibilité de prédire l'efficacité des interfaces en l'absence de tests utilisateurs. Ces principes constituent le cœur des cycles de développement basés sur l'utilisateur proposés par plusieurs auteurs ces dernières années (Gould 1988 ; Mantei et Teorey 1989 ; Mayhew 1992 ; Nielsen 1992 ; Robert et Fiset 1992).
La suite de cet article analysera cinq étapes du cycle de développement qui semblent déterminer l'efficacité de l'interface finale.
Analyse des tâches
L'analyse ergonomique des tâches est l'un des piliers de la conception d'interfaces. Essentiellement, c'est le processus par lequel les responsabilités et les activités des utilisateurs sont élucidées. Cela permet à son tour de concevoir des interfaces compatibles avec les caractéristiques des tâches des utilisateurs. Il y a deux facettes à une tâche donnée :
- Les tâche nominale, correspondant à la définition formelle de la tâche par l'organisation. Cela comprend les objectifs, les procédures, le contrôle de la qualité, les normes et les outils.
- Les vraie tâche, correspondant aux décisions et comportements des utilisateurs nécessaires à l'exécution de la tâche nominale.
L'écart entre les tâches nominales et les tâches réelles est inévitable et résulte de l'incapacité des tâches nominales à prendre en compte les variations et les aléas du flux de travail, et les différences dans les représentations mentales des utilisateurs de leur travail. L'analyse de la tâche nominale est insuffisante pour une compréhension complète des activités des utilisateurs.
L'analyse de l'activité examine des éléments tels que les objectifs de travail, le type d'opérations effectuées, leur organisation temporelle (séquentielle, parallèle) et leur fréquence, les modes opératoires retenus, les décisions, les sources de difficulté, les erreurs et les modes de récupération. Cette analyse révèle les différentes opérations effectuées pour accomplir la tâche (détection, recherche, lecture, comparaison, évaluation, décision, estimation, anticipation), les entités manipulées (par exemple, en contrôle de processus, température, pression, débit, volume) et la relation entre les opérateurs et les entités. Le contexte dans lequel la tâche est exécutée conditionne ces relations. Ces données sont essentielles pour la définition et l'organisation des fonctionnalités du futur système.
Dans sa forme la plus élémentaire, l'analyse des tâches se compose de la collecte, de la compilation et de l'analyse de données. Elle peut être réalisée avant, pendant ou après l'informatisation de la tâche. Dans tous les cas, il fournit des lignes directrices essentielles pour la conception et l'évaluation des interfaces. L'analyse des tâches concerne toujours la tâche réelle, bien qu'elle puisse également étudier les tâches futures par le biais de simulations ou de tests de prototypes. Lorsqu'elle est réalisée avant l'informatisation, elle étudie les « tâches externes » (c'est-à-dire les tâches externes à l'ordinateur) effectuées avec les outils de travail existants (Moran 1983). Ce type d'analyse est utile même lorsqu'on s'attend à ce que l'informatisation entraîne une modification majeure de la tâche, car elle permet d'élucider la nature et la logique de la tâche, les procédures de travail, la terminologie, les opérateurs et les tâches, les outils de travail et les sources de difficulté. Ce faisant, il fournit les données nécessaires à l'optimisation et à l'informatisation des tâches.
L'analyse des tâches réalisée lors de l'informatisation des tâches porte sur les « tâches internes », telles qu'elles sont réalisées et représentées par le système informatique. Des prototypes de système sont utilisés pour collecter des données à ce stade. L'accent est mis sur les mêmes points examinés à l'étape précédente, mais du point de vue du processus d'informatisation.
Après l'informatisation des tâches, l'analyse des tâches étudie également les tâches internes, mais l'analyse se concentre désormais sur le système informatique final. Ce type d'analyse est souvent effectué pour évaluer des interfaces existantes ou dans le cadre de la conception de nouvelles interfaces.
L'analyse hiérarchique des tâches est une méthode courante en ergonomie cognitive qui s'est avérée très utile dans une grande variété de domaines, y compris la conception d'interfaces (Shepherd 1989). Il consiste en la division des tâches (ou objectifs principaux) en sous-tâches, chacune pouvant être subdivisée jusqu'à ce que le niveau de détail requis soit atteint. Si les données sont collectées directement auprès des utilisateurs (par exemple, par le biais d'entretiens, de vocalisations), la division hiérarchique peut fournir un portrait de la cartographie mentale des utilisateurs d'une tâche. Les résultats de l'analyse peuvent être représentés sous forme d'arbre ou de tableau, chaque format ayant ses avantages et ses inconvénients.
Analyse des utilisateurs
L'autre pilier de la conception d'interfaces est l'analyse des caractéristiques de l'utilisateur. Les caractéristiques d'intérêt peuvent être liées à l'âge, au sexe, à la langue, à la culture, à la formation, aux connaissances techniques ou informatiques, aux compétences ou à la motivation de l'utilisateur. Les variations de ces facteurs individuels sont responsables des différences au sein et entre les groupes d'utilisateurs. L'un des principes clés de la conception d'interface est donc qu'il n'existe pas d'utilisateur moyen. Au lieu de cela, différents groupes d'utilisateurs devraient être identifiés et leurs caractéristiques comprises. Les représentants de chaque groupe devraient être encouragés à participer aux processus de conception et d'évaluation de l'interface.
D'autre part, des techniques issues de la psychologie, de l'ergonomie et de l'ingénierie cognitive peuvent être utilisées pour révéler des informations sur les caractéristiques des utilisateurs liées à la perception, la mémoire, la cartographie cognitive, la prise de décision et l'apprentissage (Wickens 1992). Il est clair que la seule manière de développer des interfaces véritablement compatibles avec les utilisateurs est de prendre en compte l'effet des différences de ces facteurs sur les capacités, les limites et les modes de fonctionnement des utilisateurs.
Les études ergonomiques des interfaces se sont concentrées presque exclusivement sur les habiletés perceptives, cognitives et motrices des utilisateurs, plutôt que sur les facteurs affectifs, sociaux ou attitudinales, bien que les travaux dans ces derniers domaines soient devenus plus populaires ces dernières années. (Pour une vision intégrée des humains en tant que systèmes de traitement de l'information, voir Rasmussen 1986 ; pour un examen des facteurs liés à l'utilisateur à prendre en compte lors de la conception d'interfaces, voir Thimbleby 1990 et Mayhew 1992). Les paragraphes suivants passent en revue les quatre principales caractéristiques liées à l'utilisateur qui doivent être prises en compte lors de la conception de l'interface.
La représentation mentale
Les modèles mentaux que les utilisateurs construisent des systèmes qu'ils utilisent reflètent la manière dont ils reçoivent et comprennent ces systèmes. Ces modèles varient donc en fonction des connaissances et de l'expérience des utilisateurs (Hutchins 1989). Afin de minimiser la courbe d'apprentissage et de faciliter l'utilisation du système, le modèle conceptuel sur lequel un système est basé doit être similaire à la représentation mentale que les utilisateurs en ont. Il faut cependant reconnaître que ces deux modèles ne sont jamais identiques. Le modèle mental se caractérise par le fait même qu'il est personnel (Rich 1983), incomplet, variable d'une partie du système à l'autre, éventuellement en erreur sur certains points et en constante évolution. Il joue un rôle mineur dans les tâches routinières mais un rôle majeur dans les tâches non routinières et lors du diagnostic des problèmes (Young 1981). Dans ces derniers cas, les utilisateurs seront peu performants en l'absence d'un modèle mental adéquat. L'enjeu pour les concepteurs d'interfaces est de concevoir des systèmes dont l'interaction avec les utilisateurs amènera ces derniers à former des modèles mentaux similaires au modèle conceptuel du système.
Formations
L'analogie joue un grand rôle dans l'apprentissage de l'utilisateur (Rumelhart et Norman 1983). Pour cette raison, l'utilisation d'analogies ou de métaphores appropriées dans l'interface facilite l'apprentissage, en maximisant le transfert de connaissances à partir de situations ou de systèmes connus. Les analogies et les métaphores jouent un rôle dans de nombreuses parties de l'interface, y compris les noms des commandes et des menus, les symboles, les icônes, les codes (par exemple, la forme, la couleur) et les messages. Lorsqu'elles sont pertinentes, elles contribuent grandement à rendre les interfaces naturelles et plus transparentes pour les utilisateurs. En revanche, lorsqu'elles ne sont pas pertinentes, elles peuvent gêner les utilisateurs (Halasz et Moran 1982). A ce jour, les deux métaphores utilisées dans les interfaces graphiques sont les à poser et, dans une moindre mesure, la chambre.
Les utilisateurs préfèrent généralement apprendre un nouveau logiciel en l'utilisant immédiatement plutôt qu'en lisant ou en suivant un cours - ils préfèrent un apprentissage basé sur l'action dans lequel ils sont cognitivement actifs. Ce type d'apprentissage pose cependant quelques problèmes aux utilisateurs (Carroll et Rosson 1988 ; Robert 1989). Il exige une structure d'interface compatible, transparente, cohérente, flexible, d'apparence naturelle et tolérante aux pannes, ainsi qu'un ensemble de fonctionnalités qui garantissent la convivialité, les commentaires, les systèmes d'aide, les aides à la navigation et la gestion des erreurs (dans ce contexte, les « erreurs » désignent actions que les utilisateurs souhaitent annuler). Des interfaces efficaces donnent aux utilisateurs une certaine autonomie lors de l'exploration.
Développer des connaissances
Les connaissances des utilisateurs se développent avec l'expérience croissante, mais tendent à plafonner rapidement. Cela signifie que les interfaces doivent être flexibles et capables de répondre simultanément aux besoins d'utilisateurs ayant des niveaux de connaissances différents. Idéalement, ils devraient également être sensibles au contexte et fournir une aide personnalisée. Le système EdCoach, développé par Desmarais, Giroux et Larochelle (1993) est une telle interface. La classification des utilisateurs en catégories débutant, intermédiaire et expert est inadéquate pour les besoins de la conception d'interfaces, car ces définitions sont trop statiques et ne tiennent pas compte des variations individuelles. Une technologie de l'information capable de répondre aux besoins de différents types d'utilisateurs est maintenant disponible, bien qu'au niveau de la recherche plutôt que du niveau commercial (Egan 1988). La rage actuelle pour les systèmes d'aide à la performance suggère un développement intense de ces systèmes dans les années à venir.
Erreurs inévitables
Enfin, il faut reconnaître que les utilisateurs commettent des erreurs lors de l'utilisation des systèmes, quel que soit leur niveau de compétence ou la qualité du système. Une récente étude allemande de Broadbeck et al. (1993) ont révélé qu'au moins 10 % du temps passé par les cols blancs à travailler sur des ordinateurs est lié à la gestion des erreurs. L'une des causes des erreurs est la confiance des utilisateurs dans les stratégies de correction plutôt que de prévention (Reed 1982). Les utilisateurs préfèrent agir rapidement et commettre des erreurs qu'ils doivent ensuite corriger, plutôt que de travailler plus lentement et d'éviter les erreurs. Il est essentiel que ces considérations soient prises en compte lors de la conception des interfaces homme-machine. De plus, les systèmes doivent être tolérants aux pannes et doivent intégrer une gestion efficace des erreurs (Lewis et Norman 1986).
Prise des besoins
L'analyse des besoins fait explicitement partie du cycle de développement de Robert et Fiset (1992), elle correspond à l'analyse fonctionnelle de Nielsen et s'intègre dans d'autres étapes (analyse des tâches, des utilisateurs ou des besoins) décrites par d'autres auteurs. Elle consiste en l'identification, l'analyse et l'organisation de tous les besoins que le système informatique peut satisfaire. L'identification des fonctionnalités à ajouter au système se produit au cours de ce processus. L'analyse des tâches et des utilisateurs, présentée ci-dessus, devrait aider à définir une grande partie des besoins, mais peut s'avérer insuffisante pour définir de nouveaux besoins résultant de l'introduction de nouvelles technologies ou de nouvelles réglementations (par exemple, la sécurité). L'analyse des besoins comble ce vide.
L'analyse des besoins s'effectue de la même manière que l'analyse fonctionnelle des produits. Elle nécessite la participation d'un groupe de personnes intéressées par le produit et possédant une formation, un métier ou une expérience de travail complémentaire. Il peut s'agir de futurs utilisateurs du système, de superviseurs, d'experts du domaine et, le cas échéant, de spécialistes de la formation, de l'organisation du travail et de la sécurité. Une revue de la littérature scientifique et technique dans le domaine d'application concerné peut également être effectuée, afin d'établir l'état actuel de l'art. Des systèmes concurrents utilisés dans des domaines similaires ou connexes peuvent également être étudiés. Les différents besoins identifiés par cette analyse sont ensuite classés, pondérés et présentés dans un format adapté à une utilisation tout au long du cycle de développement.
Prototypage
Le prototypage fait partie du cycle de développement de la plupart des interfaces et consiste en la production d'un modèle papier ou électronique préliminaire (ou prototype) de l'interface. Plusieurs ouvrages sur le rôle du prototypage dans l'interaction homme-machine sont disponibles (Wilson et Rosenberg 1988 ; Hartson et Smith 1991 ; Preece et al. 1994).
Le prototypage est presque indispensable car :
- Les utilisateurs ont du mal à évaluer les interfaces sur la base de spécifications fonctionnelles : la description de l'interface est trop éloignée de l'interface réelle, et l'évaluation trop abstraite. Les prototypes sont utiles car ils permettent aux utilisateurs de voir et d'utiliser l'interface et d'évaluer directement son utilité et sa convivialité.
- Il est pratiquement impossible de construire une interface adéquate du premier coup. Les interfaces doivent être testées par les utilisateurs et modifiées, souvent à plusieurs reprises. Pour pallier ce problème, des prototypes papier ou interactifs pouvant être testés, modifiés ou rejetés sont produits et affinés jusqu'à l'obtention d'une version satisfaisante. Ce processus est considérablement moins coûteux que de travailler sur de vraies interfaces.
Du point de vue de l'équipe de développement, le prototypage présente plusieurs avantages. Les prototypes permettent l'intégration et la visualisation des éléments d'interface en amont du cycle de conception, l'identification rapide des problèmes détaillés, la production d'un objet de discussion concret et commun dans l'équipe de développement et lors des discussions avec les clients, et l'illustration simple de solutions alternatives aux fins de comparaison et d'évaluation interne de l'interface. L'avantage le plus important est cependant la possibilité de faire évaluer les prototypes par les utilisateurs.
Des outils logiciels peu coûteux et très puissants pour la production de prototypes sont disponibles dans le commerce pour une variété de plates-formes, y compris les micro-ordinateurs (par exemple, Visual Basic et Visual C++ (™Microsoft Corp.), UIM/X (™Visual Edge Software), HyperCard (™ ordinateur Apple), SVT (™SVT Soft Inc.)). Facilement disponibles et relativement faciles à apprendre, ils se généralisent parmi les développeurs de systèmes et les évaluateurs.
L'intégration du prototypage a complètement changé le processus de développement de l'interface. Compte tenu de la rapidité et de la souplesse avec lesquelles les prototypes peuvent être produits, les développeurs ont désormais tendance à réduire leurs analyses initiales de la tâche, des utilisateurs et des besoins, et à compenser ces lacunes analytiques en adoptant des cycles d'évaluation plus longs. Cela suppose que les tests d'utilisabilité permettront d'identifier les problèmes et qu'il est plus économique de prolonger l'évaluation que de consacrer du temps à une analyse préliminaire.
Évaluation des interfaces
L'évaluation des interfaces par les utilisateurs est un moyen indispensable et efficace pour améliorer l'utilité et la convivialité des interfaces (Nielsen 1993). L'interface est presque toujours évaluée sous forme électronique, bien que des prototypes papier puissent également être testés. L'évaluation est un processus itératif et fait partie du cycle d'évaluation-modification du prototype qui se poursuit jusqu'à ce que l'interface soit jugée acceptable. Plusieurs cycles d'évaluation peuvent être nécessaires. L'évaluation peut être réalisée sur le lieu de travail ou dans des laboratoires d'utilisabilité (voir l'édition spéciale de Comportement et technologies de l'information (1994) pour une description de plusieurs laboratoires d'utilisabilité).
Certaines méthodes d'évaluation d'interface n'impliquent pas les utilisateurs ; elles peuvent être utilisées en complément de l'évaluation des utilisateurs (Karat 1988 ; Nielsen 1993 ; Nielsen et Mack 1994). Un exemple relativement courant de telles méthodes consiste à utiliser des critères tels que la compatibilité, la cohérence, la clarté visuelle, le contrôle explicite, la flexibilité, la charge de travail mental, la qualité du feedback, la qualité de l'aide et les systèmes de gestion des erreurs. Pour une définition détaillée de ces critères, voir Bastien et Scapin (1993) ; ils forment également la base d'un questionnaire ergonomique sur les interfaces (Shneiderman 1987 ; Ravden et Johnson 1989).
Suite à l'évaluation, des solutions doivent être trouvées aux problèmes qui ont été identifiés, des modifications discutées et mises en œuvre, et des décisions prises concernant la nécessité d'un nouveau prototype.
Conclusion
Cette réflexion sur le développement d'interfaces a mis en lumière les enjeux majeurs et les grandes tendances dans le domaine de l'interaction homme-machine. En résumé, (a) l'analyse des tâches, des utilisateurs et des besoins joue un rôle essentiel dans la compréhension des exigences du système et, par extension, des fonctionnalités d'interface nécessaires ; et (b) le prototypage et l'évaluation des utilisateurs sont indispensables pour déterminer l'utilisabilité de l'interface. Un corpus impressionnant de connaissances, composé de principes, de lignes directrices et de normes de conception, existe sur les interactions homme-ordinateur. Néanmoins, il est actuellement impossible de produire une interface adéquate du premier coup. Cela constitue un enjeu majeur pour les années à venir. Des liens plus explicites, directs et formels doivent être établis entre l'analyse (tâche, utilisateurs, besoins, contexte) et la conception de l'interface. Des moyens doivent également être développés pour appliquer plus directement et plus simplement les connaissances ergonomiques actuelles à la conception des interfaces.