Interfaces Avancées et Ergonomie des systèmes opérationnels en lutte sous-marine |
||||||||||||||||||||
|
|
Par Pascale SOULARD
ARTIS FACTA - Ingénierie des Facteurs Humains paru dans les Actes du Congrès ERGO.IA',1992. Biarritz Résumé Ce papier, après avoir rappelé quelques notions clés relatives à la communication homme-système (dialogue multi-modal, interfaces adaptables/adaptatives) décrit l'expérience de Thomson Sintra ASM dans la conception d'interfaces avancées pour un système d'assistance à l'opérateur sonar de localisation à bord d'un sous-marin. Les concepts sous jacents au développement du dialogue mis en oeuvre sont : la modélisation de l'activité et la modélisation dynamique de l'opérateur en relation avec une analyse du contexte opérationnel.
Mots clés : Communication homme-machine, Systèmes opérationnels, Modèle de l'opérateur, Modèle de l'activité, Interfaces adaptatives. This paper gives at first, an overview of few key-notions dealing with Man-Machine communication (multi-modal dialog, adaptive/self adaptive interfaces). Then, it describes Thomson Sintra ASM experience in the development of advanced interfaces devoted to operator on-line assistance, within a submarine sonar system. The underlying concepts that have been used in the design of these interfaces are : - operational task modelling, - continuous analysis of human activity, leading to operator modelling, - operational context analysis.
Keywords : Man-machine communication, Operational systems, Operator model, Task model, Self adaptive interfaces.
Thomson Sintra Activités Sous-Marines participe depuis 1989 au projet inter-divisions Thomson CSF "Poste de Travail Intelligent" dont l'objectif est la réalisation d'un démonstrateur multi-media intelligent répondant aux exigences de différents domaines comme le contrôle aérien, le pilotage d'avions d'armes ou la lutte sous-marine. Cette réflexion a très vite mis en évidence l'importance du rôle de la communication homme-système dans ce type d'application de haut niveau et l'apport relatif de l'emploi de nouveaux media. C'est pourquoi, nous avons ensuite étudié l'intérêt d'interfaces adaptables ou adaptatives (adéquation et limites) à travers la conception de dialogues multi-modaux. 1. Quelques notions clés 1.1 Le rôle de la communication homme-système.
Après une analyse des conséquences paradoxales de la sophistication croissante des systèmes, le rôle de la communication homme-système et la notion d'interfaces évoluées sont apparus ainsi que la définition et la distinction entre interfaces adaptables et interfaces adaptatives. En effet, la sophistication des moyens mis à la disposition des concepteurs d'interfaces homme-machine (générateurs d'interfaces, nouveaux modes de communication comme la commande vocale ou la commande gestuelle...) n'entraîne pas nécessairement et paradoxalement une amélioration de la qualité du dialogue entre l'homme et la machine. Au contraire, la mise à disposition de l'opérateur de moyens de communication divers mais concourant tous au dialogue, pose à celui-ci un problème de choix; le choix du moyen le mieux adapté dépendant de critères que l'opérateur n'a pas nécessairement la possibilité ou le temps d'évaluer, compte tenu de ses facultés propres et des caractéristiques du contexte (dynamique du système, richesse de l'information à traiter...). Dans ces conditions, il faut veiller à ce que l'opérateur ne devienne pas l'élément limitatif du système de dialogue [Coblentz, 90], écueil malheureusement facilement atteint. Pour éviter cela, il est nécessaire de considérer le système homme+machine globalement, et ceci dès les premières phases de conception [Barthet, 88].
1.2 Dialogue multi-modal, définition et intérêt.
Une communication multi-modale--dans un système multi-media--est définie par la présence simultanée et l'utilisation conjointe de plusieurs modes de communication [Caelen, 92; Sperandio, 91] comme la reconnaissance et la synthèse vocale, le clavier, la souris, la commande gestuelle.... Grâce à cette diversification, la communication doit gagner en souplesse (plusieurs moyens peuvent être employés pour une même commande : la voix ou l'utilisation de menus, par exemple) et l'application doit bénéficier de gains en termes d'efficacité (pas de déplacement des yeux, par exemple, dans le cas de l'utilisation de la commande vocale en situation chargée). En outre, lorsqu'un mode ne peut être utilisé (problème technique de fonctionnement, problème lié à l'environnement ou choix de l'opérateur) d'autres moyens sont disponibles. Si, par exemple, l'environnement est trop bruyant pour utiliser la commande vocale convenablement, un autre mode de commande--comme la désignation à la souris dans des menus--sera employé. Les commandes sont donc à la fois "multiplexées" (utilisation redondante de plusieurs media pour exprimer un même ordre) et "diviplexées" (utilisation complémentaire de plusieurs modes d'interaction). D'autre part, en situation d'hypo-vigilance, on mesure facilement l'intérêt d'une telle communication pour maintenir l'attention de l'opérateur.
1.3 Interfaces adaptables / interfaces adaptatives
La prise en compte du caractère limité des facultés humaines [Richard, 90], en termes physiologiques et cognitifs, pourra alors se faire de deux façons :
Les applications qui nous concernent relèvent sans aucun doute de la seconde situation : en effet, l'exploitation d'un système de détection multi-antennes ou d'aide au commandement varie de façon significative en fonction des différentes phases de la mission. Au cours des phases de transit (souvent plusieurs heures), le niveau d'exigence de la tâche n'est pas forcément très élevé et l'opérateur est en situation d'hypo-vigilance; en revanche, dans d'autres situations (comme en situation d'attaque ou de poursuite) le stress intervient et la charge de travail de l'opérateur prend des proportions beaucoup plus importantes. Par ailleurs, les caractéristiques des opérateurs sont beaucoup plus liées à des différences de comportement individuelles (préférences, habitudes) qu'à des niveaux de compétence. Les opérateurs sont, en général, tous experts, mais ils n'utilisent pas tous les mêmes modes de raisonnement ni les mêmes outils pour effectuer une même tâche; enfin, la prise en compte des caractéristiques individuelles n'est-elle pas également nécessaire pour l'optimisation des performances de systèmes complexes?
Prenons deux exemples qui nécessitent la conception d'interfaces adaptatives :
2. Un exemple d'application en lutte sous-marine : SAITeR SAITeR (Séquencement d'Activités Intelligent en Temps Réel) est une application conçue et développée au sein du Service Etudes Projets de Thomson Sintra ASM qui a pour but d'assister--automatiquement--l'opérateur sonar de localisation à bord d'un sous-marin. C'est un "gestionnaire" réalisant un séquencement complet et automatique d'algorithmes de traitement de données en milieu évolutif; SAITeR organise les activités : il choisit les "bons" algorithmes afin de les déclencher au "bon" moment à partir d'informations pertinentes provenant de "bons" bruiteurs (analyse de la qualité et de la quantité d'information).
2.1 Un système complexe.
L'application actuelle se compose de deux parties :
Ce système est caractérisé par la complexité des traitements mis en oeuvre (complexité des algorithmes, des paramètres à regler...) et par l'importance de la quantité d'informations manipulées; c'est ce qui nous a conduit à évaluer le rôle essentiel de la communication homme-système pour une utilisation optimale de SAITeR.
2.2 Interfaces adaptables.
Le système SAITeR peut être considéré comme un prototype pouvant permettre la conception d'un système d'Enseignement Assisté par Ordinateur pour la formation des futurs opérationnels. Dans ce cadre, des interfaces adaptables permettent de disposer d'un système plus souple et mieux adapté au niveau de connaissance des élèves. On peut, par exemple, envisager des aides plus ou moins précises dans la partie manuelle pour le choix des traitements (choix des algorithmes, choix des bruiteurs, choix des informations) en fonction des compétences des élèves. Le niveau de l'élève est alors déterminé au cours de l'initialisation du système et les aides ou les exercices, déterminées une fois pour toutes en fonction de ce niveau.
2.3 Interfaces adaptatives.
Il s'agit dans ce cas de faire varier la qualité des informations ainsi que la logique d'interaction dynamiquement en cours d'utilisation du système. L'adaptativité n'est pas forcément limitée à un système d'enseignement mais est également très utile dans le cas d'un système opérationnel et elle devient même indispensable dans le cas d'un système multi-media.
Quelques idées simples permettent d'illustrer cette notion d'adaptativité dans le cas de SAITeR :
2.4 Le rôle d'un dialogue multi-modal.
Le développement du prototype SAITeR nous a conduit naturellement à analyser le poste opérateur en général. Sans être indispensable, la diversification des moyens d'interaction peut améliorer les conditions de travail et les performances des opérateurs. En effet, une étude récente effectuée en collaboration avec des ergonomes de l'Université René Descartes sur une tâche particulière de SAITeR fait apparaître certaines contraintes du système :
De telles possibilités nécessitent une conception des interfaces reposant sur une modélisation des tâches, une modélisation dynamique de l'opérateur, une analyse du contexte opérationnel et une analyse préalable de l'"activité" (d'un point de vue ergonomique).
3. Mise en oeuvre 1 Une architecture générique.
Les études réalisées dans le cadre de ce projet ont conduit à la définition d'une architecture générique permettant la conception d'interfaces adaptatives pour un dialogue multi-modal en tenant compte des contraintes ergonomiques du système. Cette architecture est basée sur une modélisation de l'activité [Amalberti, 91] (on utilisera pour cela un modèle adapté et les compétences d'un ergonome), une modélisation dynamique de l'opérateur [Falzon, 90] et du contexte opérationnel.
Trois modules principaux constituent cette architecture :
a. Le module de gestion des media. Ce module a pour rôle le formatage des événements issus des différents media (gestion des couches basses du dialogue).
b. L'analyseur syntaxique multi-modal. A partir d'une analyse linguistique et sémantique des événements formatés en sortie du module précédent, il fournit au module de compréhension du dialogue des ordres syntaxiquement et sémantiquement corrects.
c. Le module de compréhension du dialogue. Il s'agit dans cette partie de contrôler la cohérence du dialogue, pour cela il faut - rechercher la tâche courante de l'opérateur, - proposer une action adaptée ou un retour système, - mettre à jour dynamiquement le modèle de la tâche et de l'opérateur ainsi que l'historique des interactions, - gérer la stratégie du système et anticiper sur la tâche suivante.
3.2. Validation : SAITeR-Vox.
Cettte architecture générique est actuellement en cours de validation sur le système SAITeR [Soulard, 92]; le dialogue est constitué des moyens classiques tels que clavier, souris mais également d'une reconnaissance/synthèse vocale (système DATAVOX de la Société VECSYS).
Le démonstrateur SAITeR-Vox a été développé dans l'environnement de prototypage SPIRITS sur SUN4. Il bénéficie ainsi, du générateur d'interfaces homme-machine MMI (générateur graphique) et du langage orienté objets intégré au générateur de systèmes experts : XIA-LISP. L'application SAITeR, également développée sous SPIRITS, a été enrichie grâce aux interfaces multi-modales adaptatives mais le code de base n'a pas été modifié (interfaces en MMI, algorithmes FORTRAN et C, règles de séquencement des algorithmes en XIA-C). Les techniques employées sont : le chaînage avant pour l'identification des ordres issus des media (analyseur syntaxique multi-modal) et le chaînage arrière pour la compréhension du dialogue (parcours du graphe de tâches - le graphe étant lui-même écrit sous forme d'objets). La modélisation de l'opérateur est prise en compte grâce au concept de multi-agenda (multi-experts) fourni par XIA-LISP.
3.3 Perspectives.
La conception des interfaces adaptatives pour SAITeR-Vox est essentiellement basée sur une analyse critique du modèle des tâches, effectué à partir des spécifications fonctionnelles du système opérationnel. La validation de ces interfaces pose des problèmes de par : . la disponibilité des futurs opérateurs (spécialistes et très peu nombreux), . le fait qu'il s'agisse d'un système "nouveau" (pas de référence puisque les fonctions développées dans SAITeR étaient effectuées manuellement dans les versions passées du système), . la difficulté à établir des jeux de test, l'adaptativité étant par définition non prévisible.
Cependant, une phase d'expérimentation est prévue (avec des opérationnels) sur un simulateur d'entrainement, actuellement en cours de réalisation. 1 Une architecture générique.
Les études réalisées dans le cadre de ce projet ont conduit à la définition d'une architecture générique permettant la conception d'interfaces adaptatives pour un dialogue multi-modal en tenant compte des contraintes ergonomiques du système. Cette architecture est basée sur une modélisation de l'activité [Amalberti, 91] (on utilisera pour cela un modèle adapté et les compétences d'un ergonome), une modélisation dynamique de l'opérateur [Falzon, 90] et du contexte opérationnel.
Trois modules principaux constituent cette architecture :
a. Le module de gestion des media. Ce module a pour rôle le formatage des événements issus des différents media (gestion des couches basses du dialogue).
b. L'analyseur syntaxique multi-modal. A partir d'une analyse linguistique et sémantique des événements formatés en sortie du module précédent, il fournit au module de compréhension du dialogue des ordres syntaxiquement et sémantiquement corrects.
c. Le module de compréhension du dialogue. Il s'agit dans cette partie de contrôler la cohérence du dialogue, pour cela il faut - rechercher la tâche courante de l'opérateur, - proposer une action adaptée ou un retour système, - mettre à jour dynamiquement le modèle de la tâche et de l'opérateur ainsi que l'historique des interactions, - gérer la stratégie du système et anticiper sur la tâche suivante.
3.2. Validation : SAITeR-Vox.
Cettte architecture générique est actuellement en cours de validation sur le système SAITeR [Soulard, 92]; le dialogue est constitué des moyens classiques tels que clavier, souris mais également d'une reconnaissance/synthèse vocale (système DATAVOX de la Société VECSYS).
Le démonstrateur SAITeR-Vox a été développé dans l'environnement de prototypage SPIRITS sur SUN4. Il bénéficie ainsi, du générateur d'interfaces homme-machine MMI (générateur graphique) et du langage orienté objets intégré au générateur de systèmes experts : XIA-LISP. L'application SAITeR, également développée sous SPIRITS, a été enrichie grâce aux interfaces multi-modales adaptatives mais le code de base n'a pas été modifié (interfaces en MMI, algorithmes FORTRAN et C, règles de séquencement des algorithmes en XIA-C). Les techniques employées sont : le chaînage avant pour l'identification des ordres issus des media (analyseur syntaxique multi-modal) et le chaînage arrière pour la compréhension du dialogue (parcours du graphe de tâches - le graphe étant lui-même écrit sous forme d'objets). La modélisation de l'opérateur est prise en compte grâce au concept de multi-agenda (multi-experts) fourni par XIA-LISP.
3.3 Perspectives.
La conception des interfaces adaptatives pour SAITeR-Vox est essentiellement basée sur une analyse critique du modèle des tâches, effectué à partir des spécifications fonctionnelles du système opérationnel. La validation de ces interfaces pose des problèmes de par : . la disponibilité des futurs opérateurs (spécialistes et très peu nombreux), . le fait qu'il s'agisse d'un système "nouveau" (pas de référence puisque les fonctions développées dans SAITeR étaient effectuées manuellement dans les versions passées du système), . la difficulté à établir des jeux de test, l'adaptativité étant par définition non prévisible.
Cependant, une phase d'expérimentation est prévue (avec des opérationnels) sur un simulateur d'entrainement, actuellement en cours de réalisation. Conclusion La collaboration que nous avons entreprise avec des experts ergonomes [Ledebt, 91] doit être poursuivie dans le but d'effectuer une réelle analyse de l'activité des opérateurs pour cette application. Enfin, nous insistons sur l'importance d'une collaboration entre spécialistes de disciplines diverses (informatique avancée, ergonomes, psychologues, opérationnels) pour la conception d'un système de dialogue modulaire dans lequel la résolution des problèmes spécifiques est déléguée aux experts des domaines concernés.
AMALBERTI, R. (1991). Modèles de raisonnement et ergonomie cognitive. Actes des entretiens Science et Défense (pp.317-328) Paris : DUNOD.
BARTHET, MF. (1988). Logiciels interactifs et ergonomie. Paris : DUNOD.
CAELEN, J. (1992). La multimodalité permet-elle de mieux insérer l'ordinateur dansle monde réel? Actes du colloque sur l'Interface des Mondes Réels et Virtuels. Montpellier.
COBLENTZ, A. (1990). Place de l'ergonomie dans la conception d'un système d'armes. Séminaire d'ergonomie des systèmes. Campus THOMSON.
FALZON, P., & CAHOUR, B. (1990). Assistance à l'opérateur et modélisation de sa compétence. Communication à la journée d'études "Expertise et sciences cognitives" (pp.1-13) Paris : ARC.
LEDEBT, A. (1991) "Aménagement d'un poste de travail dans un sous-marin". Rapport de stage de DESS d'ergonomie effectué à Thomson Sintra ASM.
MILLOT, F. (1988) "Supervision des procédés automatisés et ergonomie". HERMES.
RICHARD, JF. (1990). Les activités mentales. Paris : A. COLIN.
SCAPIN, (1990). "Evaluation ergonomique des dialogues homme-machine" Séminaire d'ergonomie des systèmes, Campus Thomson Juin 1990.
SOULARD, P. (1992) "Poste de Travail Intelligent". Rapport d'étude interne TS.ASM 92/A/GEA/RS/021-PS.
SPERANDIO, JC. (1991) "Le dialogue multi-modal : une réponse aux besoins de communication homme-machine". Communication à Univerdustrie 91.
|
||||||||||||||||||
Retour en
haut de page |
||||||||||||||||||||
|