Lundi, Avril 04 2011 18: 16

Logiciels et ordinateurs : systèmes automatisés hybrides

Évaluer cet élément
(0 votes)

Un système automatisé hybride (HAS) vise à intégrer les capacités de machines artificiellement intelligentes (basées sur la technologie informatique) avec les capacités des personnes qui interagissent avec ces machines dans le cadre de leurs activités de travail. Les principales préoccupations de l'utilisation du HAS concernent la manière dont les sous-systèmes humains et machines doivent être conçus afin de tirer le meilleur parti des connaissances et des compétences des deux parties du système hybride, et la manière dont les opérateurs humains et les composants de la machine doivent interagir les uns avec les autres. assurer la complémentarité de leurs fonctions. De nombreux systèmes automatisés hybrides ont évolué en tant que produits d'applications de méthodologies modernes basées sur l'information et le contrôle pour automatiser et intégrer différentes fonctions de systèmes technologiques souvent complexes. HAS a été identifié à l'origine avec l'introduction de systèmes informatisés utilisés dans la conception et l'exploitation de systèmes de contrôle en temps réel pour les réacteurs nucléaires, pour les usines de traitement chimique et pour la technologie de fabrication de pièces discrètes. Le HAS se retrouve désormais également dans de nombreuses industries de services, telles que le contrôle du trafic aérien et les procédures de navigation aérienne dans le domaine de l'aviation civile, ainsi que dans la conception et l'utilisation de systèmes intelligents de navigation pour véhicules et autoroutes dans le transport routier.

Avec les progrès continus de l'automatisation assistée par ordinateur, la nature des tâches humaines dans les systèmes technologiques modernes passe de celles qui nécessitent des compétences perceptivo-motrices à celles qui nécessitent des activités cognitives, nécessaires à la résolution de problèmes, à la prise de décision dans la surveillance du système et à la tâches de contrôle de surveillance. Par exemple, les opérateurs humains dans les systèmes de fabrication intégrés par ordinateur agissent principalement en tant que moniteurs de système, résolveurs de problèmes et décideurs. Les activités cognitives du superviseur humain dans tout environnement HAS sont (1) la planification de ce qui doit être fait pour une période de temps donnée, (2) la conception de procédures (ou étapes) pour atteindre l'ensemble d'objectifs planifiés, (3) le suivi des progrès des processus (technologiques), (4) "enseigner" le système via un ordinateur interactif, (5) intervenir si le système se comporte de manière anormale ou si les priorités de contrôle changent et (6) apprendre par le retour d'information du système sur l'impact de actions de supervision (Sheridan 1987).

Conception de système hybride

Les interactions homme-machine dans un HAS impliquent l'utilisation de boucles de communication dynamiques entre les opérateurs humains et les machines intelligentes - un processus qui comprend la détection et le traitement de l'information et l'initiation et l'exécution des tâches de contrôle et la prise de décision - dans une structure donnée d'attribution de fonctions entre humains et machines. Au minimum, les interactions entre les personnes et l'automatisation doivent refléter la grande complexité des systèmes automatisés hybrides, ainsi que les caractéristiques pertinentes des opérateurs humains et les exigences des tâches. Par conséquent, le système automatisé hybride peut être formellement défini comme un quintuple dans la formule suivante :

A = (T, U, C, E, I)

De T = exigences de la tâche (physiques et cognitives) ; U = caractéristiques de l'utilisateur (physiques et cognitives) ; C = les caractéristiques de l'automatisation (matériel et logiciel, y compris les interfaces informatiques) ; E = l'environnement du système ; I = un ensemble d'interactions entre les éléments ci-dessus.

L'ensemble des interactions I incarne toutes les interactions possibles entre T, U et C in E quelle que soit leur nature ou leur force d'association. Par exemple, l'une des interactions possibles pourrait impliquer la relation entre les données stockées dans la mémoire de l'ordinateur et les connaissances correspondantes, le cas échéant, de l'opérateur humain. Les interactions I peut être élémentaire (c'est-à-dire limité à une association biunivoque) ou complexe, comme cela impliquerait des interactions entre l'opérateur humain, le logiciel particulier utilisé pour accomplir la tâche souhaitée et l'interface physique disponible avec l'ordinateur.

Les concepteurs de nombreux systèmes automatisés hybrides se concentrent principalement sur l'intégration assistée par ordinateur de machines sophistiquées et d'autres équipements dans le cadre de la technologie informatique, accordant rarement beaucoup d'attention au besoin primordial d'une intégration humaine efficace au sein de ces systèmes. Par conséquent, à l'heure actuelle, de nombreux systèmes (technologiques) intégrés à l'ordinateur ne sont pas entièrement compatibles avec les capacités inhérentes des opérateurs humains telles qu'exprimées par les compétences et les connaissances nécessaires au contrôle et à la surveillance efficaces de ces systèmes. Une telle incompatibilité survient à tous les niveaux du fonctionnement humain, machine et homme-machine, et peut être définie dans le cadre de l'individu et de l'ensemble de l'organisation ou de l'installation. Par exemple, les problèmes d'intégration des personnes et de la technologie dans les entreprises de fabrication de pointe surviennent tôt dans la phase de conception du HAS. Ces problèmes peuvent être conceptualisés en utilisant le modèle d'intégration de système suivant de la complexité des interactions, I, entre les concepteurs du système, D, opérateurs humains, H, ou les utilisateurs potentiels du système et la technologie, T:

Je (H, T) = F [ je (H, D), je (D, T)]

De I représente les interactions pertinentes ayant lieu dans la structure d'une HAS donnée, tandis que F indique les relations fonctionnelles entre les concepteurs, les opérateurs humains et la technologie.

Le modèle d'intégration de système ci-dessus met en évidence le fait que les interactions entre les utilisateurs et la technologie sont déterminées par le résultat de l'intégration des deux interactions précédentes, à savoir (1) celles entre les concepteurs de HAS et les utilisateurs potentiels et (2) celles entre les concepteurs. et la technologie HAS (au niveau des machines et de leur intégration). Il convient de noter que même si de fortes interactions existent généralement entre les concepteurs et la technologie, seuls très peu d'exemples d'interrelations aussi fortes entre les concepteurs et les opérateurs humains peuvent être trouvés.

On peut affirmer que même dans les systèmes les plus automatisés, le rôle humain reste essentiel à la performance réussie du système au niveau opérationnel. Bainbridge (1983) a identifié un ensemble de problèmes liés au fonctionnement de la HAS qui sont dus à la nature de l'automatisation elle-même, comme suit :

    1. Opérateurs « hors de la boucle de régulation ». Les opérateurs humains sont présents dans le système pour exercer un contrôle en cas de besoin, mais en étant "hors de la boucle de contrôle", ils ne parviennent pas à maintenir les compétences manuelles et les connaissances à long terme du système qui sont souvent nécessaires en cas d'urgence.
    2. "Image mentale" obsolète. Les opérateurs humains peuvent ne pas être en mesure de réagir rapidement aux changements de comportement du système s'ils n'ont pas suivi de très près les événements de son fonctionnement. De plus, la connaissance ou l'image mentale des opérateurs du fonctionnement du système peut être inadéquate pour initier ou exercer les réponses requises.
    3. Disparition des générations de compétences. Les nouveaux opérateurs peuvent ne pas être en mesure d'acquérir des connaissances suffisantes sur le système informatisé acquis par l'expérience et, par conséquent, seront incapables d'exercer un contrôle efficace en cas de besoin.
    4. Autorité de l'automatique. Si le système informatisé a été mis en œuvre parce qu'il peut effectuer les tâches requises mieux que l'opérateur humain, la question se pose : « Sur quelle base l'opérateur devrait-il décider que des décisions correctes ou incorrectes sont prises par les systèmes automatisés ? »
    5. Apparition de nouveaux types d'"erreurs humaines" dues à l'automatisation. Les systèmes automatisés conduisent à de nouveaux types d'erreurs et, par conséquent, d'accidents qui ne peuvent être analysés dans le cadre des techniques d'analyse traditionnelles.

             

            Répartition des tâches

            L'une des questions importantes pour la conception du HAS est de déterminer combien et quelles fonctions ou responsabilités doivent être attribuées aux opérateurs humains, et lesquelles et combien aux ordinateurs. En règle générale, il existe trois classes de base de problèmes d'attribution des tâches à prendre en compte : (1) l'attribution des tâches superviseur humain-ordinateur, (2) l'attribution des tâches homme-humain et (3) l'attribution des tâches ordinateur-ordinateur de supervision. Idéalement, les décisions d'allocation devraient être prises par le biais d'une procédure d'allocation structurée avant que la conception de base du système ne soit commencée. Malheureusement, un tel processus systématique est rarement possible, car les fonctions à attribuer peuvent nécessiter un examen plus approfondi ou doivent être effectuées de manière interactive entre les composants du système humain et machine, c'est-à-dire par l'application du paradigme de contrôle de supervision. L'attribution des tâches dans les systèmes automatisés hybrides devrait se concentrer sur l'étendue des responsabilités de supervision humaines et informatiques et devrait tenir compte de la nature des interactions entre l'opérateur humain et les systèmes informatisés d'aide à la décision. Les moyens de transfert d'informations entre les machines et les interfaces humaines d'entrée-sortie et la compatibilité des logiciels avec les capacités cognitives humaines de résolution de problèmes doivent également être pris en compte.

            Dans les approches traditionnelles de la conception et de la gestion des systèmes automatisés hybrides, les travailleurs étaient considérés comme des systèmes d'entrée-sortie déterministes, et il y avait une tendance à ignorer la nature téléologique du comportement humain, c'est-à-dire le comportement axé sur les objectifs reposant sur l'acquisition de connaissances. les informations pertinentes et la sélection des objectifs (Goodstein et al. 1988). Pour réussir, la conception et la gestion de systèmes automatisés hybrides avancés doivent être basées sur une description des fonctions mentales humaines nécessaires à une tâche spécifique. L'approche « d'ingénierie cognitive » (décrite plus loin) propose que les systèmes homme-machine (hybrides) doivent être conçus, conçus, analysés et évalués en termes de processus mentaux humains (c'est-à-dire que le modèle mental de l'opérateur des systèmes adaptatifs est pris en Compte). Voici les exigences de l'approche centrée sur l'humain pour la conception et l'exploitation du HAS telles que formulées par Corbett (1988) :

              1. Compatibilité. L'exploitation du système ne devrait pas exiger des compétences sans rapport avec les compétences existantes, mais devrait permettre aux compétences existantes d'évoluer. L'opérateur humain doit entrer et recevoir des informations qui sont compatibles avec la pratique conventionnelle afin que l'interface soit conforme aux connaissances et compétences antérieures de l'utilisateur.
              2. Transparence. On ne peut pas contrôler un système sans le comprendre. Par conséquent, l'opérateur humain doit être capable de "voir" les processus internes du logiciel de contrôle du système si l'apprentissage doit être facilité. Un système transparent permet aux utilisateurs de construire facilement un modèle interne des fonctions de prise de décision et de contrôle que le système peut exécuter.
              3. Choc minimal. Le système ne doit rien faire que les opérateurs trouvent inattendu à la lumière des informations dont ils disposent, détaillant l'état actuel du système.
              4. Contrôle des perturbations. Les tâches incertaines (telles que définies par l'analyse de la structure des choix) doivent être sous le contrôle d'un opérateur humain avec une aide informatique à la prise de décision.
              5. Faillibilité. Les compétences et connaissances implicites des opérateurs humains ne doivent pas être conçues en dehors du système. Les opérateurs ne doivent jamais être mis dans une position où ils regardent, impuissants, le logiciel diriger une opération incorrecte.
              6. Réversibilité des erreurs. Le logiciel doit fournir suffisamment d'informations en amont pour informer l'opérateur humain des conséquences probables d'une opération ou d'une stratégie particulière.
              7. Souplesse d'exploitation. Le système doit offrir aux opérateurs humains la liberté de faire des compromis entre les exigences et les limites des ressources en modifiant les stratégies d'exploitation sans perdre le support du logiciel de contrôle.

               

              Ingénierie Cognitive des Facteurs Humains

              L'ingénierie cognitive des facteurs humains se concentre sur la façon dont les opérateurs humains prennent des décisions sur le lieu de travail, résolvent des problèmes, formulent des plans et acquièrent de nouvelles compétences (Hollnagel et Woods 1983). Les rôles des opérateurs humains fonctionnant dans n'importe quel HAS peuvent être classés à l'aide du schéma de Rasmussen (1983) en trois grandes catégories :

                1. Comportement basé sur les compétences est la performance sensori-motrice exécutée lors d'actes ou d'activités qui se déroulent sans contrôle conscient en tant que modèles de comportement fluides, automatisés et hautement intégrés. Les activités humaines qui entrent dans cette catégorie sont considérées comme une séquence d'actes qualifiés composés pour une situation donnée. Le comportement basé sur les compétences est donc l'expression de modèles de comportements plus ou moins stockés ou d'instructions préprogrammées dans un domaine spatio-temporel.
                2. Comportement basé sur des règles est une catégorie de performances orientée vers un objectif structurée par un contrôle prédictif via une règle ou une procédure stockée, c'est-à-dire une performance ordonnée permettant de composer une séquence de sous-programmes dans une situation de travail familière. La règle est généralement sélectionnée à partir d'expériences antérieures et reflète les propriétés fonctionnelles qui contraignent le comportement de l'environnement. La performance basée sur des règles repose sur un savoir-faire explicite quant à l'utilisation des règles pertinentes. L'ensemble de données de décision est constitué de références pour la reconnaissance et l'identification d'états, d'événements ou de situations.
                3. Comportement basé sur les connaissances est une catégorie de performance contrôlée par un objectif, dans laquelle l'objectif est explicitement formulé sur la base de la connaissance de l'environnement et des objectifs de la personne. La structure interne du système est représentée par un « modèle mental ». Ce type de comportement permet de développer et de tester différents plans dans des conditions de contrôle inconnues et, par conséquent, incertaines, et est nécessaire lorsque les compétences ou les règles sont soit indisponibles, soit inadéquates, de sorte que la résolution de problèmes et la planification doivent être appelées à la place.

                     

                    Dans la conception et la gestion d'un HAS, il convient de considérer les caractéristiques cognitives des travailleurs afin d'assurer la compatibilité du fonctionnement du système avec le modèle interne du travailleur qui décrit ses fonctions. Par conséquent, le niveau de description du système doit être déplacé des aspects du fonctionnement humain basés sur les compétences vers les aspects basés sur les règles et les connaissances, et des méthodes appropriées d'analyse des tâches cognitives doivent être utilisées pour identifier le modèle d'opérateur d'un système. Un problème connexe dans le développement d'un HAS est la conception des moyens de transmission d'informations entre l'opérateur humain et les composants du système automatisé, tant au niveau physique que cognitif. Un tel transfert d'informations doit être compatible avec les modes d'information utilisés à différents niveaux de fonctionnement du système, c'est-à-dire visuels, verbaux, tactiles ou hybrides. Cette compatibilité informationnelle garantit que différentes formes de transfert d'informations nécessiteront une incompatibilité minimale entre le support et la nature de l'information. Par exemple, un affichage visuel est le meilleur pour la transmission d'informations spatiales, tandis que l'entrée auditive peut être utilisée pour transmettre des informations textuelles.

                    Très souvent, l'opérateur humain développe un modèle interne qui décrit le fonctionnement et la fonction du système en fonction de son expérience, de sa formation et de ses instructions en rapport avec le type d'interface homme-machine donné. À la lumière de cette réalité, les concepteurs d'un HAS devraient tenter d'intégrer aux machines (ou à d'autres systèmes artificiels) un modèle des caractéristiques physiques et cognitives de l'opérateur humain, c'est-à-dire l'image que le système se fait de l'opérateur (Hollnagel et Woods 1983). . Les concepteurs d'un HAS doivent également tenir compte du niveau d'abstraction dans la description du système ainsi que des différentes catégories pertinentes du comportement de l'opérateur humain. Ces niveaux d'abstraction pour modéliser le fonctionnement humain en milieu de travail sont les suivants (Rasmussen 1983) : (1) forme physique (structure anatomique), (2) fonctions physiques (fonctions physiologiques), (3) fonctions généralisées (mécanismes psychologiques et fonctions cognitives). et processus affectifs), (4) fonctions abstraites (traitement de l'information) et (5) but fonctionnel (structures de valeurs, mythes, religions, interactions humaines). Ces cinq niveaux doivent être considérés simultanément par les concepteurs afin d'assurer une performance efficace de la HAS.

                    Conception de logiciels système

                    Étant donné que le logiciel informatique est un composant principal de tout environnement HAS, le développement logiciel, y compris la conception, les tests, le fonctionnement et la modification, ainsi que les problèmes de fiabilité du logiciel doivent également être pris en compte dès les premières étapes du développement HAS. Par ce moyen, on devrait être en mesure de réduire le coût de la détection et de l'élimination des erreurs logicielles. Il est cependant difficile d'estimer la fiabilité des composantes humaines d'une HAS, en raison des limites de notre capacité à modéliser la performance des tâches humaines, la charge de travail associée et les erreurs potentielles. Une charge de travail mental excessive ou insuffisante peut conduire à une surcharge d'informations et à l'ennui, respectivement, et peut entraîner une dégradation des performances humaines, entraînant des erreurs et une augmentation de la probabilité d'accidents. Les concepteurs d'un HAS doivent utiliser des interfaces adaptatives, qui utilisent des techniques d'intelligence artificielle, pour résoudre ces problèmes. En plus de la compatibilité homme-machine, la question de l'adaptabilité homme-machine entre eux doit être considérée afin de réduire les niveaux de stress qui surviennent lorsque les capacités humaines peuvent être dépassées.

                    En raison du haut niveau de complexité de nombreux systèmes automatisés hybrides, l'identification de tout danger potentiel lié au matériel, aux logiciels, aux procédures opérationnelles et aux interactions homme-machine de ces systèmes devient essentielle au succès des efforts visant à réduire les blessures et les dommages matériels. . Les risques pour la sécurité et la santé associés aux systèmes automatisés hybrides complexes, tels que la technologie de fabrication intégrée par ordinateur (CIM), sont clairement l'un des aspects les plus critiques de la conception et du fonctionnement du système.

                    Problèmes de sécurité du système

                    Les environnements automatisés hybrides, avec leur potentiel important de comportement erratique du logiciel de contrôle dans des conditions de perturbation du système, créent une nouvelle génération de risques d'accident. À mesure que les systèmes automatisés hybrides deviennent plus polyvalents et complexes, les perturbations du système, y compris les problèmes de démarrage et d'arrêt et les déviations dans le contrôle du système, peuvent augmenter considérablement la possibilité d'un danger grave pour les opérateurs humains. Ironiquement, dans de nombreuses situations anormales, les opérateurs comptent généralement sur le bon fonctionnement des sous-systèmes de sécurité automatisés, une pratique qui peut augmenter le risque de blessures graves. Par exemple, une étude des accidents liés à des dysfonctionnements des systèmes de contrôle technique a montré qu'environ un tiers des séquences accidentelles comportaient une intervention humaine dans la boucle de contrôle du système perturbé.

                    Les mesures de sécurité traditionnelles ne pouvant être facilement adaptées aux besoins des environnements HAS, les stratégies de contrôle des blessures et de prévention des accidents doivent être reconsidérées au regard des caractéristiques inhérentes à ces systèmes. Par exemple, dans le domaine de la technologie de fabrication avancée, de nombreux processus sont caractérisés par l'existence de quantités substantielles de flux d'énergie qui ne peuvent pas être facilement anticipées par les opérateurs humains. De plus, les problèmes de sécurité apparaissent généralement aux interfaces entre les sous-systèmes ou lorsque les perturbations du système progressent d'un sous-système à l'autre. Selon l'Organisation internationale de normalisation (ISO 1991), les risques associés aux dangers dus à l'automatisation industrielle varient selon les types de machines industrielles incorporées dans le système de fabrication spécifique et selon la manière dont le système est installé, programmé, utilisé, entretenu et réparé. Par exemple, une comparaison des accidents liés aux robots en Suède avec d'autres types d'accidents a montré que les robots peuvent être les machines industrielles les plus dangereuses utilisées dans l'industrie manufacturière de pointe. Le taux d'accident estimé pour les robots industriels était d'un accident grave pour 45 années-robots, un taux supérieur à celui des presses industrielles, qui était d'un accident pour 50 années-machines. Il convient de noter ici que les presses industrielles aux États-Unis représentaient environ 23 % de tous les décès liés aux machines à travailler les métaux pour la période 1980-1985, les presses mécaniques se classant au premier rang en ce qui concerne le produit gravité-fréquence des blessures non mortelles.

                    Dans le domaine de la technologie de fabrication avancée, de nombreuses pièces mobiles sont dangereuses pour les travailleurs car elles changent de position de manière complexe en dehors du champ visuel des opérateurs humains. Les développements technologiques rapides dans la fabrication intégrée par ordinateur ont créé un besoin critique d'étudier les effets de la technologie de fabrication avancée sur les travailleurs. Afin d'identifier les dangers causés par les différentes composantes d'un tel environnement HAS, les accidents passés doivent être soigneusement analysés. Malheureusement, les accidents impliquant l'utilisation de robots sont difficiles à isoler des rapports d'accidents liés à des machines à commande humaine et, par conséquent, il peut y avoir un pourcentage élevé d'accidents non enregistrés. Les règles de santé et de sécurité au travail du Japon stipulent que "les robots industriels ne disposent pas actuellement de moyens de sécurité fiables et les travailleurs ne peuvent en être protégés que si leur utilisation est réglementée". Par exemple, les résultats de l'enquête menée par le ministère du Travail du Japon (Sugimoto 1987) sur les accidents liés aux robots industriels dans les 190 usines étudiées (avec 4,341 300 robots en activité) ont montré qu'il y avait 37 perturbations liées aux robots, dont 9 cas des actes dangereux ont entraîné des quasi-accidents, 2 étaient des accidents causant des blessures et XNUMX étaient des accidents mortels. Les résultats d'autres études indiquent que l'automatisation informatisée n'augmente pas nécessairement le niveau global de sécurité, car le matériel du système ne peut pas être rendu sûr par les fonctions de sécurité du logiciel informatique seul, et les contrôleurs du système ne sont pas toujours très fiables. De plus, dans un HAS complexe, on ne peut pas dépendre exclusivement des dispositifs de détection de sécurité pour détecter les conditions dangereuses et entreprendre des stratégies appropriées d'évitement des dangers.

                    Effets de l'automatisation sur la santé humaine

                    Comme indiqué ci-dessus, les activités des travailleurs dans de nombreux environnements HAS sont essentiellement celles du contrôle de la supervision, de la surveillance, de l'assistance et de la maintenance du système. Ces activités peuvent également être classées en quatre groupes de base comme suit : (1) tâches de programmation, c'est-à-dire codage des informations qui guident et dirigent le fonctionnement des machines, (2) surveillance des composants de production et de contrôle du HAS, (3) maintenance des composants du HAS pour prévenir ou atténuer les dysfonctionnements des machines, et (4) effectuer diverses tâches de soutien, etc. , travailler dans un environnement HAS peut être insatisfaisant et stressant pour les travailleurs. Les sources de stress comprenaient la surveillance constante requise dans de nombreuses applications HAS, la portée limitée des activités attribuées, le faible niveau d'interaction des travailleurs permis par la conception du système et les risques pour la sécurité associés à la nature imprévisible et incontrôlable de l'équipement. Même si certains travailleurs impliqués dans les activités de programmation et d'entretien ressentent des éléments de défi, ce qui peut avoir des effets positifs sur leur bien-être, ces effets sont souvent compensés par la nature complexe et exigeante de ces activités, ainsi que par la pression exercé par la direction pour mener à bien ces activités rapidement.

                    Bien que dans certains environnements HAS les opérateurs humains soient éloignés des sources d'énergie traditionnelles (flux de travail et mouvement de la machine) dans des conditions normales de fonctionnement, de nombreuses tâches dans les systèmes automatisés doivent encore être effectuées en contact direct avec d'autres sources d'énergie. Le nombre de composants différents du HAS étant en constante augmentation, un accent particulier doit être mis sur le confort et la sécurité des travailleurs et sur le développement de dispositifs efficaces de contrôle des blessures, d'autant plus que les travailleurs ne sont plus en mesure de suivre le la sophistication et la complexité de tels systèmes.

                    Afin de répondre aux besoins actuels en matière de contrôle des blessures et de sécurité des travailleurs dans les systèmes de fabrication intégrés par ordinateur, le comité ISO sur les systèmes d'automatisation industrielle a proposé une nouvelle norme de sécurité intitulée "Sécurité des systèmes de fabrication intégrés" (1991). Cette nouvelle norme internationale, qui a été développée en reconnaissance des risques particuliers qui existent dans les systèmes de fabrication intégrés incorporant des machines industrielles et des équipements associés, vise à minimiser les risques de blessures pour le personnel travaillant sur ou à proximité d'un système de fabrication intégré. Les principales sources de dangers potentiels pour les opérateurs humains dans le CIM identifiées par cette norme sont présentées dans la figure 1.

                    Figure 1. Principale source de dangers dans la fabrication intégrée par ordinateur (CIM) (après ISO 1991)

                    ACC250T1

                    Erreurs humaines et système

                    En général, les dangers dans un HAS peuvent provenir du système lui-même, de son association avec d'autres équipements présents dans l'environnement physique ou des interactions du personnel humain avec le système. Un accident n'est que l'un des nombreux résultats des interactions homme-machine qui peuvent survenir dans des conditions dangereuses ; les quasi-accidents et les incidents avec dommages sont beaucoup plus fréquents (Zimolong et Duda 1992). L'apparition d'une erreur peut entraîner l'une des conséquences suivantes : (1) l'erreur reste inaperçue, (2) le système peut compenser l'erreur, (3) l'erreur entraîne une panne de la machine et/ou un arrêt du système ou (4 ) l'erreur entraîne un accident.

                    Étant donné que toutes les erreurs humaines qui entraînent un incident critique ne causeront pas un véritable accident, il convient de distinguer davantage les catégories de résultats comme suit : (1) un incident dangereux (c'est-à-dire tout événement non intentionnel, qu'il entraîne des blessures, des dommages ou perte), (2) un accident (c'est-à-dire un événement dangereux entraînant une blessure, un dommage ou une perte), (3) un incident dommageable (c'est-à-dire un événement dangereux qui n'entraîne qu'un certain type de dommage matériel), (4) un quasi-accident ou « quasi-accident » (c'est-à-dire, un événement dangereux dans lequel une blessure, un dommage ou une perte a été évité fortuitement par une faible marge) et (5) l'existence d'un potentiel d'accident (c'est-à-dire, des événements dangereux qui auraient pu entraîner des blessures, des dommages , ou perte, mais, en raison des circonstances, n'a pas entraîné même un quasi-accident).

                    On peut distinguer trois types fondamentaux d'erreur humaine dans une HAS :

                      1. dérapages et manquements basés sur les compétences
                      2. erreurs basées sur des règles
                      3. erreurs fondées sur la connaissance.

                           

                          Cette taxonomie, conçue par Reason (1990), est basée sur une modification de la classification compétence-règle-connaissance de la performance humaine de Rasmussen telle que décrite ci-dessus. Au niveau des compétences, la performance humaine est régie par des modèles stockés d'instructions préprogrammées représentées sous forme de structures analogiques dans un domaine spatio-temporel. Le niveau basé sur des règles s'applique à la résolution de problèmes familiers dans lesquels les solutions sont régies par des règles stockées (appelées "productions", car elles sont consultées ou produites au besoin). Ces règles exigent que certains diagnostics (ou jugements) soient posés, ou que certaines actions correctives soient prises, étant donné que certaines conditions sont apparues qui exigent une réponse appropriée. À ce niveau, les erreurs humaines sont généralement associées à une mauvaise classification des situations, conduisant soit à l'application de la mauvaise règle, soit au rappel incorrect des jugements ou des procédures qui en découlent. Les erreurs basées sur les connaissances se produisent dans des situations nouvelles pour lesquelles des actions doivent être planifiées « en ligne » (à un moment donné), en utilisant des processus analytiques conscients et des connaissances stockées. Les erreurs à ce niveau proviennent de ressources limitées et de connaissances incomplètes ou incorrectes.

                          Les systèmes génériques de modélisation des erreurs (GEMS) proposés par Reason (1990), qui tentent de localiser les origines des types d'erreurs humaines de base, peuvent être utilisés pour dériver la taxonomie globale du comportement humain dans un HAS. GEMS cherche à intégrer deux domaines distincts de recherche sur les erreurs : (1) les dérapages et les défaillances, dans lesquels les actions s'écartent de l'intention actuelle en raison d'échecs d'exécution et/ou de stockage et (2) les erreurs, dans lesquelles les actions peuvent se dérouler conformément au plan, mais le plan est insuffisant pour atteindre le résultat souhaité.

                          Évaluation et prévention des risques en CIM

                          Selon l'ISO (1991), l'évaluation des risques dans le CIM doit être effectuée de manière à minimiser tous les risques et à servir de base pour déterminer les objectifs et les mesures de sécurité lors de l'élaboration de programmes ou de plans à la fois pour créer un environnement de travail sûr et pour assurer également la sécurité et la santé du personnel. Par exemple, les risques professionnels dans les environnements HAS basés sur la fabrication peuvent être caractérisés comme suit : (1) l'opérateur humain peut avoir besoin d'entrer dans la zone dangereuse pendant les tâches de récupération après perturbation, d'entretien et de maintenance, (2) la zone dangereuse est difficile à déterminer, à percevoir et à contrôler, (3) le travail peut être monotone et (4) les accidents survenant au sein des systèmes de fabrication intégrés par ordinateur sont souvent graves. Chaque danger identifié doit être évalué pour son risque, et des mesures de sécurité appropriées doivent être déterminées et mises en œuvre pour minimiser ce risque. Les dangers doivent également être déterminés en ce qui concerne tous les aspects suivants d'un processus donné : l'unité elle-même ; l'interaction entre les unités individuelles ; les sections d'exploitation du système ; et le fonctionnement du système complet pour tous les modes et conditions de fonctionnement prévus, y compris les conditions dans lesquelles les moyens de protection normaux sont suspendus pour des opérations telles que la programmation, la vérification, le dépannage, la maintenance ou la réparation.

                          La phase de conception de la stratégie de sécurité ISO (1991) pour le CIM comprend :

                            • spécification des limites des paramètres du système
                            • application d'une stratégie de sécurité
                            • identification des dangers
                            • évaluation des risques associés
                            • la suppression des dangers ou la diminution des risques autant que possible.

                                     

                                    La spécification de sécurité du système doit inclure :

                                      • une description des fonctions du système
                                      • une configuration et/ou un modèle de système
                                      • les résultats d'une enquête entreprise pour étudier l'interaction de différents processus de travail et activités manuelles
                                      • une analyse des séquences de processus, y compris l'interaction manuelle
                                      • une description des interfaces avec les lignes de convoyage ou de transport
                                      • organigrammes de processus
                                      • plans de fondation
                                      • les plans des dispositifs d'alimentation et d'évacuation
                                      • détermination de l'espace requis pour l'approvisionnement et l'élimination du matériel
                                      • dossiers d'accidents disponibles.

                                                         

                                                        Conformément à la norme ISO (1991), toutes les exigences nécessaires pour assurer un fonctionnement sûr du système CIM doivent être prises en compte dans la conception des procédures systématiques de planification de la sécurité. Cela inclut toutes les mesures de protection pour réduire efficacement les dangers et nécessite :

                                                          • intégration de l'interface homme-machine
                                                          • définition précoce de la position des acteurs du système (dans le temps et dans l'espace)
                                                          • réflexion précoce sur les moyens de réduire le travail isolé
                                                          • prise en compte des aspects environnementaux.

                                                               

                                                              La procédure de planification de la sécurité devrait aborder, entre autres, les problèmes de sécurité suivants du CIM :

                                                                • Sélection des modes de fonctionnement du système. L'équipement de contrôle doit prévoir au moins les modes de fonctionnement suivants : (1) mode normal ou mode de production (c'est-à-dire avec toutes les protections normales connectées et en fonctionnement), (2) fonctionnement avec certaines des protections normales suspendues et (3) fonctionnement en quel système ou déclenchement manuel à distance de situations dangereuses est empêché (par exemple, dans le cas d'un fonctionnement local ou d'une isolation de l'alimentation ou d'un blocage mécanique de conditions dangereuses).
                                                                • Formation, installation, mise en service et tests fonctionnels. Lorsque du personnel doit se trouver dans la zone dangereuse, les mesures de sécurité suivantes doivent être prévues dans le système de commande : (1) actionnement maintenu, (2) dispositif d'activation, (3) vitesse réduite, (4) puissance réduite et (5 ) arrêt d'urgence mobile.
                                                                • Sécurité dans la programmation, la maintenance et la réparation du système. Pendant la programmation, seul le programmeur doit être autorisé dans l'espace protégé. Le système devrait avoir des procédures d'inspection et d'entretien en place pour assurer la poursuite du fonctionnement prévu du système. Le programme d'inspection et d'entretien doit tenir compte des recommandations du fournisseur du système et de celles des fournisseurs des différents éléments des systèmes. Il est à peine besoin de mentionner que le personnel qui effectue la maintenance ou les réparations sur le système doit être formé aux procédures nécessaires pour effectuer les tâches requises.
                                                                • Élimination des défauts. Lorsque l'élimination du défaut est nécessaire depuis l'intérieur de l'espace protégé, elle doit être effectuée après la déconnexion de sécurité (ou, si possible, après l'actionnement d'un mécanisme de consignation). Des mesures supplémentaires contre le déclenchement erroné de situations dangereuses doivent être prises. Lorsque des dangers peuvent survenir lors de l'élimination des défauts sur des sections de l'installation ou sur les machines d'installations ou de machines voisines, celles-ci doivent également être mises hors service et protégées contre tout démarrage inattendu. Au moyen d'instructions et de panneaux d'avertissement, il convient d'attirer l'attention sur l'élimination des défauts dans les composants du système qui ne peuvent pas être observés complètement.

                                                                       

                                                                      Contrôle des perturbations du système

                                                                      Dans de nombreuses installations HAS utilisées dans le domaine de la fabrication intégrée par ordinateur, des opérateurs humains sont généralement nécessaires pour contrôler, programmer, entretenir, prérégler, entretenir ou dépanner les tâches. Les perturbations du système entraînent des situations qui obligent les travailleurs à pénétrer dans les zones dangereuses. À cet égard, on peut supposer que les perturbations restent la principale cause d'interférence humaine dans le CIM, car les systèmes seront le plus souvent programmés depuis l'extérieur des zones réglementées. L'un des problèmes les plus importants pour la sécurité du CIM est de prévenir les perturbations, car la plupart des risques surviennent lors de la phase de dépannage du système. L'évitement des perturbations est l'objectif commun en termes de sécurité et de rentabilité.

                                                                      Une perturbation dans un système CIM est un état ou une fonction d'un système qui s'écarte de l'état prévu ou souhaité. Outre la productivité, les perturbations pendant le fonctionnement d'un CIM ont un effet direct sur la sécurité des personnes impliquées dans l'exploitation du système. Une étude finlandaise (Kuivanen 1990) a montré qu'environ la moitié des perturbations dans la fabrication automatisée diminuent la sécurité des travailleurs. Les principales causes de perturbations étaient les erreurs de conception du système (34 %), les défaillances des composants du système (31 %), les erreurs humaines (20 %) et les facteurs externes (15 %). La plupart des pannes de machine ont été causées par le système de contrôle et, dans le système de contrôle, la plupart des pannes se sont produites dans les capteurs. Un moyen efficace d'augmenter le niveau de sécurité des installations CIM est de réduire le nombre de perturbations. Si les actions humaines dans les systèmes perturbés préviennent la survenue d'accidents dans l'environnement HAS, elles y contribuent également. Par exemple, une étude des accidents liés à des dysfonctionnements des systèmes de contrôle technique a montré qu'environ un tiers des séquences accidentelles comportaient une intervention humaine dans la boucle de contrôle du système perturbé.

                                                                      Les principales problématiques de recherche en prévention des perturbations CIM concernent (1) les causes majeures des perturbations, (2) les composants et fonctions non fiables, (3) l'impact des perturbations sur la sûreté, (4) l'impact des perturbations sur le fonctionnement du système, ( 5) dégâts matériels et (6) réparations. La sécurité du HAS doit être planifiée dès le stade de la conception du système, en tenant dûment compte de la technologie, des personnes et de l'organisation, et faire partie intégrante du processus de planification technique global du HAS.

                                                                      Conception HAS : les enjeux futurs

                                                                      Pour assurer le meilleur bénéfice des systèmes automatisés hybrides comme discuté ci-dessus, une vision beaucoup plus large du développement du système, basée sur l'intégration des personnes, de l'organisation et de la technologie, est nécessaire. Trois principaux types d'intégration de système doivent être appliqués ici :

                                                                        1. l'intégration des personnes, en assurant une communication efficace entre eux
                                                                        2. intégration homme-ordinateur, en concevant des interfaces et des interactions adaptées entre les personnes et les ordinateurs
                                                                        3. intégration technologique, en assurant un interfaçage et des interactions efficaces entre les machines.

                                                                             

                                                                            Les exigences de conception minimales pour les systèmes automatisés hybrides doivent inclure les éléments suivants : (1) flexibilité, (2) adaptation dynamique, (3) amélioration de la réactivité et (4) nécessité de motiver les personnes et de mieux utiliser leurs compétences, leur jugement et leur expérience. . Ce qui précède nécessite également que les structures organisationnelles, les pratiques de travail et les technologies de la HAS soient développées pour permettre aux personnes à tous les niveaux du système d'adapter leurs stratégies de travail à la variété des situations de contrôle des systèmes. Ainsi, les organisations, les pratiques de travail et les technologies de la HAS devront être conçues et développées comme des systèmes ouverts (Kidd 1994).

                                                                            Un système automatisé hybride ouvert (OHAS) est un système qui reçoit des entrées et envoie des sorties à son environnement. L'idée d'un système ouvert peut s'appliquer non seulement aux architectures des systèmes et aux structures organisationnelles, mais aussi aux pratiques de travail, aux interfaces homme-machine et à la relation entre les personnes et les technologies : on peut citer, par exemple, les systèmes d'ordonnancement, les systèmes de contrôle et systèmes d'aide à la décision. Un système ouvert est aussi un système adaptatif lorsqu'il laisse aux gens une grande liberté pour définir le mode de fonctionnement du système. Par exemple, dans le domaine de la fabrication de pointe, les exigences d'un système automatisé hybride ouvert peuvent être réalisées grâce au concept de fabrication humaine et intégrée par ordinateur (HCIM). De ce point de vue, la conception de la technologie doit aborder l'architecture globale du système HCIM, y compris les éléments suivants : (1) les considérations du réseau de groupes, (2) la structure de chaque groupe, (3) l'interaction entre les groupes, (4) la nature du logiciel de support et (5) les besoins techniques de communication et d'intégration entre les modules logiciels de support.

                                                                            Le système automatisé hybride adaptatif, par opposition au système fermé, ne limite pas ce que les opérateurs humains peuvent faire. Le rôle du concepteur d'un HAS est de créer un système qui satisfera les préférences personnelles de l'utilisateur et permettra à ses utilisateurs de travailler de la manière qu'ils jugent la plus appropriée. Une condition préalable à l'autorisation de la contribution des utilisateurs est le développement d'une méthodologie de conception adaptative, c'est-à-dire un OHAS qui permet d'activer une technologie assistée par ordinateur pour sa mise en œuvre dans le processus de conception. La nécessité de développer une méthodologie pour la conception adaptative est l'une des exigences immédiates pour réaliser le concept OHAS dans la pratique. Un nouveau niveau de technologie de contrôle de supervision humaine adaptative doit également être développé. Une telle technologie devrait permettre à l'opérateur humain de "voir à travers" le système de contrôle autrement invisible du fonctionnement du HAS, par exemple, en appliquant un système vidéo interactif à grande vitesse à chaque point de contrôle et d'exploitation du système. Enfin, une méthodologie pour le développement d'un support informatisé intelligent et hautement adaptatif des rôles humains et du fonctionnement humain dans les systèmes automatisés hybrides est également très nécessaire.

                                                                             

                                                                            Retour

                                                                            Lire 5256 fois Dernière modification le samedi, 30 Juillet 2022 01: 45

                                                                            " AVIS DE NON-RESPONSABILITÉ : L'OIT n'assume aucune responsabilité pour le contenu présenté sur ce portail Web qui est présenté dans une langue autre que l'anglais, qui est la langue utilisée pour la production initiale et l'examen par les pairs du contenu original. Certaines statistiques n'ont pas été mises à jour depuis la production de la 4ème édition de l'Encyclopédie (1998)."

                                                                            Table des matières

                                                                            Références des applications de sécurité

                                                                            Arteau, J, A Lan et JF Corveil. 1994. Utilisation des lignes de vie horizontales dans l'érection de structures en acier. Actes du symposium international sur la protection contre les chutes, San Diego, Californie (27-28 octobre 1994). Toronto : Société internationale de protection contre les chutes.

                                                                            Backström, T. 1996. Risque d'accident et protection de la sécurité dans la production automatisée. Thèse de doctorat. Arbete och Hälsa 1996:7. Solna : Institut national de la vie active.

                                                                            Backström, T et L Harms-Ringdahl. 1984. Une étude statistique des systèmes de contrôle et des accidents du travail. J Occup Acc. 6:201–210.

                                                                            Backström, T et M Döös. 1994. Défauts techniques à l'origine des accidents dans la production automatisée. Dans Advances in Agile Manufacturing, édité par PT Kidd et W Karwowski. Amsterdam : Presse IOS.

                                                                            —. 1995. Une comparaison des accidents du travail dans les industries à technologie manufacturière de pointe. Int J Hum Factors Manufac. 5(3). 267–282.

                                                                            —. Dans la presse. La genèse technique des pannes de machines conduisant à des accidents du travail. Int J Ind Ergonomie.

                                                                            —. Accepté pour publication. Fréquences absolues et relatives des accidents d'automatisation sur différents types d'équipements et pour différents groupes professionnels. J Saf Rés.

                                                                            Bainbridge, L. 1983. Ironies de l'automatisation. Automatica 19: 775–779.

                                                                            Bell, R et D Reinert. 1992. Concepts de risque et d'intégrité du système pour les systèmes de contrôle liés à la sécurité. Saf Sei 15:283–308.

                                                                            Bouchard, P. 1991. Échafaudages. Guide série 4. Montréal : CSST.

                                                                            Bureau des affaires nationales. 1975. Normes de sécurité et de santé au travail. Structures de protection en cas de retournement pour matériel de manutention et tracteurs, sections 1926, 1928. Washington, DC : Bureau des affaires nationales.

                                                                            Corbett, JM. 1988. L'ergonomie dans le développement de l'AMT centré sur l'humain. Ergonomie appliquée 19: 35–39.

                                                                            Culver, C et C Connolly. 1994. Empêcher les chutes mortelles dans la construction. Saf Health septembre 1994 : 72–75.

                                                                            Deutsche Industrie Normen (DIN). 1990. Grundsätze für Rechner in Systemen mit Sicherheitsauffgaben. DIN V VDE 0801. Berlin : Beuth Verlag.

                                                                            —. 1994. Grundsätze für Rechner in Systemen mit Sicherheitsauffgaben Änderung A 1. DIN V VDE 0801/A1. Berlin : Beth Verlag.

                                                                            —. 1995a. Sicherheit von Maschinen—Druckempfindliche Schutzeinrichtungen [Sécurité des machines — Équipement de protection sensible à la pression]. DIN prEN 1760. Berlin : Beuth Verlag.

                                                                            —. 1995b. Rangier-Warneinrichtungen—Anforderungen und Prüfung [Véhicules utilitaires — détection d'obstacles en marche arrière — exigences et essais]. Norme DIN 75031. Février 1995.

                                                                            Döös, M et T Backström. 1993. Description des accidents dans la manutention automatisée des matériaux. Dans Ergonomics of Materials Handling and Information Processing at Work, édité par WS Marras, W Karwowski, JL Smith et L Pacholski. Varsovie : Taylor et Francis.

                                                                            —. 1994. Les perturbations de la production comme risque d'accident. Dans Advances in Agile Manufacturing, édité par PT Kidd et W Karwowski. Amsterdam : Presse IOS.

                                                                            Communauté économique européenne (CEE). 1974, 1977, 1979, 1982, 1987. Directives du Conseil sur les structures de protection contre le renversement des tracteurs agricoles et forestiers à roues. Bruxelles : CEE.

                                                                            —. 1991. Directive du Conseil sur le rapprochement des législations des États membres relatives aux machines. (91/368/CEE) Luxembourg : CEE.

                                                                            Etherton, JR et ML Myers. 1990. Recherche sur la sécurité des machines au NIOSH et orientations futures. Int J Ind Erg 6: 163–174.

                                                                            Freund, E, F Dierks et J Roßmann. 1993. Unterschungen zum Arbeitsschutz bei Mobilen Rototern und Mehrrobotersystemen [Tests de sécurité au travail des robots mobiles et des systèmes de robots multiples]. Dortmund : Schriftenreihe der Bundesanstalt für Arbeitsschutz.

                                                                            Goble, W. 1992. Évaluation de la fiabilité du système de contrôle. New York : Société d'instruments d'Amérique.

                                                                            Goodstein, LP, HB Anderson et SE Olsen (eds.). 1988. Tâches, erreurs et modèles mentaux. Londres : Taylor et Francis.

                                                                            Gryfe, CI. 1988. Causes et prévention des chutes. Dans Symposium international sur la protection contre les chutes. Orlando : Société internationale de protection contre les chutes.

                                                                            Directeur de la santé et de la sécurité. 1989. Statistiques sur la santé et la sécurité 1986–87. Employez Gaz 97(2).

                                                                            Heinrich, HW, D Peterson et N Roos. 1980. Prévention des accidents industriels. 5e éd. New York : McGraw Hill.

                                                                            Hollnagel, E, et D Woods. 1983. Ingénierie des systèmes cognitifs : Nouveau vin dans de nouvelles bouteilles. Int J Man Machine Stud 18: 583–600.

                                                                            Hölscher, H et J Rader. 1984. Microcomputer in der Sicherheitstechnik. Rheinland : Verlag TgV-Reinland.

                                                                            Hörte, S-Å et P Lindberg. 1989. Diffusion et mise en œuvre des technologies de fabrication avancées en Suède. Document de travail n° 198:16. Institut d'innovation et de technologie.

                                                                            Commission électrotechnique internationale (CEI). 1992. 122 Projet de norme : Logiciels pour ordinateurs dans l'application de systèmes liés à la sécurité industrielle. CEI 65 (Sec). Genève : CEI.

                                                                            —. 1993. 123 Projet de norme : Sécurité fonctionnelle des systèmes électriques/électroniques/électroniques programmables ; Aspects génériques. Partie 1, Exigences générales Genève : CEI.

                                                                            Organisation internationale du travail (OIT). 1965. Sécurité et santé dans le travail agricole. Genève : OIT.

                                                                            —. 1969. Sécurité et santé dans les travaux forestiers. Genève : OIT.

                                                                            —. 1976. Construction et utilisation sécuritaires des tracteurs. Un recueil de directives pratiques du BIT. Genève : OIT.

                                                                            Organisation internationale de normalisation (ISO). 1981. Tracteurs agricoles et forestiers à roues. Ouvrages de protection. Méthode d'essai statique et conditions d'acceptation. ISO 5700. Genève : ISO.

                                                                            —. 1990. Normes de gestion de la qualité et d'assurance qualité : Lignes directrices pour l'application de la norme ISO 9001 au développement, à la fourniture et à la maintenance de logiciels. ISO 9000-3. Genève : ISO.

                                                                            —. 1991. Systèmes d'automatisation industrielle—Sécurité des systèmes de fabrication intégrés—Exigences de base (CD 11161). TC 184/WG 4. Genève : ISO.

                                                                            —. 1994. Véhicules utilitaires—Dispositif de détection d'obstacles en marche arrière—Exigences et essais. Rapport technique TR 12155. Genève : ISO.

                                                                            Johnson, B. 1989. Conception et analyse de systèmes numériques tolérants aux pannes. New York : Addison Wesley.

                                                                            Kidd, P. 1994. Fabrication automatisée basée sur les compétences. Dans Organisation and Management of Advanced Manufacturing Systems, édité par W Karwowski et G Salvendy. New York : Wiley.

                                                                            Knowlton, RE. 1986. Une introduction aux études sur les risques et l'exploitabilité : l'approche du mot guide. Vancouver, C.-B. : Chimie.

                                                                            Kuivanen, R. 1990. L'impact sur la sécurité des perturbations dans les systèmes de fabrication flexibles. Dans Ergonomics of Hybrid Automated Systems II, édité par W Karwowski et M Rahimi. Amsterdam : Elsevier.

                                                                            Laeser, RP, WI McLaughlin et DM Wolff. 1987. Fernsteurerung und Fehlerkontrolle von Voyager 2. Spektrum der Wissenshaft (1):S. 60–70.

                                                                            Lan, A, J Arteau et JF Corbeil. 1994. Protection contre les chutes des panneaux d'affichage hors sol. International Fall Protection Symposium, San Diego, Californie, 27-28 octobre 1994. Actes International Society for Fall Protection.

                                                                            Langer, HJ et W Kurfürst. 1985. Einsatz von Sensoren zur Absicherung des Rückraumes von Großfahrzeugen [Utilisation de capteurs pour sécuriser la zone derrière les gros véhicules]. FB 605. Dortmund : Schriftenreihe der bundesanstalt für Arbeitsschutz.

                                                                            Levenson, NG. 1986. Sécurité des logiciels : pourquoi, quoi et comment. Enquêtes informatiques ACM (2):S. 129–163.

                                                                            McManus, TN. Sd Espaces confinés. Manuscrit.

                                                                            Microsonic GmbH. 1996. Communication d'entreprise. Dortmund, Allemagne : Microsonic.

                                                                            Mester, U, T Herwig, G Dönges, B Brodbeck, HD Bredow, M Behrens et U Ahrens. 1980. Gefahrenschutz durch passive Infrarot-Sensoren (II) [Protection contre les dangers par les capteurs infrarouges]. FB 243. Dortmund : Schriftenreihe der bundesanstalt für Arbeitsschutz.

                                                                            Mohan, D et R Patel. 1992. Conception d'équipements agricoles plus sûrs : Application de l'ergonomie et de l'épidémiologie. Int J Ind Erg 10:301–310.

                                                                            Association nationale de protection contre les incendies (NFPA). 1993. NFPA 306 : Contrôle des risques de gaz sur les navires. Quincy, MA : NFPA.

                                                                            Institut national pour la sécurité et la santé au travail (NIOSH). 1994. Décès de travailleurs dans des espaces confinés. Cincinnati, OH, États-Unis : DHHS/PHS/CDCP/NIOSH Pub. N° 94-103. NIOSH.

                                                                            Neumann, PG. 1987. Les N meilleurs (ou pires) cas de risques liés à l'informatique. IEEE T Syst Man Cyb. New York : S.11–13.

                                                                            —. 1994. Risques illustratifs pour le public dans l'utilisation des systèmes informatiques et des technologies connexes. Notes du moteur logiciel SIGSOFT 19, No. 1:16–29.

                                                                            Administration de la sécurité et de la santé au travail (OSHA). 1988. Décès professionnels sélectionnés liés au soudage et au coupage, tels que trouvés dans les rapports d'enquêtes sur les décès/catastrophes de l'OSHA. Washington, DC : OSHA.

                                                                            Organisation de coopération et de développement économiques (OCDE). 1987. Codes standard pour les essais officiels des tracteurs agricoles. Paris : OCDE.

                                                                            Organisme professionnel de prévention du bâtiment et des travaux publics (OPPBTP). 1984. Les équipements individuels de protection contre les chutes de hauteur. Boulogne-Bilancourt, France : OPPBTP.

                                                                            Rasmussen, J. 1983. Compétences, règles et connaissances : ordre du jour, signes et symboles, et autres distinctions dans les modèles de performance humaine. Transactions IEEE sur les systèmes, l'homme et la cybernétique. SMC13(3) : 257–266.

                                                                            Reason, J. 1990. Erreur humaine. New York : Cambridge University Press.

                                                                            Reese, CD et GR Mills. 1986. L'épidémiologie traumatique des décès en espace confiné et son application à l'intervention/prévention maintenant. Dans L'évolution de la nature du travail et de la main-d'œuvre. Cincinnati, Ohio : NIOSH.

                                                                            Reinert, D et G Reuss. 1991. Sicherheitstechnische Beurteilung und Prüfung mikroprozessorgesteuerter
                                                                            Sicherheitseinrichtungen. Dans BIA-Handbuch. Sicherheitstechnisches Informations-und Arbeitsblatt 310222. Bielefeld : Erich Schmidt Verlag.

                                                                            Société des ingénieurs automobiles (SAE). 1974. Protection des opérateurs pour les équipements industriels. Norme SAE j1042. Warrendale, États-Unis : SAE.

                                                                            —. 1975. Critères de performance pour la protection contre le retournement. Pratique recommandée par la SAE. Norme SAE j1040a. Warrendale, États-Unis : SAE.

                                                                            Schreiber, P. 1990. Entwicklungsstand bei Rückraumwarneinrichtungen [État de l'évolution des dispositifs d'avertissement de zone arrière]. Technische Überwachung, Nr. 4, avril, S. 161.

                                                                            Schreiber, P et K Kuhn. 1995. Informationstechnologie in der Fertigungstechnik [Technologie de l'information dans la technique de production, série de l'Institut fédéral pour la sécurité et la santé au travail]. FB 717. Dortmund : Schriftenreihe der bundesanstalt für Arbeitsschutz.

                                                                            Sheridan, T. 1987. Contrôle de surveillance. In Handbook of Human Factors, édité par G. Salvendy. New York : Wiley.

                                                                            Springfeldt, B. 1993. Effets des règles et mesures de sécurité au travail avec une attention particulière aux blessures. Avantages des solutions fonctionnant automatiquement. Stockholm : Institut royal de technologie, Département des sciences du travail.

                                                                            Sugimoto, N. 1987. Sujets et problèmes de la technologie de sécurité des robots. Dans Occupational Safety and Health in Automation and Robotics, édité par K Noto. Londres : Taylor & Francis. 175.

                                                                            Sulowski, AC (éd.). 1991. Principes fondamentaux de la protection contre les chutes. Toronto, Canada : Société internationale de protection contre les chutes.

                                                                            Wehner, T. 1992. Sicherheit als Fehlerfreundlichkeit. Opladen : Westdeutscher Verlag.

                                                                            Zimolong, B et L Duda. 1992. Stratégies de réduction des erreurs humaines dans les systèmes de fabrication avancés. Dans Human-robot Interaction, édité par M Rahimi et W Karwowski. Londres : Taylor & Francis.