Risques et opportunités de l'intelligence artificielle en santé sécurité au travail : 10 points essentiels
Contexte
Le développement de l’intelligence artificielle (IA) a été exponentiel depuis les années 1990. Dans le domaine du travail, l’IA se déploie dans de nombreux secteurs (logistique, finance, commerce de gros, etc.), notamment pour améliorer la santé et la sécurité des travailleurs. Il est important que l’employeur prenne en compte les impacts potentiels positifs, mais aussi négatifs de l’IA sur la santé et la sécurité de ses salariés et qu’il évalue les risques professionnels associés.
L’IA n’est pas un domaine nouveau. Les publications scientifiques sur le sujet ont commencé à apparaître dans les années 1980 et les brevets technologiques sont arrivés dans les années 1990. La conférence de Dartmouth de 1956 est considérée comme l’acte de naissance de l’IA en tant que domaine de recherche autonome. Les années 60 ont connu beaucoup d’enthousiasme et de promesses concernant l’IA. Deux « hivers » ont eu lieu dans les années 70 puis 90 (retombée de l’engouement). Depuis les années 2000 et l’apparition des premières applications pour le web, le développement de l’IA a accéléré notamment avec l’apprentissage profond ou plus récemment ChatGPT.
Aujourd’hui, l’IA est en plein essor et il n’y a pas de « troisième hiver » en perspective. Elle a permis des avancées remarquables dans des domaines comme la reconnaissance d’images, le traitement de la parole (Siri, Alexa, etc.), la langue naturelle (traduction, synthèse, etc.), les jeux (dames, échecs, etc.), l’aide à la décision (banque, finance, santé, etc.), la science ou encore la publicité (recommandations personnalisées, etc.).
1. Qu’est-ce que l’intelligence artificielle ?
De nombreuses définitions de l’IA existent et aucune ne fait consensus. L’INRS en a retenu trois dans le cadre d’un exercice prospectif que l’institut a réalisé en 2022 sur « L’intelligence artificielle au service de la santé et sécurité au travail - Enjeux et perspectives à l’horizon 2035 » (INRS, L’intelligence artificielle au service de la santé et de la sécurité au travail, enjeux et perspectives à l’horizon 2035, 18 nov. 2022).
Ces trois définitions sont complémentaires et recensent :
- les capacités données à des machines de réaliser des tâches nécessitant de l’intelligence quand elles sont réalisées par des humains ;
- des exemples d’applications de ces capacités ;
- des technologies au service de ces fonctions.
La Commission européenne a publié en 2018 sa propre définition de l’IA. Elle affirme que « même s’il n’y a pas de définition consensuelle, le terme "IA" fait référence à des systèmes qui exhibent des comportements intelligents en analysant leur environnement et en effectuant des actions avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques. Les systèmes d’IA peuvent être purement logiciels, agissant sur le monde virtuel. Des exemples sont les agents conversationnels, les logiciels d’analyse d’images, les moteurs de recherche et les systèmes de reconnaissance de visages. D’autres systèmes d’IA sont ceux où l’IA est embarquée dans des appareils, comme les robots avancés, les voitures autonomes, les drones ou les applications de l’Internet des Objets. En contraste avec les systèmes d’IA logiciels, de tels systèmes perçoivent leur environnement grâce à des capteurs, et agissent dessus ou s’y déplacent, exigeant donc des mesures de sécurité plus robustes ».
Les deux autres définitions retenues par l’INRS proviennent de la Commission d’enrichissement de la langue française et de l’Académie des Technologies.
2. Quelles sont ses applications possibles ?
L’IA peut intervenir dans de nombreux aspects du travail tels que :
- l’automatisation des tâches répétitives et chronophages ;
- l’assistance à la prise de décision commerciale et opérationnelle ;
- l’optimisation des processus afin de diminuer les coûts et gagner en productivité ;
- l’assistance virtuelle pour les salariés et les clients ;
- l’analyse prédictive des risques professionnels qui s’appuie sur les données de l’entreprise telles que l’historique des incidents, accidents, presqu’accidents, maladies professionnelles, etc. ;
- la réalité augmentée ou virtuelle dans le but d’améliorer l’entraînement des travailleurs sur des procédures complexes ;
- la surveillance des pratiques des salariés, avec notamment la vidéosurveillance.
En matière d’usage, pour l’ensemble des secteurs d’activité, les systèmes d’IA sont utilisés pour la détection de défauts et d’anomalies (35 %), les machines autonomes (19 %), les chatbots (dialogueur ou agent conversationnel) et callbots (agent conversationnel vocal - 16 %), la prédiction (14 %), la vision (11 %), ainsi que l’aspect linguistique (traduction, gestion de l’information - 5 %) (LaborIA - Jean Condé - Yann Ferguson, Usages et impacts de l’IA sur le travail au prisme des décideurs - Rapport d’enquête, 13 mars 2023).
3. Quels sont les secteurs utilisateurs ?
Selon l’enquête « Les employeurs face à l’intelligence artificielle » réalisée par Pôle emploi en juin 2023, 33 % des établissements utilisent des technologies liées à l’IA. Ce chiffre monte même à 45 % pour les établissements de plus de 200 salariés (Pôle emploi, Les employeurs face à l’intelligence artificielle, 15 juin 2023).
L’industrie est le secteur dans lequel l’utilisation des systèmes d’IA est la plus mature avec 86 % des projets déjà déployés et utilisés. En moyenne, pour tous les secteurs, 68 % des répondants utilisateurs évoquent un système d’IA déjà déployé et utilisé, contre 18 % en déploiement, et 14 % en phase d’expérimentation (LaborIA - Jean Condé - Yann Ferguson, Usages et impacts de l’IA sur le travail au prisme des décideurs - Rapport d’enquête, 13 mars 2023).
4. Quels sont les freins ?
Malgré un déploiement notable de l’IA, de nombreux freins et obstacles sont rencontrés par les organisations. Les principaux restent :
- la compatibilité avec les outils existants (38 %) ;
- le manque d’expertise en interne (37 %) ;
- le coût de l’investissement nécessaire (32 %) ;
- le manque de confiance (19 %) ;
- les mauvais résultats des expérimentations (14 %) ;
- la réticence du personnel (10 %) ;
- la réticence des syndicats (10 %) ;
- les mauvais avis (10 %) (LaborIA - Jean Condé - Yann Ferguson, Usages et impacts de l’IA sur le travail au prisme des décideurs - Rapport d’enquête, 13 mars 2023).
5. Quels sont les avantages pour la SST ?
Les systèmes d’IA peuvent améliorer la santé sécurité au travail (SST) sur plusieurs aspects. Il peut s’agir par exemple :
- d’usages en amont pour l’étude et la recherche sur les risques professionnels (en se basant sur l’historique de l’accidentologie, l’épidémiologie, des déclarations de burn-out, etc.) ;
- de systèmes pour supprimer les expositions des travailleurs à des dangers ou des risques d’accidents graves ou des tâches pénibles (robots autonomes, dispositifs de téléopération et de robotique collaborative) ;
- de dispositifs de détection de situations à risques avant la survenue d’un accident tel qu’une chute, la défaillance d’un équipement ou un risque environnemental (traitement en temps réel de données collectées par des objets connectés) ;
- de suggestions pertinentes sur la SST et d’aide des employeurs dans la prise de décisions (ex. : optimisation de poste de travail en matière d’ergonomie, ajustement des horaires de travail, mesure de la charge, aménagement des temps de pause, contrôle du confort thermique, etc.).
D’après une enquête du LaborIA, publiée en mars 2023, 47 % des organisations ont recours à l’IA pour améliorer la SST. Dans le secteur industriel, ce sont même 63 % des organisations interrogées qui affirment recourir à l’IA dans cette optique (LaborIA - Jean Condé - Yann Ferguson, Usages et impacts de l’IA sur le travail au prisme des décideurs - Rapport d’enquête, 13 mars 2023).
6.Quels sont les risques potentiels ?
Bien que l’IA possède bon nombre de points positifs en SST, elle peut toutefois modifier significativement les situations de travail et l’approche générale de prévention des risques professionnelles.
Des enjeux et points de vigilance sur les usages de l’IA en SST existent, en lien notamment avec :
- la perte d’emploi : obsolescence d’un emploi, dépassement des compétences, inemployabilité, stress ;
- la déqualification : placement du travail humain en second plan, recul des compétences ;
- la productivité et la santé mentale : suivi du rythme et du niveau de travail d’un cobot, pression, réduction des contacts humains et du soutien social ;
- le système de surveillance permanente à l’origine de risques psychosociaux (RPS) et d’une individualisation de la SST (responsabilité exclusive du travailleur), oppression ;
- la correspondance fiable des jeux de données aux domaines d’applicabilité : dans le cas contraire, de mauvais résultats de l’IA sont possibles pouvant entraîner des accidents du travail ou des blessures ;
- les situations anormales au travail : limite au bon fonctionnement des systèmes d’IA, mauvaise prise en compte de tous les aléas (dysfonctionnements, pannes, opérations de maintenance, etc.).
7.Comment évaluer les risques ?
Afin de pallier ces points de vigilance et les diverses limites des systèmes d’IA en SST, plusieurs pistes d’actions peuvent être préconisées. Les acteurs de la SST ont de nouveaux rôles à jouer face à l’IA et de nouvelles missions en matière de SST.
Parmi les actions à déployer lors de la mise en place d’un système d’IA on retrouve :
- l’expérimentation en amont et l’identification des risques potentiels ;
- l’évaluation des conséquences sur l’organisation de l’entité et le travail des salariés ;
- la possibilité d’un éventuel retour en arrière en cas de danger ou de non-satisfaction en termes de conditions de travail ;
- les mesures de contrôles et de prévention adaptées à l’usage de l’IA ;
- la mise à jour du document unique d’évaluation des risques professionnels (DUERP) avec la façon dont l’IA est utilisée au sein de l’entreprise et les mesures de prévention/protection existantes ;
- la surveillance de l’IA dans l’environnement de travail : détection des erreurs, des anomalies de fonctionnement, des incidents, des accidents, etc. et leur analyse ;
- le maintien en conformité des systèmes d’IA et leur vérification périodique ;
- la définition de règles pour la constitution de jeux de données.
8. Quelles formations mettre en place ?
9. Quelle est la réglementation ?
10. Quels outils existent ?
Découvrez les 3 derniers chapitres du dossier spécial dans Solution HSE.