Tribune

« Le numérique renforce les moyens d’une politique de prévention pilotée par les données, ce qui constitue une recommandation ancienne de l’OIT »

Par
Cyril Cosme
Directeur du bureau pour la France de l’Organisation internationale du travail

Une technologie n’est jamais bonne ou mauvaise en soi, tout dépend de son usage. C’est pourquoi on ne peut raisonner « toutes choses égales par ailleurs » lorsqu’on évalue son impact sur le travail. C’est l’ensemble des paramètres de l’organisation qu’il faut repenser : les compétences, les interactions au sein du collectif, le contenu des postes, la répartition des tâches, l’environnement de travail, le contrôle et le rapport à la hiérarchie.

Force est de reconnaître que le numérique est perçu comme porteur de nouvelles menaces pour la santé et la sécurité au travail, avant d’être considéré comme une ressource potentielle susceptible d’améliorer l’efficacité des politiques de prévention.

Cette focalisation sur les risques est compréhensible, mais elle biaise l’analyse dans la mesure où elle découle précisément d’un raisonnement « toutes choses égales par ailleurs ». Penser les nouvelles technologies numériques à organisation du travail inchangée, c’est en effet risquer de faire du travail humain une simple variable d’ajustement : substitution de la machine à l’homme à travers la suppression de postes de travail, adaptation de l’homme à la machine à travers des actions de formation technique. On passe ainsi à côté d’une opportunité de s’émanciper des grands principes tayloriens d’organisation (parcellisation, supervision, contrôle hiérarchique et reporting) grâce à un usage maîtrisé de ces technologies.

Pour bien faire, suivons le raisonnement d’un préventeur.

On distingue traditionnellement trois types de prévention. La prévention primaire agit sur les causes et les facteurs de risque, en les évitant. Pour les risques psychosociaux, les pratiques managériales harcelantes ou discriminatoires sont interdites. La prévention secondaire vise à atténuer l’exposition aux causes et facteurs de risque, lorsqu’on ne peut les éviter, grâce aux équipements de protection ou à des seuils réglementaires d’exposition. La prévention tertiaire consiste enfin à limiter au maximum les conséquences d’un dommage lorsqu’il est survenu.

S’agissant des technologies numériques, la logique de la prévention primaire nous inviterait donc à en déterminer un usage qui évite au maximum l’exposition aux risques nouveaux que ces technologies pourraient engendrer ou aux risques déjà identifiés qu’elles pourraient amplifier. En clair, il s’agit d’adapter la machine à l’homme et non l’inverse.

L’évolution de l’interface homme/machine constitue une bonne illustration de la complexité du lien entre numérique et prévention. Les robots vont devenir de plus en plus mobiles, embarquant une intelligence artificielle sans cesse plus performante, ouvrant de multiples possibilités de collaborer entre eux et avec les humains. Ces robots seront capables d’effectuer un grand nombre de tâches manuelles, mais aussi cognitives, que seuls des humains pouvaient jusqu’ici réaliser.

Ces nouvelles interfaces homme/machine sont à leur tour porteuses de risques liés à l’ergonomie, à la transformation et à la réduction des relations sociales au sein des collectifs de travail. À l’inverse, ces robots peuvent aussi soulager les travailleurs en allégeant leur charge de travail, en effectuant les tâches les plus pénibles et répétitives, et en les soustrayant à des situations dangereuses. Ils peuvent faciliter le maintien dans l’emploi de travailleurs âgés ou handicapés, encourager le travail humain à se concentrer sur l’innovation, la capacité d’analyse et l’intelligence émotionnelle et collective.

Un autre exemple montre l’ambivalence de l’impact des technologies numériques et la question décisive de l’usage. En même temps qu’il renforce potentiellement les moyens d’une organisation plus autonome et le « pouvoir d’agir » des travailleurs sur leur propre travail, le numérique ouvre un nouveau champ pour la surveillance, à travers des technologies de contrôle utilisant intelligence artificielle et algorithmes. Ces technologies permettent le développement de systèmes de gestion du travail collectant des données en temps réel sur le comportement des travailleurs qui déterminent des processus de décision automatisés ou semi-automatisés, élaborés par des algorithmes.

Ces systèmes dits algorithmiques servent une logique « taylorienne 2.0 » d’amélioration continue de la performance et de la productivité par la rationalisation de l’organisation de la production et l’optimisation des ressources humaines. Le risque de déshumanisation est tangible.

Les préoccupations que soulèvent de tels systèmes sont d’ordre éthique, réglementaire et concernent aussi la prévention des risques, en particulier psychosociaux. Pour ces raisons sans doute, la nouvelle réglementation européenne assimile l’IA utilisée pour la prise de décision affectant les relations de travail parmi les dispositifs à haut risque justifiant une transparence et un contrôle accrus des algorithmes.

À l’inverse, ces systèmes de gestion peuvent améliorer la prévention et servir une meilleure qualité du travail et des organisations plus autonomes s’ils sont conçus et mis en œuvre de manière transparente, avec une implication des travailleurs et de leurs représentants. La confiance est un facteur clef.

Les mêmes capteurs intelligents peuvent aussi permettre la collecte de données sur l’environnement de travail permettant d’alerter sur les situations dangereuses, l’exposition à des facteurs de risque ou encore de conseiller le travailleur. Elles peuvent contribuer à mieux évaluer les risques sur le lieu de travail, y compris les risques psychosociaux.

Dans cette perspective, le numérique renforce les moyens d’une politique de prévention pilotée par les données qui constitue une recommandation ancienne de l’OIT et un axe important de l’assistance technique fournie à nos membres en ce domaine. Mais là encore, le principe de responsabilité de l’employeur et les prérogatives des travailleurs et de leurs représentants doivent prévaloir. On ne peut s’en remettre entièrement ni se défausser sur un algorithme ou une technologie numérique. Ces outils orientent et guident des choix et des décisions qui relèvent in fine des acteurs du monde du travail. L’humain doit rester aux commandes, éclairé et non subordonné par l’IA.

Les impératifs de santé et de sécurité au travail méritent donc d’être pris en compte dès les phases de conception et de développement des technologies numériques. Ils doivent aussi conduire à revoir l’ensemble du processus de travail dans le cadre duquel ces technologies sont introduites, dans le cadre d’un dialogue entre les acteurs de la prévention et les développeurs de ces technologies, mais aussi dans le cadre d’un dialogue social effectif permettant l’appropriation de ces enjeux et la maîtrise de l’usage de ces technologies.