Alors que les personnalités politiques et le grand public débattent de la question de savoir si l’intelligence artificielle constitue une menace pour les valeurs sociétales, une réalité plus pratique et plus urgente se dévoile : L’IA est déjà intégrée dans le tissu de la vie quotidienne.
Le discours actuel, illustré par les récents avertissements de personnalités comme le sénateur Bernie Sanders, se concentre fortement sur les risques de l’IA, allant du licenciement à la désinformation. Cependant, ce cadrage fondé sur la peur risque de créer une dangereuse paralysie. Pour des secteurs critiques comme la santé publique, le véritable danger ne réside pas dans la technologie elle-même, mais dans la décision de « laisser tomber ».
Le paradoxe de l’adoption et de la confiance
Il existe une contradiction frappante dans la façon dont les Américains interagissent avec l’IA. Même si le scepticisme est élevé, l’utilisation est répandue :
– Utilisation généralisée : Plus de la moitié des Américains utilisent l’IA pour la recherche, la rédaction et l’analyse professionnelle.
– Faible confiance : seule une personne sur cinq environ déclare faire confiance la plupart du temps aux informations générées par l’IA.
Cela suggère que nous ne rejetons pas la technologie ; nous vivons plutôt une “adoption avec hésitation”. Si cette hésitation n’est pas gérée par un engagement actif, elle se transformera probablement en un désengagement total, laissant les décisions les plus importantes être prises par ceux qui ne partagent pas les mêmes priorités en matière d’éthique ou de sécurité.
Le risque de l’héritage passif
Dans le domaine de la santé publique, la prudence est une vertu. Les enjeux concernent des données sensibles et des vies humaines. Cependant, la frontière est mince entre être prudent et éviter.
Alors que les professionnels de la santé publique débattent de l’éthique abstraite de l’IA, d’autres secteurs la mettent déjà en œuvre pour guider la prise de décision et la diffusion d’informations. Si le secteur de la santé publique attend une certitude absolue avant d’agir, il perdra sa capacité à façonner la technologie. Au lieu de diriger, ces professionnels seront obligés d’hériter de systèmes qu’ils n’ont pas conçus.
L’IA comme outil d’extension, pas de remplacement
L’IA accomplit déjà des tâches que les agences de santé publique ont souvent du mal à étendre. Il ne s’agit pas d’un remplacement de l’expertise humaine, mais d’une extension de celle-ci. Les applications actuelles incluent :
– Simplifier la communication : Traduire des conseils médicaux complexes dans un langage simple et accessible.
– Adaptation du public : Adaptation des messages de santé publique à divers groupes démographiques.
– Réponse rapide : Générer des versions préliminaires et des communications lors de crises sanitaires à évolution rapide.
– Reconnaissance de modèles : Identifier les tendances dans les commentaires du public que les analystes humains pourraient manquer.
Dans un secteur qui manque chroniquement de ressources, ces capacités offrent un moyen d’amplifier l’impact du personnel existant.
Garde-corps vs murs : une distinction stratégique
Le débat reste souvent bloqué sur la question de savoir s’il faut réglementer ou rejeter l’IA. Pour avancer, il faut distinguer deux approches différentes :
- Construire des garde-fous : Établir des règles en matière de surveillance humaine, de confidentialité des données et d’intégrité scientifique. C’est ce que commencent à faire des agences comme le CDC : passer de l’étude de l’IA à son utilisation responsable.
- Construire des murs : Créer des barrières qui retardent complètement l’engagement.
L’objectif devrait être de construire des garde-corps, pas des murs. Les garde-corps définissent la manière dont une technologie peut être utilisée en toute sécurité ; les murs garantissent simplement qu’au moment où vous êtes prêt à entrer, les règles ont déjà été écrites par quelqu’un d’autre.
Aborder l’élément humain : emplois et formation
La crainte que l’IA réduise les opportunités d’emploi est partagée par 70 % des Américains. Bien qu’il s’agisse d’une préoccupation légitime, l’histoire montre que les nouveaux outils ont tendance à remodeler le travail plutôt que de simplement l’éliminer.
La question cruciale pour les dirigeants n’est pas de savoir si l’IA va changer les emplois, mais plutôt de savoir comment la main-d’œuvre est préparée. Les agences investissent-elles dans la formation ? Y a-t-il de la place pour l’expérimentation ? Ou la culture institutionnelle indique-t-elle qu’il est « plus sûr » d’ignorer la technologie ?
Le choix pour la santé publique n’est pas entre l’acceptation et le rejet, mais entre façonner la technologie et être obligé de s’y adapter plus tard.
Conclusion
La profession de santé publique se trouve à la croisée des chemins. Plutôt que de laisser la peur dicter une politique d’évitement, les dirigeants doivent s’orienter vers un engagement actif et responsable. En aidant à définir dès maintenant les limites éthiques et pratiques de l’IA, ils peuvent garantir que la technologie sert le bien public plutôt que de la dicter.


























