Un outil d’IA pourrait aider à repérer le risque de violences conjugales, mais la promesse dépend encore de preuves plus solides et de fortes garanties éthiques
Un outil d’IA pourrait aider à repérer le risque de violences conjugales, mais la promesse dépend encore de preuves plus solides et de fortes garanties éthiques
Peu de domaines de la santé exigent autant de sensibilité que les violences conjugales. Le problème reste souvent invisible, dissimulé par la peur, la honte, la dépendance économique, la contrainte directe ou tout simplement l’absence d’un moment sûr pour demander de l’aide. C’est pourquoi l’idée d’utiliser des outils d’IA pour repérer le risque de violences conjugales suscite immédiatement de l’intérêt : en théorie, l’intelligence artificielle pourrait aider à identifier des schémas de risque avant que la violence ne s’aggrave.
C’est la partie prometteuse de l’histoire. La partie plus difficile, c’est qu’avec les preuves fournies ici, cette promesse reste indirecte et incomplète. Les études citées soutiennent la plausibilité d’appliquer l’apprentissage automatique à des données liées à la violence, mais elles ne fournissent pas de validation solide d’un outil clinique capable de prédire le risque chez les patientes avec des bénéfices démontrés en matière de sécurité, de qualité d’orientation ou d’issue de soins.
Le sujet soulève aussi des enjeux éthiques particulièrement sérieux. Dans les violences conjugales, la question n’est jamais seulement de savoir si un algorithme peut repérer un motif. Les vraies questions sont aussi : que se passe-t-il pour la personne identifiée, qui accède à cette information, comment elle est stockée, et quels dommages peuvent survenir si le système se trompe ?
Pourquoi la détection précoce paraît si attractive
En pratique clinique, les violences conjugales sont difficiles à repérer. Les signes d’alerte sont souvent subtils, fragmentés ou peu spécifiques. Des blessures répétées, de l’anxiété, des absences aux rendez-vous, des troubles du sommeil, une dépression, une consommation de substances ou des plaintes physiques vagues peuvent apparaître dans de nombreuses situations sans lien avec des violences.
C’est là que l’IA paraît attrayante. Des systèmes entraînés sur de grands volumes de données pourraient, en théorie :
- détecter des combinaisons de signaux que les cliniciens ne repèrent pas ;
- reconnaître des motifs répétés dans le temps ;
- et aider à la décision dans des contextes où le temps et l’information sont limités.
C’est l’argument le plus fort en faveur de ces outils : non pas remplacer le jugement professionnel, mais aider les soignants à identifier plus tôt un risque potentiel.
Ce que les preuves fournies soutiennent réellement
Les références citées ne valident pas directement un modèle clinique solide de prédiction du risque de violences conjugales chez les patientes. Le soutien au titre reste surtout indirect.
L’étude la plus proche du sujet montre que l’apprentissage automatique a pu classer des contenus liés aux violences domestiques sur les réseaux sociaux. Cela compte, car cela suggère quelque chose de réel : il est techniquement plausible d’appliquer l’apprentissage automatique à des données liées à la violence. Autrement dit, on peut entraîner des systèmes à repérer des motifs associés à la violence dans le langage et dans certains types de données.
Mais cela est encore très loin de prouver qu’un système clinique fonctionne dans les hôpitaux, les soins primaires ou les urgences. Classer des publications sur les réseaux sociaux et prédire un risque réel chez une patiente sont deux tâches très différentes. La première montre une faisabilité technique. La seconde exige une validation clinique, une intégration sûre dans les soins, des protections fortes de la vie privée et des preuves d’un bénéfice réel pour les patientes.
L’avertissement le plus fort des preuves concerne peut-être la confidentialité
L’un des messages les plus importants des références fournies ne porte pas sur la précision prédictive, mais sur la sensibilité extrême des données relatives aux violences domestiques. Deux des articles cités s’intéressent à la volonté des personnes de partager leurs données cliniques pour la recherche, et cela est essentiel dans ce domaine.
Les violences conjugales ne sont pas une information neutre. Elles peuvent impliquer :
- un danger physique immédiat ;
- une menace pour l’autonomie personnelle ;
- la peur de représailles ;
- des conséquences juridiques et familiales ;
- et une inquiétude profonde quant à qui peut voir ou utiliser ces informations.
Si de nombreuses personnes hésitent déjà à partager leurs données de santé pour la recherche en général, cette réticence peut être encore plus forte quand le sujet concerne des violences. Cela signifie que tout outil d’IA dans ce domaine doit traiter non seulement de performance technique, mais aussi de consentement, de confidentialité, de confiance et de sécurité des données.
Un bon algorithme peut malgré tout être une mauvaise intervention
C’est l’une des distinctions les plus importantes de cette histoire. Un modèle peut avoir des performances statistiques correctes et pourtant être dangereux dans la pratique.
On peut imaginer plusieurs scénarios :
- un faux positif conduit à aborder une patiente de manière inappropriée alors que l’agresseur est présent ;
- une note sensible devient visible dans le dossier médical pour des personnes qui ne devraient pas y avoir accès ;
- le système renforce des biais déjà présents dans les données d’entraînement ;
- ou un risque est signalé alors que le système de soins ne dispose d’aucun dispositif sûr et adapté pour répondre.
Dans les violences conjugales, identifier un risque sans plan de protection peut être presque aussi problématique que ne pas l’identifier.
Pourquoi le contexte clinique compte davantage que l’algorithme seul
Tout usage sérieux de l’IA dans ce domaine devrait être intégré à des protocoles de soins informés par le traumatisme, avec du personnel formé et des parcours de réponse clairs. Cela impliquerait au minimum :
- une évaluation discrète et sûre ;
- le respect de l’autonomie de la patiente ;
- un contrôle strict sur l’accès à l’information sensible ;
- une orientation vers des soutiens sociaux, juridiques ou de protection adaptés ;
- et une validation humaine obligatoire avant toute action délicate.
Sans cela, le risque est de traiter une situation de violence profondément complexe comme s’il s’agissait d’un simple problème de classification de données.
La promesse de l’IA est réelle, mais elle reste précoce
Malgré toutes ces réserves, il serait faux de rejeter entièrement l’idée. La plausibilité existe. Il est logique d’imaginer qu’à l’avenir, des systèmes d’IA puissent aider à repérer des motifs de risque dans de grands volumes de données cliniques, comportementales ou textuelles.
Cela est particulièrement pertinent dans un domaine marqué par une forte sous-détection et où de nombreuses occasions d’intervention précoce sont manquées. S’ils sont conçus avec prudence, ces outils pourraient constituer un soutien supplémentaire pour des cliniciens déjà soumis à une forte pression et disposant d’informations incomplètes.
Mais précisément parce qu’il s’agit d’un domaine aussi sensible, le niveau de preuve exigé doit être plus élevé. Il ne suffit pas de montrer qu’une machine peut fonctionner sur une tâche liée à la violence. Il faut démontrer que l’usage clinique :
- améliore la sécurité ;
- améliore la qualité des orientations ;
- évite les dommages liés aux erreurs ou aux divulgations inappropriées ;
- et fonctionne de manière éthique dans des contextes réels de soins.
Ce que les preuves ne montrent pas
À partir du matériel fourni, on ne peut pas affirmer avec confiance qu’il existe déjà un outil clinique d’IA validé pour prédire le risque de violences conjugales avec un bénéfice démontré pour les patientes. Les limites sont importantes.
D’abord, les preuves sont mal ajustées à l’affirmation centrale du titre. Deux des articles cités concernent davantage la volonté de partager des données pour la recherche que les modèles de prédiction eux-mêmes.
Ensuite, l’étude d’apprentissage automatique la plus directement pertinente repose sur des contenus persanophones publiés sur les réseaux sociaux, et non sur des dossiers de patientes ou une mise en œuvre dans le système de soins.
Enfin, les preuves ne montrent pas qu’un tel outil améliore des résultats concrets comme la sécurité des patientes, la qualité des orientations ou la réduction des dommages.
Le titre renvoie donc à un futur possible, mais le matériel scientifique fourni soutient ce futur davantage comme une direction plausible que comme une réalité clinique déjà établie.
Ce qu’il ne faut pas exagérer
Plusieurs affirmations doivent être évitées.
Il ne faut pas suggérer que :
- l’IA peut déjà prédire de manière fiable le risque de violences conjugales en pratique clinique ;
- la technologie, à elle seule, peut protéger les patientes ;
- ou qu’un dépistage algorithmique peut remplacer l’écoute attentive, le jugement professionnel et l’accompagnement humain.
Il serait également risqué d’ignorer que ces systèmes peuvent amplifier des inégalités s’ils sont entraînés sur des données incomplètes, biaisées ou recueillies de manière inégale.
La lecture la plus équilibrée
Les preuves fournies soutiennent une conclusion faible mais utile : il existe une plausibilité technique pour utiliser l’apprentissage automatique sur des données liées à la violence, ce qui justifie un intérêt prudent pour une détection assistée par IA du risque de violences conjugales. L’étude sur les réseaux sociaux suggère que des motifs liés à la violence peuvent être classés par des méthodes computationnelles, tandis que la littérature sur le partage des données rappelle à quel point ce type d’information est sensible et éthiquement délicat.
Mais une lecture responsable doit aller au-delà de l’optimisme technologique. Les preuves fournies sont loin de démontrer qu’un outil clinique d’IA améliore déjà la sécurité ou les résultats pour les patientes dans les soins réels. Et les risques liés aux atteintes à la vie privée, aux faux positifs, aux biais et aux usages inappropriés sont particulièrement élevés dans ce contexte.
La conclusion la plus sûre est donc la suivante : l’IA pourrait, à l’avenir, devenir un outil d’appui utile pour repérer des schémas liés au risque de violences conjugales, mais les preuves fournies ici ne soutiennent cette possibilité que de manière indirecte. Pour l’instant, il s’agit moins d’une solution prête à l’emploi que d’un champ émergent qui n’aura de sens que s’il progresse avec une validation clinique solide, une protection stricte des données et des garde-fous centrés sur la sécurité des victimes.