Vous avez peut-être déjà entendu l’expression de « barémisation » de la Justice. On en parle depuis plusieurs années et le ministère a même lancé un vaste projet (appelé DataJust) pour confier une partie de l’indemnisation des victimes de dommage corporel à… l’Intelligence Artificielle. L’idée étant d’accélérer et uniformiser les procédures d’indemnisation, grâce à un simulateur surpuissant.
Mais après deux ans d’expérimentation, le référentiel automatique a été abandonné. Le motif profond à cela : l’être humain est encore trop complexe pour être traité mécaniquement par la Justice.
Votre corps n’est pas une machine. Chaque victime, chaque cas d’accident corporel est unique, et même l’intelligence artificielle ne peut pas aller plus loin. Ce dont vous avez besoin, c’est d’humain. D’autant plus que vous êtes en pleine procédure pour obtenir réparation après avoir subi des dommages corporels conséquents…
« Simulateur », « Justice prédictive » : ça ne date pas d’hier
Les logiciels de prédiction n’ont rien de nouveau. Vous-même, victime d’accident corporel, êtes peut-être allé(e) consulter des forums voire un simulateur en ligne pour essayer d’estimer à combien pourrait s’élever votre indemnisation. C’est commun, c’est humain.
Ce qui ne l’est pas, en revanche, c’est le mécanisme d’automatisation.
Dans une procédure d’indemnisation, la référence principale est la nomenclature Dintilhac (qu’on appelle parfois à tort « barème » dintilhac). Ce document sert de guide aux experts médicaux, pour évaluer la gravité de vos préjudices. En s’appuyant sur ce référentiel, ils vont « noter » l’intensité de vos souffrances endurées, votre taux d’invalidité (déficit fonctionnel permanent ou DFP), vos capacités à reprendre une activité sportive, votre préjudice esthétique, ou encore les probabilités pour que vous puissiez établir et/ou poursuivre une vie de famille « normale »…
On parle ici d’une liste ou d’une grille indicative, qui n’a pas de valeur absolue ni automatique. Or, en cherchant un simulateur en ligne ou en cherchant à créer un algorithme national, on tendrait à considérer que ce ne sont que des cases à cocher, et qui auraient toutes la même valeur pour toutes les victimes.
Justice prédictive : qu’est-ce que ça veut dire ?
L’expression « Justice prédictive » évoque pour certains un univers de science-fiction. Quelque chose comme le scénario de « Minority Report », où l’on pourrait arrêter les criminels et délinquants avant même qu’ils ne le deviennent… Mais notre réalité judiciaire est – heureusement – encore bien loin de cela.
L’idée d’une Justice prédictive doit en fait aider à désengorger les tribunaux. En automatisant une partie de la procédure, on pourrait – en théorie – aller plus vite, voire être plus « justes » car moins soumis à la subjectivité humaine.
L’algorithme sur lequel travaillaient les équipes déléguées par le ministère devait donc recenser toutes les données permettant de faciliter les décisions de justice. Soit une quantité de data astronomique : données administratives de la victime, données financières, personnelles, de santé, professionnelles, etc., d’une part. Données sur l’accident, sur les jurisprudences et les barèmes d’indemnisation d’autre part… Problème : certaines décisions de première instance ou de cour d’appel n’apparaissaient pas dans les données de l’algorithme. Sans compter la question épineuse de la confidentialité des données.
Le second problème, c’est que ces données serviraient à prévoir. Et ce n’est pas le rôle de la Justice. Le principe de la Justice est d’analyser le fait et d’en tirer une analyse propre à la situation. Autrement dit, elle reconnaît que chaque cas est unique et qu’elle doit s’y ajuster. Difficile, donc, de faire cadrer une procédure automatique pour faire une utilisation purement factuelle du droit. Au-delà des faits, il y a l’humain. Et c’est précisément la complexité humaine que l’algorithme ne parvient pas à synthétiser.
Le problème de l’algorithme pour l’indemnisation : le risque des biais
L’intelligence artificielle est plus fragile qu’on ne croit. Elle souffre souvent de ce qu’on appelle des « biais algorithmiques ». C’est-à-dire que les résultats de ses calculs ne sont pas neutres – et donc pas équitables. En réalité, ce sont nos données d’origine et notre réalité qui ne sont pas neutres, et qui viennent biaiser l’apprentissage automatique de la machine.
Au cours des deux ans d’expérimentation, les chercheurs ont réalisé que l’algorithme risquait vite de tomber dans la discrimination des victimes, par manque de données représentatives ou suffisamment diversifiées.
La victime risquait également d’être traitée comme appartenant à un certain groupe pour faciliter les calculs. Les spécificités de cette personne restant quasiment impossibles à intégrer. Un accident de la route léger peut avoir des conséquences lourdes sur une victime et pas une autre. Dommages similaires, préjudices réels très différents. Mais l’algorithme ne pouvant traiter des spécificités de la personne, les deux pourraient recevoir la même indemnisation basse.
C’est là tout le problème quand on essaie de faire entrer l’humain dans une machine. Il est difficile – voire impossible aujourd’hui – de partir de la règle mathématique pour traiter un particulier. Et c’est encore moins applicable à la Justice, où l’on part du particulier pour analyser comment il s’intègre ou se confronte à la règle générale.
Barèmes, avocats, automatisation : comment serez-vous indemnisé demain ?
Si l’État renonce aujourd’hui à son projet d’intelligence artificielle pour les décisions de justice, est-ce qu’il ne pourrait pas y revenir demain ?
Considérant qu’il existe déjà des référentiels, des barèmes, et que de nombreuses voix soulèvent régulièrement la question d’une « barémisation » de la Justice, on peut imaginer que le débat ne s’arrêtera pas là.
Mais dans les faits, le droit du dommage corporel résiste totalement à ces calculs uniformisés.
Certaines parties de l’indemnisation des préjudices de la victime semblent évidentes à automatiser. Le nombre de points d’AIPP, par exemple, (soit le degré d’atteinte subi par la victime) et calculé en pourcentage au moment de l’expertise, puis converti en points et presque automatiquement chiffré en montant en euros par la suite. Toutefois, l’évaluation du taux d’AIPP reste subjective, les experts pouvant retenir des taux différents dans la plupart des cas.
En réalité, certains postes de préjudices sous-jacents sont très complexes à évaluer. Ils risquent d’être systématiquement sous-évalués si cela devait être fait « à la louche ». Un même dommage peut impliquer plusieurs taux d’incapacité différents, et leur reconnaissance dépendra du médecin qui examine la victime. Là encore, la subjectivité apparaît et biaise souvent la procédure : l’expert médical peut ne pas retenir un poste de préjudice, pourtant important pour votre indemnisation. Et faute de donnée, l’agorithme ne le prendra pas en compte. Pas plus que l’assureur, si vous n’avez pas bénéficié en expertise médicale d’une évaluation juste et contradictoire.
C’est pourquoi la seule certitude reste la nécessité de reconnaître la part d’humain dans toute procédure judiciaire.
Vous êtes une victime d’accident corporel ou d’agression, votre corps n’est pas une machine. Vous ne pouvez pas être réduit(e) à une base de données. Et, pour vous accompagner et vous défendre dans le long parcours de l’indemnisation de vos préjudices, face à une compagnie d’assurances et face à un tribunal, vous aurez besoin d’un avocat spécialisé. Vous avez le droit d’être conseillé(e), éclairé(e) et défendu(e) pour obtenir la juste indemnisation de vos préjudices personnels, en tant qu’individu unique et spécifique.
Vous pouvez vous informer sur le sujet de votre indemnisation future en parcourant ces pages.
N’hésitez pas à consulter Me. Hadrien Muller si vous avez des questions sur votre dossier.