Les géants de la tech veulent critiquer anonymement l’automatisation de la justice

La “Partnership on AI”, une organisation commerciale fondée par Apple, Amazon, Facebook, Google, IBM et Microsoft pour établir des normes de pratiques en matière de recherche et de mise en œuvre de l’IA, a publié aujourd’hui (26 avril) un nouveau rapport condamnant l’utilisation d’algorithmes pour évaluer le cautionnement dans le système de justice pénale.

Bien que le rapport recommande aux gouvernements de cesser d’utiliser ces outils automatisés pour la justice pénale, les grandes entreprises de technologie qui soutiennent le rapport choisissent de garder l’anonymat, sauf pour Microsoft.

“Alors que la recherche continue à repousser les limites de ce dont sont capables les systèmes de décision algorithmique, il est de plus en plus important que nous développions des lignes directrices pour leur utilisation sûre, responsable et équitable “, déclare Andi Peng, chez Microsoft Research, dans son rapport.

Apple, Amazon, DeepMind, Facebook, Google et IBM ont étés contactés pour leur demander s’ils appuyaient le rapport. DeepMind, Google et IBM ont refusé de commenter les raisons pour lesquelles ils n’appuyaient pas publiquement le rapport. Les autres n’ont pas été immédiatement disponibles pour commenter.

“Bien que ce document ait incorporé des suggestions ou des auteurs directs d’environ 30 à 40 de nos organisations partenaires, il ne doit en aucun cas être interprété comme représentant les opinions d’un membre spécifique du Partenariat. Il s’agit plutôt d’une tentative de rendre compte des opinions largement répandues dans l’ensemble du milieu de la recherche en intelligence artificielle “, peut-on lire dans le rapport.

La “Partnership on AI” agit selon la règle de Chatham House, ce qui signifie qu’aucune idée partagée ne peut être attribuée à une entreprise en particulier, a dit un représentant qui ne voulait pas être identifié en raison de la règle.

LIRE AUSSI  Illusion d'optique : Pouvez-vous trouver le poisson gelé caché en 10 secondes ?

Le rapport se trouve donc dans une situation délicate. La raison pour laquelle Partnership on AI a une validité et une expertise dans la mise en œuvre à grande échelle de la technologie est due à l’appui qu’il reçoit des grandes entreprises de technologie, mais ces entreprises ne sont pas disposées non plus à soutenir publiquement le travail potentiellement litigieux.

“Bien que soutenu et façonné par notre communauté de partenaires, le Partenariat est en fin de compte plus que la somme de ses parties et prend des décisions indépendantes auxquelles ses partenaires contribuent collectivement, mais ne dictent jamais individuellement “, a déclaré un porte-parole de PAI.

Mais sans savoir qui est cette ” communauté partenaire “, il est difficile de connaître la somme des parties des organisations, car les parties sont inconnues.

Les groupes de défense des droits civils en 2017, les pratiques exemplaires et les suggestions des organisations ne sont pas non plus contraignantes pour leurs membres. Cela signifie que les entreprises pourraient faire partie d’une organisation qui désavoue l’utilisation d’algorithmes dans l’évaluation des risques avant procès, mais qui travaille aussi sur des projets les impliquant, sans que le public ou les investisseurs le sachent nécessairement. Les algorithmes d’évaluation du risque avant le procès mettent en balance les antécédents personnels de la personne accusée d’un crime – dans certains cas, ses antécédents criminels, ses données démographiques ou même son niveau de scolarité – et les données historiques pour recommander si elle devrait être libérée sous caution.

5/5 - (1 vote)
Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

Une Nintendo Switch plus petites et moins chères pourraient arriver en Juin

Next Post

OnePlus 7 Pro sans doute pire que son homologue OnePlus 7

Related Posts