Les biais que des algorithmes peuvent développer sont connus et nombreux :
- Beaucoup sont optimisés pour maximiser les profits avant tout.
- D'autres sont alimentés de données peu représentatives de la population réelle ou encore négligent des populations comme les handicapés, les familles monoparentale, etc.
- Enfin certains sont limités technologiquement alors que d'autres profitent des avancées les plus sophistiquées.
Même si tous reconnaissent le besoin de règlementer, le défi de rédiger une règlementation applicable et efficace est sur la table.
Par exemple, la législation sur les marchés numériques (DMA - Digital Markets Act) spécifie:
«Une place de marché ne pourra favoriser ses services et produits par rapport à ceux des vendeurs qui utilisent sa plate-forme ou exploiter les données des vendeurs pour les concurrencer.»
La législation sur les services numériques (DSA - Digital Services Act) de son coté indique que :
«Un service numérique devra expliquer le fonctionnement de ses algorithmes de recommandation et de publicité.»
Facile à dire, encore faut-il pouvoir le démontrer ou simplement pouvoir le faire. Si l'algorithme apprend et se modifie constamment, il faut d'une part trouver un moyen de le tester de façon représentative et d'autre part ne pas induire de biais par le test lui-même et de pouvoir le faire en continu et régulièrement.
C'est ce que tente de faire le projet-pilote Regalia. Benoit Rottembourg, responsable du projet à l'Inria, fait le point après deux ans d'activité. Ses recommandations sont attendues avec intérêt, d'autant que l'élaboration de la législation avance.
Pour l'article complet : Régulation des algorithmes : où en est le projet-pilote Regalia ?
Illustration : AndrewLozovyi - DepositPhotos
En savoir plus sur cette
actualité
Visiter inria.fr
Voir plus de nouvelles de cette institution