+ -

Adding an image deletes all preexisting image captions. I need to add both images, then add the image captions 🤞 #bonfire_feedback

"Monsieur le député,

Bonjour,

J'espère que vous allez bien. Étant domiciliée dans le Rhône, je vous contacte au sujet de la vidéosurveillance algorithmique, qui sera votée ce mardi 21 mars. Je me demande simplement l'intérêt de cette technologie dans le cadre des jeux olympiques de 2024 ?

Cette technologie ne me paraît pas avoir de garde-fou possible, notamment car elle repose sur des technologies de deep learning extrêmement complexes et de fait extrêmement coûteuses à analyser. Par exemple, des ingénieur·es ont tenté de nourrir un modèle d'apprentissage automatique (dit « IA ») avec le flux vidéo d'une caméra dans une station de métro, pour ouvrir une porte en cas de forte affluence. Cela a fonctionné jusqu'à un événement sportif où toute une foule s'est retrouvée devant une porte mystérieusement fermée… Les ingénieur·es ont consacré plusieurs mois à analyser l'algorithme et se sont rendu compte qu'il ouvrait et fermait la porte selon l'heure affichée par une horloge filmée par la caméra, l'algorithme ayant ainsi simplement appris à reconnaître les heures de pointe.

Non seulement ces algorithmes ne sont-ils pas fiables, il est par ailleurs extrêmement complexe judiciairement, en raison du coût de la démarche, d'y faire recours. Par exemple, des études ont montré que des algorithmes de classement des restaurants étaient biaisés selon les préjugés racistes des consommateur·ices, qui discriminaient les restaurants en fonction de leurs traits ethno-raciaux (et de ceux de leurs clientèles).

Après une rapide recherche en ligne, je me rends compte que le même principe – l'apprentissage automatique – a conduit un jeune homme noir, dans un quartier aux « États-Unis » marqué par la violence, à être identifié par un algorithme comme étant à risque de tirer sur quelqu'un ou de se faire tirer dessus à son domicile ; il a donc reçu des visites régulières de la police, qui lui rappelait qu'il était surveillé, ce qui lui a finalement conduit à être perçu comme un indicateur et à se faire tirer dessus, à deux reprises (en 2017 et en 2020). Le risque de biais ethno-raciaux est trop important et nous ne sommes pas les « États-Unis », nous ne tolérons pas que de jeunes maghrébins innocents, dans des quartiers difficiles, se fassent tirer dessus à cause de biais algorithmiques. De tels biais peuvent représenter une mise en danger des vies de nos concitoyen·nes les plus défavorisé·es à la naissance.

https://theconversation.com/can-a-machine-be-racist-artificial-intelligence-has-shown-troubling-signs-of-bias-but-there-are-reasons-for-optimism-197893 (en)

L'assistance des forces de l'ordre par des algorithmes de vidéosurveillance algorithmique, bien que ne s'appliquant pas directement à des fonctionnaires et ne constituant donc pas des délits de faciès, leur feraient ainsi opérer, qu'elles le veuillent ou non, des « distinction dans leurs actes et leurs propos de nature à constituer l'une des discriminations énoncées à l'article 225-1 du code pénal » (article R434-11 du code de sécurité intérieure). Une telle loi me paraîtrait donc contraire aux principes républicains les plus fondamentaux.

En vous souhaitant bonne réception,

Bien cordialement,

Océane Raquin, électrice de la circonscription du Rhône"
"Monsieur le député, Bonjour, J'espère que vous allez bien. Étant domiciliée dans le Rhône, je vous contacte au sujet de la vidéosurveillance algorithmique, qui sera votée ce mardi 21 mars. Je me demande simplement l'intérêt de cette technologie dans le cadre des jeux olympiques de 2024 ? Cette technologie ne me paraît pas avoir de garde-fou possible, notamment car elle repose sur des technologies de deep learning extrêmement complexes et de fait extrêmement coûteuses à analyser. Par exemple, des ingénieur·es ont tenté de nourrir un modèle d'apprentissage automatique (dit « IA ») avec le flux vidéo d'une caméra dans une station de métro, pour ouvrir une porte en cas de forte affluence. Cela a fonctionné jusqu'à un événement sportif où toute une foule s'est retrouvée devant une porte mystérieusement fermée… Les ingénieur·es ont consacré plusieurs mois à analyser l'algorithme et se sont rendu compte qu'il ouvrait et fermait la porte selon l'heure affichée par une horloge filmée par la caméra, l'algorithme ayant ainsi simplement appris à reconnaître les heures de pointe. Non seulement ces algorithmes ne sont-ils pas fiables, il est par ailleurs extrêmement complexe judiciairement, en raison du coût de la démarche, d'y faire recours. Par exemple, des études ont montré que des algorithmes de classement des restaurants étaient biaisés selon les préjugés racistes des consommateur·ices, qui discriminaient les restaurants en fonction de leurs traits ethno-raciaux (et de ceux de leurs clientèles). Après une rapide recherche en ligne, je me rends compte que le même principe – l'apprentissage automatique – a conduit un jeune homme noir, dans un quartier aux « États-Unis » marqué par la violence, à être identifié par un algorithme comme étant à risque de tirer sur quelqu'un ou de se faire tirer dessus à son domicile ; il a donc reçu des visites régulières de la police, qui lui rappelait qu'il était surveillé, ce qui lui a finalement conduit à être perçu comme un indicateur et à se faire tirer dessus, à deux reprises (en 2017 et en 2020). Le risque de biais ethno-raciaux est trop important et nous ne sommes pas les « États-Unis », nous ne tolérons pas que de jeunes maghrébins innocents, dans des quartiers difficiles, se fassent tirer dessus à cause de biais algorithmiques. De tels biais peuvent représenter une mise en danger des vies de nos concitoyen·nes les plus défavorisé·es à la naissance. https://theconversation.com/can-a-machine-be-racist-artificial-intelligence-has-shown-troubling-signs-of-bias-but-there-are-reasons-for-optimism-197893 (en) L'assistance des forces de l'ordre par des algorithmes de vidéosurveillance algorithmique, bien que ne s'appliquant pas directement à des fonctionnaires et ne constituant donc pas des délits de faciès, leur feraient ainsi opérer, qu'elles le veuillent ou non, des « distinction dans leurs actes et leurs propos de nature à constituer l'une des discriminations énoncées à l'article 225-1 du code pénal » (article R434-11 du code de sécurité intérieure). Une telle loi me paraîtrait donc contraire aux principes républicains les plus fondamentaux. En vous souhaitant bonne réception, Bien cordialement, Océane Raquin, électrice de la circonscription du Rhône"