Procès-Verbal du Comité du Parti Pirate Vaudois
- Lieu: Signal
- Date: 20 février 2025
- Heure de début: 21:00 CEST
- Heure de clôture: XX:XX CEST
- Présidence:
- Secrétaire:
Présents
- Ariane Beldi (ABE)
- Emmanuelle Germond (EGE)
- Nils Schätti (NSC)
Absents
- Sébastien Piguet (SPI)
Préambule
Administration
Approbation du procès-verbal de la séance précédente
Le lien vers le dernier procès verbal: https://mypads.framapad.org/mypads/?/mypads/group/ppvd-comite-3y17et7g7/pad/view/pv-comite-2025-01-16-n95bv7o6
Vote
- Acceptons-nous le procès-verbal sus-mentionné?
- Oui (0)
- Non (0)
- Abstention (0)
- Le Procès-Verbal est accepté refusé !
Articles de presse
Courriers et questions
Courriers
Questions des membres
Défraiement
Grand Conseil
Conseil National
Prise de décision
Rédactions et tâches
Réaction à la mise en place de vidéo-surveillance algorithmique à la coop
Responsables : NSC
Lien vers le document : https://www.letemps.ch/cyber/intelligence-artificielle/exclusif-en-toute-discretion-coop-a-deploye-des-cameras-intelligentes-dans-certains-magasins
Destinataires : Tous
Notre article: https://mypads.framapad.org/p/article-2025-02-20-coop-ia-h0iaz7fw
L’article du temps a été repris par:
Watson: https://www.watson.ch/fr/suisse/coop/654612825-coop-vous-surveille-grace-a-des-cameras-intelligentes
Administration fédérale: https://www.edoeb.admin.ch/fr/videosurveillance-effectuee-par-des-particuliers
Articles:
* https://www.ultralytics.com/fr/blog/computer-vision-for-theft-prevention-enhancing-security
* https://seechange.com/self-checkout-security/
* AI-Driven Self-Checkout Statistics and Theft Trends: https://easyflow.tech/self-checkout-statistics-theft-trends/
* Could the Self-Checkout Ruin Your Reputation: https://mindmatters.ai/2022/07/could-the-self-checkout-ruin-your-reputation/
Éléments de bases :
Rapport de conformité avec l’IA Act de l’Union Européenne
Sujet : Systèmes de surveillance vidéo intelligente pour la détection de comportements suspects
1. Classification du Système selon l’IA Act
L’IA Act de l’UE classe les systèmes d’intelligence artificielle selon quatre niveaux de risque :
- Risque inacceptable (interdiction)
- Risque élevé (fortes exigences de conformité)
- Risque limité (transparence requise)
- Risque minimal (pas d’obligation spécifique)
La surveillance biométrique en temps réel dans des espaces accessibles au public entre généralement dans la catégorie « risque inacceptable », sauf exceptions strictes (ex. : menaces graves pour la sécurité publique). La détection automatisée de comportements suspects dans un magasin relève cependant d’un « risque élevé », nécessitant des obligations de conformité renforcées.
2. Évaluation de la Conformité
2.1. Transparence et information des personnes concernées
🔴 Non conforme
- L’installation des caméras intelligentes de Coop s’est faite en toute discrétion, ce qui va à l’encontre des obligations de transparence imposées par l’IA Act.
- L’IA Act impose aux utilisateurs de systèmes à risque élevé de fournir une information claire, accessible et compréhensible sur l’usage de l’IA (ex : panneaux signalant l’utilisation de surveillance algorithmique).
✅ Mesure corrective : Coop devrait afficher des notifications visibles et explicites à l’entrée des magasins équipés, expliquant l’utilisation de l’IA, ses objectifs et les droits des personnes concernées.
2.2. Biais et discrimination
🔴 Risque potentiel de non-conformité
- L’IA Act exige que les systèmes à risque élevé soient conçus pour éviter les biais discriminatoires (ex. : biais raciaux, socio-économiques).
- Les algorithmes de détection de comportements suspects sont souvent critiqués pour leur forte propension aux faux positifs et la possibilité de discrimination systémique.
✅ Mesure corrective : Coop doit démontrer que son système a été entraîné sur des données diversifiées et qu’il a fait l’objet d’audits réguliers pour détecter d’éventuels biais.
2.3. Évaluation de la performance et documentation
🔴 Non conforme (manque d’informations)
- L’IA Act impose que les systèmes à haut risque soient accompagnés d’une documentation détaillée sur leur fonctionnement, leurs limites et leur taux d’erreur.
- Il n’est pas précisé si Coop a procédé à une évaluation indépendante de l’efficacité du dispositif ni communiqué son taux de faux positifs/faux négatifs.
✅ Mesure corrective : Coop doit publier un rapport d’impact incluant les performances du système et ses limites.
2.4. Surveillance humaine et recours
🔴 Non conforme (absence de garanties pour les clients)
- L’IA Act exige une supervision humaine effective des décisions prises par les systèmes d’IA à risque élevé.
- Il n’est pas précisé si les employés de Coop peuvent contester les décisions de l’IA ou intervenir en cas de faux positif.
✅ Mesure corrective : Coop doit mettre en place une procédure de recours permettant aux clients de contester les décisions du système et garantir que l’IA n’a pas le dernier mot en cas de suspicion de vol.
3. Conclusion et Recommandations
📌 Évaluation générale : NON CONFORME (Risque élevé de violation de l’IA Act)
📌 Mesures correctives recommandées :
✔️ Informer clairement le public via une signalétique explicite.
✔️ Réaliser un audit indépendant pour détecter les biais et garantir la fiabilité du système.
✔️ Publier un rapport de transparence sur les performances du dispositif.
✔️ Mettre en place une surveillance humaine effective et une procédure de contestation.
⚠️ En l’absence de mise en conformité, Coop pourrait s’exposer à des sanctions financières et à des restrictions d’usage du système en Europe.
Rapport sur la LPD
Dans le cas de Coop, l’installation discrète de caméras intelligentes sans informer clairement les clients pourrait contrevenir aux exigences de transparence stipulées par la LPD. De plus, l’utilisation de technologies d’intelligence artificielle pour analyser les comportements doit être proportionnée et respecter les principes de finalité et de minimisation des données. Il est recommandé que Coop :
- Informe explicitement les clients de la présence de la vidéosurveillance à l’aide de panneaux bien visibles.
- S’assure que le système est configuré de manière à minimiser l’atteinte à la vie privée, en limitant la collecte et le traitement des données au strict nécessaire.
- Mette en place des mesures de sécurité robustes pour protéger les données collectées et restreindre l’accès aux personnes autorisées uniquement.
En se conformant à ces directives, Coop pourra aligner son système de vidéosurveillance sur les exigences légales suisses en matière de protection des données.
Plus
L’utilisation de systèmes de vidéosurveillance intelligents, comme ceux installés par Coop, soulève des préoccupations concernant la discrimination indirecte. Ces systèmes, en analysant les comportements des clients, pourraient potentiellement cibler de manière disproportionnée certains groupes en fonction de caractéristiques protégées, telles que l’origine ou le mode de vie.
De plus, l’absence de transparence de Coop quant au fonctionnement de son logiciel d’intelligence artificielle empêche une évaluation claire des risques de biais discriminatoires. Cette opacité pourrait contrevenir aux principes de proportionnalité et de finalité en matière de protection des données, comme le souligne le Préposé fédéral à la protection des données et à la transparence (PFPDT).
En conclusion, bien que l’objectif de prévenir les vols soit légitime, l’implémentation de tels systèmes doit être effectuée avec une attention particulière pour éviter toute forme de discrimination, conformément aux dispositions constitutionnelles suisses. Il est recommandé que Coop :
- Évalue rigoureusement les algorithmes utilisés pour détecter et corriger d’éventuels biais.
- Assure une transparence totale envers les clients concernant l’utilisation et le fonctionnement de ces technologies.
- Mette en place des mécanismes de surveillance humaine pour superviser les décisions prises par l’IA et offrir des recours aux clients affectés.
En adoptant ces mesures, Coop pourra mieux aligner ses pratiques avec les exigences légales suisses et protéger les droits fondamentaux de ses clients.
Cas aux US
1. Détection de vol aux caisses automatiques : une tendance croissante
La fraude aux caisses automatiques est un phénomène bien documenté.
Des techniques comme « le banana trick », « le pass around » et « le switcheroo » sont couramment utilisées par les voleurs.
Un sondage a révélé que près de 20 % des clients ont déjà volé via une caisse automatique, la plupart estimant qu’ils ne seraient pas détectés.
2. Les solutions technologiques mises en place
Des systèmes comme Missed Scan Detection (déployé par Walmart) utilisent des caméras intelligentes pour détecter les fraudes en temps réel.
Walmart utilise l’IA d’Everseen depuis 2017 pour surveiller les caisses automatiques, mais des employés affirment qu’elle fonctionne mal et génère de nombreuses erreurs.
3. Les limites et risques des IA anti-vol
Faux positifs fréquents : Des clients honnêtes sont accusés à tort de vol en raison d’erreurs du système.
Faux négatifs : Certains vols ne sont pas détectés, l’IA étant parfois inefficace.
Charge mentale des clients : Contrairement aux caissiers, les clients ne sont pas formés et peuvent commettre des erreurs involontaires (scanner mal un article, ne pas entendre un bip, oublier un produit).
Menaces légales : Des clients arrêtés à tort peuvent être poursuivis et poussés à payer des amendes en dehors du cadre judiciaire.
4. Exemple de cas judiciaire problématique
Une femme en Alabama a été faussement accusée de vol par Walmart après que le scanner d’une caisse automatique a bugué.
Walmart a tenté de lui extorquer 200 $ en compensation, bien que la valeur des courses était de 48 $.
Elle a porté plainte et a gagné 2,1 millions de dollars de dommages-intérêts.
Témoignage en justice : Walmart et d’autres détaillants font régulièrement pression sur des clients en les menaçant de poursuites s’ils ne payent pas des amendes, générant des centaines de millions de dollars en deux ans.
5. Répercussions pour le cas de Coop en Suisse
Risques juridiques liés aux faux positifs : Si l’IA de Coop fonctionne mal, des clients honnêtes pourraient être accusés à tort, avec des conséquences graves.
Obligation de transparence : Contrairement aux États-Unis, en Suisse, les clients doivent être informés de l’utilisation d’un système de surveillance IA.
Risques de discrimination : L’IA peut avoir des biais raciaux ou sociaux dans la détection des comportements suspects, ce qui peut contrevenir à la législation suisse.
Problèmes d’image pour Coop : Un scandale médiatique autour d’accusations abusives pourrait nuire à la réputation de l’enseigne.
Conclusion : Des questions à se poser pour notre analyse
L’IA utilisée par Coop a-t-elle un taux de faux positifs élevé ?
Les clients sont-ils correctement informés de l’existence et du fonctionnement du système ?
Quels recours sont prévus en cas de fausse accusation ?
Comment Coop évite-t-elle les biais discriminatoires dans la détection des comportements suspects ?
Coop pourrait-elle être poursuivie comme Walmart si des clients contestent l’utilisation de ce système ?
👉 En résumé, l’expérience américaine montre que ces systèmes sont souvent imparfaits et peuvent causer de sérieux problèmes juridiques et éthiques. Il est essentiel d’examiner comment Coop prévoit de gérer ces risques en Suisse.
Divers
Nom de la proposition
présenté par:
Lien de la proposition: https://cloud.ppvd.ch/index.php/apps/deck/#/board/7/card/
Description :
Discussion :
Décision :
Clôture et annonce de la prochaine séance
Le président clôt la séance à 21
La prochaine séance du comité aura lieu le sur Signal.
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.