Veille Data & Tech

Risques liés aux techniques IA de réidentification des témoins

La Revue des Médias de l’INA s’est penchée en mai dernier sur les défis liés à la protection de l’anonymat des témoins intervenant dans les reportages de France Télévisions. Le MediaLab de France Televisions, dédié à l’innovation technologique, a en effet été alerté d’une faille affectant sa technique d’anonymisation des voix des témoins (permettant de les rendre plus graves ou plus aiguës). Les tests menés à France Télévisions ont révélé qu'à partir d'un visage flouté, il était possible d’obtenir le portrait-robot d’une personne sans pouvoir toutefois reconstituer son image complète (les résultats n’affichent pas de visages reconnaissables mais des suggestions de traits).

Afin d’assurer une protection intangible de l’identité des témoins, le MediaLab a étudié plusieurs techniques d’anonymisation. Les travaux ont également abouti à l’adoption en juin 2023 d’une Charte de l’anonymat qui prévoit des mesures d’anonymisation suivantes :

  • Pour la voix : lecture du témoignage par des tiers, recours à des voix de synthèse.
  • Pour l’image : enregistrement des personnes de dos, recours à un « figurant »

Le recours à l’IA pour générer des visages artificiels a été testé mais présente selon France Télévisions de nombreuses contraintes techniques (allongement des délais de production et de diffusion notamment). Cette technique a été utilisée pour le documentaire « Bienvenue en Tchétchénie », diffusé en 2020, dans lequel des visages artificiels sont utilisés pour incarner de jeunes réfugiés tchétchènes LGBT, aidés dans leur fuite du pays par des activistes russes.

Après examen de milliers de reportages comportant des témoignages de personnes floutées, France Télévisions a dépublié une trentaine de sujets, après avoir identifié des risques pour les témoins (violence, perte d’emploi, attaque en justice…) et poursuit sa réflexion sur des solutions d’anonymisation irréversibles.

Parution de « The ordinal society » des sociologues Marion Fourcade et Kieran Healy 

Dans leur ouvrage paru en avril 2024, Marion Fourcade, professeur de sociologie à l'université de Berkeley et Kieran Healy, professeur de sociologie à l'université Duke, étudient le phénomène de numérisation de la vie sociale et en particulier les mécanismes de classement et de notation reposant sur des modèles algorithmiques.

Si ces systèmes permettent de prévenir des escroqueries et autres fraudes commerciales, Marion Fourcade et Kieran Healy constatent une dépendance nocive des individus à la notation et au classement et alertent sur les risques systémiques générés par ces technologies construites sur des modèles économiques de captation opaque des données de navigation, et parfois de données plus sensibles telles que les données biométriques.

Selon les auteurs, les systèmes de classement ont instauré des processus « d'ordinalisation » (classement) inondant tous les domaines de la vie sociale et modifiant « nos intuitions morales sur le mérite et la valeur personnelle ».

Des services VTC (qui notent à la fois les clients et les conducteurs) au secteur bancaire (score de crédit), ou aux applications de santé, ces systèmes alimentent une course effrénée à la bonne note et participent à la reproduction des inégalités sociales : ces technologies « classificatoires » reposent en effet sur des décisions qui ont une incidence considérable sur les chances socioéconomiques des personnes évaluées.

Publication d'un avis du CEPD sur la reconnaissance faciale dans les aéroports

La CNIL a publié ses recommandations sur l'ouverture et la réutilisation des données personnelles disponibles sur Internet. Destinées aux professionnels, ces recommandations visent à concilier les obligations légales avec les droits des personnes. L’autorité propose des fiches pratiques pour aider les diffuseurs et réutilisateurs à comprendre leurs responsabilités, garantir la légalité des traitements et protéger les droits des personnes.  

Ouverture et réutilisation de données personnelles sur Internet : la CNIL publie ses recommandations 

La CNIL a validé le dispositif de laissez-passer pour les Jeux Olympiques et Paralympiques de Paris 2024, tout en émettant des réserves. Ce dispositif, basé sur des QR codes, vise à contrôler l'accès aux zones de sécurité où la circulation sera restreinte. La CNIL a manifesté ses préoccupations concernant la protection des données personnelles, notamment en termes de proportionnalité et de sécurité des informations collectées. Elle insiste sur la nécessité de minimiser ces données et de garantir leur sécurisation pour éviter tout usage abusif. 

Pétition contre l’inaction répressive de la CNIL 

Un récent post LinkedIn de Guillaume Champeau (DPO chez Olympe.Legal) suscite l’attention de la communauté. Dans celui-ci, il dresse une critique sévère de la CNIL pour son manque d'efficacité dans l'application du RGPD. En effet, six ans après l'entrée en vigueur de la réglementation, il lui reproche sa faible action répressive par rapport à ses homologues européens (notamment Espagnol) qui serait préjudiciable aux DPO, aux entreprises et aux citoyens. Préoccupé par cette situation (la CNIL a prononcé en 2023 42 sanctions pour 340 contrôles), il a lancé une pétition demandant à la CNIL de reprendre pleinement ses missions répressive (contrôle et sanction).  

L'ICO ouvre une enquête sur la fonctionnalité Recall de Microsoft  

L'Information Commissioner's Office (ICO) du Royaume-Uni a ouvert une enquête sur la fonctionnalité Recall de Microsoft, qui permet de récupérer le contenu visionné sur son ordinateur, en prenant des captures d’écran à plusieurs secondes d’intervalle. L'ICO a indiqué être rentré en contact avec l’entreprise afin de déterminer les mesures qu’elle a mises en place pour respecter la vie privée des individus. Elle a rappelé que les organisations doivent être transparentes avec les utilisateurs quant à l'utilisation de leurs données et ne traiter les données personnelles que dans la mesure nécessaire pour atteindre leur objectif spécifique.  

Meta accusé de traitement illégal de données pour entraîner ses IA 

Meta platform (anciennement Facebook) a récemment mis à jour sa politique de confidentialité pour annoncer à ses utilisateurs qu’elle comptait utiliser leurs données personnelles afin de développer ses systèmes d’intelligence artificielle, sans recueillir leur consentement. L’association NOYB a déposé plainte dans 11 pays d’Europe différents afin que les autorités de protection des données de ces Etats fassent cesser ce changement prévu de rentrer en application à la fin du mois. 

Retrouvez la précédente veille

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.