AccueilTechTéléphonesL'analyse CSAM serait abusée, déclare Apple, dans un demi-tour ironique

L’analyse CSAM serait abusée, déclare Apple, dans un demi-tour ironique

Lorsque Apple a annoncé sa propre approche en matière d’analyse CSAM, beaucoup d’entre nous ont averti que le processus utilisé pour vérifier les matériels d’abus sexuels sur des enfants serait finalement utilisé de manière abusive par les gouvernements répressifs pour rechercher des éléments tels que des plans de protestation politique.

La société de Cupertino avait alors rejeté ce raisonnement, mais, ironiquement, elle utilise désormais précisément cet argument en réponse au gouvernement australien…

Plans d’analyse CSAM originaux d’Apple

Apple avait initialement prévu d’effectuer une analyse sur l’appareil pour détecter les CSAM, en utilisant une technique d’empreintes digitales numériques.

Ces empreintes digitales sont un moyen de faire correspondre des images particulières sans que quiconque ait à les visualiser, et sont conçues pour être suffisamment floues pour continuer à correspondre à des images qui ont été recadrées ou autrement modifiées, tout en générant très peu de faux positifs.

Pour être clair, la proposition d’Apple était une approche respectueuse de la vie privée, car la numérisation serait effectuée par nos propres appareils et personne ne regarderait jamais nos photos à moins que plusieurs correspondances ne soient signalées.

Le problème du gouvernement répressif

Le problème, comme beaucoup d’entre nous l’ont observé, était le risque d’abus de la part de gouvernements répressifs.

Une empreinte numérique peut être créée pour n’importe lequel type de matériel, pas seulement CSAM. Rien n’empêche un gouvernement autoritaire d’ajouter à la base de données des images d’affiches de campagne politique ou similaires.

Un outil conçu pour cibler les grands criminels pourrait être adapté de manière triviale pour détecter ceux qui s’opposent à un gouvernement ou à une ou plusieurs de ses politiques. Apple – qui recevrait la base de données d’empreintes digitales des gouvernements – se retrouverait involontairement à aider la répression ou, pire encore, les militants politiques.

Apple a affirmé qu’elle n’aurait jamais permis cela, mais la promesse reposait sur la liberté légale d’Apple de refuser, ce qui ne serait tout simplement pas le cas. En Chine, par exemple, Apple a été légalement tenu de supprimer les VPN, les actualités et autres applications, et de stocker les données iCloud des citoyens chinois sur un serveur appartenant à une entreprise contrôlée par le gouvernement.

Il n’existait aucun moyen réaliste pour Apple de promettre qu’il ne se conformerait pas aux exigences futures concernant le traitement des bases de données d’« images CSAM » fournies par le gouvernement, qui incluent également des correspondances avec les documents utilisés par les critiques et les manifestants. Comme l’entreprise l’a souvent dit pour défendre ses actions dans des pays comme la Chine, Apple respecte la loi de chacun des pays dans lesquels elle opère.

Le demi-tour en trois étapes d’Apple

Apple a initialement rejeté cet argument, mais a déclaré qu’en réponse aux inquiétudes généralisées à ce sujet, il avait quand même décidé d’abandonner ses projets.

L’entreprise a ensuite changé de position et a admis que le problème existait.

Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants chez Apple, a écrit : « Cela (…) entraînerait le potentiel d’une pente glissante de conséquences involontaires. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.

Nous avons désormais atteint la troisième étape : Apple lui-même utilise l’argument qu’il avait initialement rejeté.

Apple utilise un argument contre le gouvernement australien

Le gouvernement australien propose d’obliger les entreprises technologiques à rechercher des CSAM, et Le gardien rapporte qu’Apple utilise désormais l’argument de la pente glissante pour lutter contre le plan.

Apple a mis en garde contre une proposition australienne visant à forcer les entreprises technologiques à analyser les services cloud et de messagerie à la recherche de matériels pédopornographiques, risquant de « porter atteinte aux protections fondamentales de la vie privée et de la sécurité » et pourrait conduire à une surveillance de masse avec des répercussions mondiales (…)

« La recherche de contenus particuliers ouvre la porte à une surveillance massive des systèmes de communication et de stockage qui contiennent des données relatives aux affaires les plus privées de nombreux Australiens », a déclaré Apple.

« De telles capacités, comme le montre l’histoire, s’étendront inévitablement à d’autres types de contenu (tels que des images, des vidéos, du texte ou de l’audio) et des catégories de contenu. »

Apple a déclaré que ces outils de surveillance pourraient être reconfigurés pour rechercher d’autres contenus, tels que les activités politiques, religieuses, sanitaires, sexuelles ou reproductives d’une personne.

Le gouvernement affirme qu’il a écouté « beaucoup de bons retours » d’Apple et d’autres, et qu’il « intégrera ce que nous pouvons » dans une version révisée du plan.

photo par FlyD sur Unsplash

FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.

Marion Legrand
Marion Legrandhttp://soon.fr
Marion a été éditeur en chef pour SOON. elle a précédemment créé des stratégies de marketing de contenu et des textes convaincants pour diverses entreprises de technologie et de commerce électronique. Elle a cofondé deux jeux de rôle fantastiques en direct qui ont offert des expériences immersives et interactives pendant près de 10 ans.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Advertisingspot_img

Popular posts

My favorites

I'm social

0FansJ'aime
0SuiveursSuivre
3,912SuiveursSuivre
0AbonnésS'abonner