Apple prévoit de surveiller tous les iPhones américains pour trouver des preuves de pédopornographie
MAIS IL ON PROTEGER DES MILLIONS DE FEMMES QUI FONT DU SEX CAM ET DES MANNEQUINS MINEURES GRACE A NOS SCRIPTES ON PEUT LES VOIRE LES ÉCOUTEZ
MITOS OU LA PEUR IL ON UNE BASE DE DONNES SUR DES COCHONNES DU MONDE ENTIER ET PAS DES BOUDINS BY XEROX
Publié par wikistrike.com sur 6 Août 2021, 09:52am
Catégories : #Social - Société, #Science - technologie - web - recherche
La « société de protection de la vie privée » Apple prévoit de surveiller tous les iPhones américains pour trouver des preuves de pédopornographie
Apple prévoit de surveiller tous les iPhones américains pour trouver des preuves de pédopornographie
Comme le dit le vieil adage : Si vous ne faites rien d’illégal, alors vous n’avez rien à craindre de la surveillance.
Les smartphones agissent déjà comme des dispositifs de repérage diffusant les allées et venues de leurs propriétaires, mais Apple est sur le point d’ouvrir la porte à des formes beaucoup plus avancées de surveillance volontaire basée sur les smartphones en lançant un nouveau programme conçu pour détecter et signaler les utilisateurs d’iPhone qui se trouvent en possession de matériel pédopornographique – connu sous l’acronyme CSAM (Child Sexual Abuse Materials) dans le langage universitaire. Selon une poignée d’universitaires qui ont eu un aperçu des plans de l’entreprise – et qui ont rapidement vendu la mèche sur Twitter et dans des interviews avec la presse.
M. Green n’est pas le seul « expert » à s’opposer à cette idée. « C’est une idée absolument épouvantable, car elle va conduire à une surveillance massive distribuée de… nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d’ingénierie de la sécurité à l’université de Cambridge. Selon un autre chercheur, la surveillance de type « 1984 » n’est plus qu’à quelques pas.
Le FT a toutefois réussi à trouver au moins un universitaire prêt à défendre l’approche d’Apple.
Le système d’Apple est moins invasif dans la mesure où la vérification est effectuée sur le téléphone, et « ce n’est qu’en cas de correspondance qu’une notification est envoyée à ceux qui effectuent la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l’université du Surrey. « Cette approche décentralisée est à peu près la meilleure approche que l’on puisse adopter si l’on s’engage dans cette voie ».
Pourtant, d’autres ont prévenu que le système n’était qu’à quelques pas de la surveillance de type « 1984 ». Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d’Apple était « tectonique » et constituait un « pas énorme et régressif pour la vie privée des individus ». « Apple fait reculer la vie privée pour autoriser 1984 ».
aubedigitale.com/la-societe-de-protection-de-la-vie-privee-apple-prevoit-de-surveiller-tous-les-iphones-americains-pour-trouver-des-preuves-de-pedopornographie/
Le nouveau système, appelé « neuralMatch », devrait être dévoilé par Apple dans le courant de la semaine. Le logiciel devrait être installé sur les iPhones américains via une mise à jour logicielle. Selon le Financial Times, le système automatisé peut alerter de manière proactive une équipe d’examinateurs humains s’il pense que du CSAM est présent sur l’iPhone d’un utilisateur. Si les examinateurs peuvent vérifier le matériel, les forces de l’ordre seront contactées.
Voici comment fonctionnera « neuralMatch », selon le FT :
L’algorithme neuralMatch d’Apple analysera en permanence les photos stockées sur l’iPhone d’un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud. Les photos des utilisateurs, converties en une chaîne de chiffres par un processus appelé « hachage », seront comparées à celles d’une base de données d’images connues d’abus sexuels commis sur des enfants.
Le système a été entraîné sur 200 000 images d’abus sexuels recueillies par le National Center for Missing and Exploited Children, un organisme américain à but non lucratif.
Un universitaire à qui l’on a offert un aperçu du logiciel a expliqué pourquoi cela pourrait créer de sérieux risques pour la vie privée. Apple a reçu beaucoup de publicité positive pour son engagement en faveur de la protection de la vie privée des utilisateurs – vous vous souvenez qu’elle a refusé de craquer l’iPhone de l’un des tireurs de San Bernardino ? Eh bien, cette technologie de cryptage est devenue un éternel casse-tête pour les forces de l’ordre. En janvier dernier, Apple a discrètement abandonné son projet de permettre aux utilisateurs de crypter entièrement leurs sauvegardes iCloud en raison des plaintes des forces de l’ordre.
Aujourd’hui, Apple a trouvé un terrain d’entente : elle va assumer la responsabilité du contrôle des iPhones, du moins dans une certaine mesure. Pour ce faire, la société déploie un nouvel outil d’apprentissage automatique qui analysera les iPhones à la recherche d’images correspondant à certains « hachages perceptuels » connus pour représenter de la pédopornographie. Mais, comme l’ont déploré des universitaires, ces images pourraient être induites en erreur.
De plus, l’outil qui est aujourd’hui utilisé pour dénicher de la pédopornographie pourrait un jour être utilisé abusivement par des gouvernements autoritaires (comme le PCC). Et une fois qu’Apple se sera engagée à utiliser ce type de surveillance, les gouvernements l’exigeront de tous.
Les sources stp ! https://www.wikistrike.com/2021/08/apple-prevoit-de-surveiller-tous-les-iphones-americains-pour-trouver-des-preuves-de-pedopornographie.html
https://www.fr24news.com/fr/a/2021/08/apple-va-scanner-les-iphones-americains-a-la-recherche-dimages-dabus-sexuels-sur-des-enfants.html