Apple a répondu à l’alarme croissante concernant sa nouvelle fonction d’analyse de l’iPhone de la part d’experts et de concurrents en matière de confidentialité.

La semaine dernière, la société a annoncé qu’elle lancerait de nouveaux outils permettant d’examiner les fichiers sur le téléphone d’un utilisateur et de rechercher du CSAM ou du matériel pédopornographique.

Apple a déclaré que la fonctionnalité a été conçue dans un souci de confidentialité et que l’analyse réelle est effectuée sur l’iPhone d’une personne plutôt que sur les systèmes d’Apple. La société ne pourra voir les photos que si elles sont suffisamment similaires à une base de données existante d’images d’abus sexuels sur des enfants, a-t-il déclaré.

Malgré ces garanties, la nouvelle fonctionnalité a été vivement critiquée par les militants de la protection de la vie privée et de la sécurité, qui affirment qu’elle pourrait affaiblir les protections fondamentales de l’iPhone et en abuser pour cibler des utilisateurs innocents.

Des critiques ont suggéré, par exemple, que les gouvernements pourraient forcer Apple à ajouter d’autres types d’images à sa base de données, afin que l’outil puisse être utilisé par des régimes despotiques pour traquer les dissidents, par exemple. D’autres craintes incluent la possibilité que le système se dérègle et signale d’autres types d’images pour examen par Apple, supprimant essentiellement la confidentialité d’images complètement innocentes.

Apple a répondu à ces critiques dans un nouveau document FAQ publié sur leur site Web sous le nom « Protections étendues pour les enfants ».

Dans l’introduction de ce document, il a reconnu que si les fonctionnalités ont gagné le soutien de certaines organisations, d’autres ont « tendu la main avec des questions ».

Il cherche d’abord à répondre aux questions sur l’outil connu sous le nom de « sécurité des communications dans les messages », qui analyse les photos envoyées aux enfants à la recherche de signes d’abus. Il note qu’Apple n’a jamais accès à ces communications, que le cryptage de bout en bout est toujours garanti et que les enfants seront avertis avant que les informations ne soient partagées avec leurs parents.

Il aborde ensuite la fonctionnalité la plus controversée, connue sous le nom de “détection CSAM”. Dans cette section, Apple prend une série d’engagements destinés à apaiser les inquiétudes concernant la nouvelle fonctionnalité.

Il indique qu’Apple ne numérisera pas toutes les photos, mais uniquement celles qui ont été téléchargées sur iCloud Photos, ce qui suggère que tout téléphone avec cette fonctionnalité désactivée sera exempté. Apple n’avait pas explicitement dit auparavant qu’il y aurait un moyen de désactiver cette fonction de numérisation.

Apple convient également qu’il n’a conçu le système que pour détecter les images d’abus sexuels sur des enfants, apparemment en réponse aux préoccupations selon lesquelles la portée de la fonctionnalité pourrait être étendue à l’avenir.

Il dit que s’il lui est demandé d’ajouter d’autres types d’images à sa base de données, il « rejettera de telles demandes ».

“Nous avons déjà été confrontés à des poursuites judiciaires pour élaborer et mettre en œuvre des changements requis par le gouvernement qui dégradent la confidentialité des utilisateurs, et nous avons fermement rejeté ces demandes”, a déclaré Apple. « Nous continuerons à les rejeter à l’avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accepterons la demande d’aucun gouvernement de l’étendre ».

Il nie également qu’il existe un moyen de le faire sans l’aide d’Apple, en “injectant” d’autres types d’images dans la base de données à signaler. Il indique qu’Apple ne peut pas ajouter de nouvelles images à cette base de données, qu’elle provient d’organisations de sécurité des enfants et que, comme la base de données est la même pour tout le monde, il ne serait pas possible de la modifier pour un utilisateur spécifique.

Il indique également qu'”il n’y a pas de rapports automatiques aux forces de l’ordre”, donc Apple verrait d’abord tous les rapports qui ont été transmis aux autorités. « Dans le cas peu probable où le système signalerait des images qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait soumis au NCMEC », a-t-il déclaré.