La nouvelle voie vers la vie privée après l’échec du règlement européen sur les données
Les interminables paramètres de cookies qui s’affichent sur tous les sites Web ressemblent un peu à une farce de conformité de la part d’un Internet qui s’acharne à ne pas changer. C’est très ennuyeux. Et cela ressemble un peu à une revanche des marchés de données sur les régulateurs, donnant une mauvaise réputation au Règlement général sur la protection des données (RGPD) et donnant l’impression que les bureaucrates politiques ont, une fois de plus, maladroitement interféré avec les progrès de l’innovation.
La vérité est cependant que la vision de la vie privée proposée par le GDPR serait à l’origine d’une ère d’innovation bien plus passionnante que la sleaze-tech actuelle. Dans l’état actuel des choses, cependant, il n’y parvient tout simplement pas. Ce qu’il faut, c’est une approche infrastructurelle assortie des bonnes incitations. Je m’explique.
Les métadonnées granulaires récoltées en coulisses
Comme beaucoup d’entre nous en sont maintenant parfaitement conscients, une quantité incessante de données et de métadonnées est produite par les ordinateurs portables, les téléphones et tout appareil portant le préfixe « intelligent ». À tel point que le concept d’une décision souveraine sur vos données personnelles n’a guère de sens : si vous cliquez sur « non » aux cookies sur un site, un courriel aura néanmoins livré discrètement un traceur. Supprimez Facebook et votre mère aura tagué votre visage avec votre nom complet sur une vieille photo d’anniversaire, et ainsi de suite.
Ce qui est différent aujourd’hui (et pourquoi, en fait, une caméra de télévision en circuit fermé est une terrible représentation de la surveillance), c’est que même si vous choisissez de protéger votre vie privée et que vous avez les compétences et le savoir-faire pour le faire, l’environnement général de la collecte massive de métadonnées vous portera toujours préjudice. Il ne s’agit pas de vos données, qui seront de toute façon souvent cryptées, mais de la façon dont les flux collectifs de métadonnées révéleront néanmoins des choses à un niveau plus fin et vous feront apparaître comme une cible – un client potentiel ou un suspect potentiel si vos schémas de comportement ressortent.
Voir aussi : Les préoccupations concernant la confidentialité des données augmentent, et la blockchain est la solution
En dépit de ce que cela pourrait laisser croire, tout le monde souhaite en fait avoir une vie privée. Même les gouvernements, les entreprises et surtout les agences militaires et de sécurité nationale. Mais ils veulent une vie privée pour eux-mêmes, pas pour les autres. Et cela les place devant une énigme : comment les agences de sécurité nationale peuvent-elles, d’une part, empêcher les agences étrangères d’espionner leurs populations et, d’autre part, construire des portes dérobées pour pouvoir les espionner ?
Les gouvernements et les entreprises ne sont pas incités à assurer la protection de la vie privée.
Pour le dire dans un langage éminemment familier à ce lectorat : la demande est là, mais il y a un problème avec la protection de la vie privée. d’incitations, pour ne pas dire plus. Pour illustrer l’ampleur du problème d’incitation actuel, un rapport d’EY valeurs le marché des données de santé du Royaume-Uni à lui seul à 11 milliards de dollars.
De tels rapports, bien que hautement spéculatifs en termes de valeur réelle des données, produisent néanmoins un irrésistible sentiment de manque, ou FOMO (Feam-of-Missing-Out), conduisant à une prophétie auto-réalisatrice, car tout le monde se précipite sur les profits promis. En d’autres termes, même si tout le monde, des particuliers aux gouvernements en passant par les grandes entreprises technologiques, souhaite garantir le respect de la vie privée, les incitations à le faire ne sont tout simplement pas assez fortes. La FOMO et la tentation d’introduire une porte dérobée, de rendre des systèmes sûrs un peu moins sûrs, sont tout simplement trop fortes. Les gouvernements veulent savoir de quoi parle leur population (et celle des autres), les entreprises veulent savoir ce que pensent leurs clients, les employeurs veulent savoir ce que font leurs employés et les parents et les enseignants veulent savoir ce que font les enfants.
Il existe un concept utile issu de l’histoire des études sur la science et la technologie qui peut contribuer à éclairer cette confusion. Il s’agit de la théorie de l’affordance. Cette théorie analyse l’utilisation d’un objet en fonction de son environnement déterminé, du système et des choses qu’il offre aux gens – le genre de choses qu’il devient possible, désirable, confortable et intéressant de faire grâce à l’objet ou au système. Notre environnement actuel, et c’est un euphémisme, offre la tentation irrésistible de la surveillance à tout le monde, des propriétaires d’animaux aux parents en passant par les gouvernements.
Voir aussi : L’économie des données est un cauchemar dystopique
Dans un excellent livre, l’ingénieur logiciel Ellen Ullman décrit la programmation d’un logiciel de réseau pour un bureau. Elle décrit de façon saisissante l’horreur qui se produit lorsque, après avoir installé le système, le patron réalise avec enthousiasme qu’il peut également être utilisé pour suivre les frappes de sa secrétaire, une personne qui travaille pour lui depuis plus de dix ans. Alors qu’auparavant, il y avait de la confiance et une bonne relation de travail. Par inadvertance, les pouvoirs du roman ont transformé le patron, grâce à ce nouveau logiciel, en un fouineur, épiant les rythmes de travail quotidiens les plus détaillés des personnes qui l’entourent, la fréquence des clics et la pause entre les frappes. Cette surveillance aveugle, bien que réalisée par des algorithmes plutôt que par des humains, passe généralement pour une innovation aujourd’hui.
La vie privée comme fait matériel et infrastructurel
Alors, où cela nous mène-t-il ? Que nous ne pouvons pas simplement apposer des correctifs à la vie privée sur cet environnement de surveillance. Vos appareils, les habitudes de vos amis et les activités de votre famille seront néanmoins reliés et vous identifieront. Et les métadonnées fuiront de toute façon. Au lieu de cela, la vie privée doit être sécurisée par défaut. Et nous savons que cela ne se fera pas par la seule bonne volonté des gouvernements ou des entreprises technologiques, car ils n’y sont tout simplement pas incités.
Le GDPR, avec ses conséquences immédiates, a échoué. La vie privée ne devrait pas être un droit que nous essayons désespérément de faire exister à chaque visite d’un site web, ou que la plupart d’entre nous ne peuvent que rêver d’exercer par le biais de procès coûteux. Non, elle doit être un fait matériel et infrastructurel. Cette infrastructure doit être décentralisée et mondiale afin de ne pas tomber sous le coup d’intérêts nationaux ou commerciaux spécifiques. En outre, elle doit être assortie de mesures incitatives appropriées, récompensant ceux qui gèrent et entretiennent l’infrastructure de manière à ce que la protection de la vie privée devienne lucrative et attrayante, tandis qu’il est impossible d’y porter atteinte.
Pour conclure, je voudrais souligner un aspect extrêmement sous-estimé de la vie privée, à savoir son potentiel positif pour l’innovation. La vie privée a tendance à être comprise comme une mesure de protection. Mais si la vie privée était simplement un fait, l’innovation basée sur les données deviendrait soudainement beaucoup plus significative pour les gens. Cela permettrait un engagement beaucoup plus large pour façonner l’avenir de tout ce qui est axé sur les données, y compris l’apprentissage automatique et l’IA. Mais nous y reviendrons la prochaine fois.
Les points de vue, pensées et opinions exprimés ici n’engagent que l’auteur et ne reflètent ou ne représentent pas nécessairement les points de vue et opinions de Cointelegraph.
Jaya Klara Brekke est la directrice de la stratégie de Nym, un projet mondial de protection décentralisée de la vie privée. Elle est chargée de recherche à l’Institut Weizenbaum, a obtenu un doctorat du département de géographie de l’Université de Durham sur la politique des protocoles blockchain, et est occasionnellement conseillère experte auprès de la Commission européenne sur la technologie des registres distribués. Elle parle, écrit et mène des recherches sur la vie privée, le pouvoir et les économies politiques des systèmes décentralisés.