Les questions de protection de la vie privée sont au cœur de l’activité internet, des actions des entreprises et des décisions des gouvernements.
- Cela s’explique en grande partie par les violations,
- les scandales
- et les fuites de données personnelles qui ont érodé la confiance dans les technologies et les systèmes d’information.
Le rapport du National Security Telecommunications Advisory Committee (NSTAC) sur le plan d’action en matière de cybersécurité indique que la protection de la vie privée est un élément essentiel de la cybersécurité et que nous devons inverser la tendance pour rétablir la confiance des Français dans les systèmes d’information.
Pour ce faire, d’ici 2028, les Français doivent avoir la « garantie » que les progrès technologiques ne menacent plus la vie privée, mais qu’ils la renforcent au contraire en assurant la sûreté et la sécurité de leurs données personnelles.
L’un des éléments essentiels des futures avancées technologiques et de la sécurité internet est le développement accru de l’intelligence artificielle (IA)
Mais les principes de protection de la vie privée doivent être pris en compte dès le début du processus de développement de l’IA afin d’équilibrer les avantages technologiques tout en préservant la vie privée.
Considérations sur la protection de la vie privée dans le cadre de l’IA
Prenons un moment pour explorer les implications et les répercussions potentielles de la mise en œuvre accrue de l’IA sur internet. Bien que cela semble futuriste, lorsque l’IA commencera à « penser » comme les humains, voire à se substituer à eux, elle pourrait menacer 3 principes centraux de la protection de la vie privée :
- l’exactitude,
- la protection
- et la maîtrise des données.
A. Exactitude des données
Pour que l’IA produise des résultats précis, les algorithmes doivent contenir des ensembles de données importants et représentatifs. La sous-représentation de certains groupes dans les ensembles de données peut entraîner des résultats inexacts, voire des décisions préjudiciables.
Ce biais algorithmique est souvent créé de manière involontaire. Par exemple, des chercheurs ont constaté que les haut-parleurs intelligents ne parvenaient pas à comprendre les voix des femmes ou des minorités parce que les algorithmes étaient construits à partir de bases de données contenant principalement des voix d’hommes blancs.
Dans cette optique, que se passerait-il si nous faisions confiance à l’IA pour prendre nos appels au 112 ?
B. Protection des données
Bien que les grands ensembles de données produisent des résultats plus précis et plus représentatifs, ils présentent un risque plus élevé pour la protection de la vie privée en cas de violation. Même des données personnelles apparemment anonymes peuvent facilement être désanonymisées par l’IA.
Plus précisément, les chercheurs ont constaté que l’anonymat est minimal, même dans les ensembles de données les plus grossiers, ce qui entraîne une réidentification pouvant aller jusqu’à 95 %. Cela signifie que vous pouvez courir le risque d’être facilement identifié et de voir vos données divulguées si les considérations relatives à la protection de la vie privée ne sont pas prises en compte.
L’utilisation de l’IA peut également donner lieu à des signaux d’alerte lorsqu’elle est utilisée pour le traitement des impôts et l’analyse de l’admissibilité aux prestations sociales.
C. Maîtrise des données
Lorsque l’IA commence à voir et à définir des modèles, elle tire des conclusions et peut prendre des décisions à votre sujet pour faciliter votre expérience internet ou la rendre plus robuste.
Mais lorsque l’IA donne des résultats faux ou défavorables, cela soulève des questions quant à savoir si les décisions ont été prises de manière équitable.
Par exemple, l’IA utilisée pour évaluer les risques de crédit peut involontairement réduire les lignes de crédit des personnes qui correspondent à certains profils. Ces décisions peuvent être prises à votre insu, sans votre consentement ou sans que vous ayez le choix, surtout si les données utilisées pour prendre ces décisions sont collectées à votre insu.
De plus, l’IA peut déduire d’autres détails vous concernant, tels que vos tendances politiques, votre race et votre religion, même si vous n’avez jamais diffusé ces détails sur internet.
Se protéger contre l’IA
Récemment, de fausses images réalisées par l’IA ont circulé sur internet, et elles ont causé des ennuis juridiques.
Pour se protéger, il faut d’abord s’informer
Protégez vos données et libérez tout le potentiel d'internet
🌐 Découvrez la liberté en ligne : Avec notre application VPN, changez votre adresse IP et accédez aux contenus bloqués ou géo-restreints partout dans le monde. Netflix US, chaînes TV étrangères, sites spécifiques… rien ne vous résistera !
🔒 Sécurisez votre navigation : Protégez vos données sensibles grâce à un cryptage avancé. Dites adieu aux malwares et aux risques de piratage, que ce soit chez vous ou sur un Wi-Fi public.
📈 Essayez dès maintenant notre VPN et rejoignez des millions d'utilisateurs satisfaits. Ne laissez pas votre vie privée sans défense !
🔑 Gérez vos mots de passe comme un pro : Avec notre gestionnaire de mots de passe, dites adieu aux oublis et créez des mots de passe ultra-sécurisés. Plus besoin de vous inquiéter des failles de sécurité.
Selon les experts, vous devez savoir comment fonctionne la technologie et quels sont les dangers qu’elle peut présenter. Veillez également à ce que votre technologie soit mise à jour.
L’intelligence artificielle a généré de nombreuses images et vidéos connues sous le nom de « deepfakes » . Les deepfakes utilisent la reconnaissance faciale et vocale qui est souvent utilisée pour se faire passer pour quelqu’un d’autre ou pour contourner les mesures de sécurité.
Si quelque chose est facile à manipuler, il peut potentiellement s’agir d’un cybercrime. L’intelligence artificielle peut même manipuler votre empreinte digitale.
Pour vous protéger contre l’I.A, activez vos paramètres de confidentialité afin de maîtriser l’accès à vos informations et contenus personnels
Il peut être difficile de déterminer ce qui est réel ou non lorsqu’il s’agit d’images et de vidéos générées par l’IA.
Il faut vous méfier des choses vues sur les réseaux sociaux si elles proviennent d’une source non vérifiée. Veillez à vérifier l’authenticité de toutes les images et vidéos et à utiliser des plateformes fiables.
Il est facile de se faire piéger par des « deepfakes » . Lors de la vérification, veillez à repérer les mouvements non naturels ou les incohérences dans les vidéos, et prêtez attention aux détails.
Il devient capital, de nos jours, de vérifier nos sources
Il existe de nombreux outils qui peuvent vous indiquer qu’il s’agit d’images ou de vidéos générées par l’intelligence artificielle, ainsi que tout ce qui est sonore. Vous pouvez utiliser Google Image ou Tineye pour vérifier si quelque chose est réel ou non.
Conclusion
En définitive, les données personnelles peuvent être utilisées, et parfois contre vous, sans que vous puissiez les maîtriser.
⇒ Adoptez une bonne hygiène des données
Seuls les types de données nécessaires à la création de l’IA doivent être collectés, et les données doivent être sécurisées et conservées aussi longtemps que nécessaire pour atteindre l’objectif.
⇒ Utilisez de bons ensembles de données
Les développeurs doivent construire l’IA en utilisant des ensembles de données exacts, équitables et représentatifs. Dans la mesure du possible, les développeurs devraient concevoir des algorithmes d’IA qui vérifieront et garantiront la qualité d’autres algorithmes.
⇒ Donnez aux utilisateurs la possibilité de maîtriser leurs données
Les utilisateurs doivent savoir quand leurs données sont utilisées, si l’IA est utilisée pour prendre des décisions à leur sujet et si leurs données sont utilisées pour créer l’IA. Ils devraient également avoir la possibilité de consentir à une telle utilisation des données.
⇒ Réduire les biais algorithmiques
Veiller à ce que les ensembles de données soient larges et inclusifs lors de l' »apprentissage » de l’IA. Les biais algorithmiques posent le plus souvent des problèmes aux femmes, aux minorités et aux groupes (par exemple, les personnes souffrant de troubles vocaux, les personnes âgées) qui ne représentent qu’une petite partie de la main-d’œuvre technologique.