Point clé | Contenu |
---|---|
Régulation de l’IA | Le débat sur la régulation de l’intelligence artificielle (IA) trouve son origine dans des questions de longue date concernant la gouvernance d’internet. |
Protection des droits de l’homme | Il est urgent de mettre en place un cadre réglementaire bien conçu pour protéger les droits de l’homme à l’ère numérique, étant donné la manière dont l’IA contribue déjà à la répression numérique. |
Régulateurs face à l’IA | Seules quelques entreprises disposent actuellement des ressources financières et informatiques nécessaires pour développer des systèmes d’IA complexes utilisant de grands modèles de langage. |
Exemples de réglementation | La Chine, l’Union européenne et les États-Unis fournissent des exemples préliminaires de réglementation de l’IA, chacun ayant sa propre approche. |
Déficit de confiance | Des décisions commerciales récentes ont suscité des doutes sur la volonté et la capacité du secteur privé à s’autoréguler, ce qui soulève des préoccupations concernant la sécurité en ligne. |
De nombreux débats entourant l’IA trouvent leurs racines dans des questions politiques de longue date liées à la gouvernance d’internet :
- Comment la régulation peut-elle protéger efficacement les individus des acteurs malveillants, tant étatiques que non étatiques, tout en favorisant un secteur privé compétitif et innovant ?
- Quelles responsabilités légales les entreprises doivent assumer ?
Les leçons tirées de la dernière décennie de délibérations sur la surveillance gouvernementale, la nécessité d’un engagement robuste de la société civile à l’échelle mondiale et le problème de sur-autorégulation fournissent une feuille de route pour cette nouvelle ère.
Étant donné la manière dont l’IA contribue déjà à la répression numérique, un cadre réglementaire bien conçu doit urgemment protéger les droits de l’homme à l’ère numérique.
Les régulateurs s’attaquent à l’IA
Seul un nombre limité d’entreprises ont actuellement les ressources financières et computationnelles nécessaires pour développer des systèmes d’IA utilisant des modèles de langage complexes à grande échelle. De même, peu de gouvernements ont la capacité réglementaire et la compréhension technique pour concevoir des règles robustes pour le déploiement de l’IA générative.
Bien que les gouvernements de tous horizons démocratiques, de l’Indonésie aux Émirats arabes unis, aient commencé à lancer des stratégies ou des cadres de haut niveau autour de l’IA, beaucoup n’ont pas encore transformé ces déclarations en législation. À mesure que les avantages et les méfaits de la technologie deviennent plus évidents, les décideurs politiques peuvent s’inspirer des premiers exemples de la Chine, de l’UE et des États-Unis pour orienter leur propre législation.
⇒ Le Parti communiste chinois
Le Parti communiste chinois (PCC) a investi massivement dans l’industrie de l’IA tout en veillant à ce que les entreprises en question servent ses priorités autoritaires. L’Administration du cyberespace de Chine (CAC), un puissant organe de régulation, a entrepris un effort de plusieurs années pour intégrer les objectifs de censure du PCC dans :
- les algorithmes de recommandation de contenu du pays
- les médias synthétiques
- et les outils d’IA générative
Par exemple, le CAC a approuvé 41 fournisseurs de services d’IA générative en juin 2023, et cinq chatbots ont été mis à la disposition du public en août. Ces applications sont tenues de respecter ou de promouvoir les « valeurs socialistes fondamentales » et d’exclure le contenu jugé indésirable par le PCC. Des règles similaires sont en place depuis longtemps pour les réseaux sociaux chinois.
⇒ L’U.E.
Depuis 2021, l’UE a élaboré un cadre ambitieux qui pourrait servir de modèle mondial pour la gouvernance de l’IA, tout comme le règlement général sur la protection des données de Bruxelles est devenu une référence clé pour les lois sur la protection des données dans le monde.
Le projet de loi sur l’intelligence artificielle, qui était en négociations finales en août 2023, adapterait les obligations en fonction du niveau de risque associé à certaines technologies, notamment :
- la reconnaissance faciale
- les algorithmes de recommandation sur les réseauxsociaux
- les chatbots
- les outils d’IA pouvant générer des images et des vidéos
- et l’utilisation de l’IA dans les campagnes politiques
Les produits d’IA jugés risqués seraient interdits :
- les systèmes de crédit social
- les outils de police prédictive
- certaines utilisations de la surveillance biométrique
Les technologies à « risque plus limité » seraient soumises à une série d’exigences préalables et postérieures au marché, telles que l’enregistrement et une plus grande transparence.
⇒ Les États-Unis
Aux États-Unis, l’administration Biden a commencé à développer la gouvernance de l’IA en encourageant l’auto-régulation de l’industrie.
La proposition de la Charte des droits de l’IA, publiée en octobre 2022, énonçait un ensemble de principes pour guider la conception, l’utilisation et le déploiement de l’IA. Les directives comprennent :
- des protections contre les pratiques de données abusives
- les systèmes inefficaces et dangereux
- la discrimination algorithmique qui se produit lorsque les biais incorporés dans les données d’entraînement se reflètent dans les résultats d’un programme
La charte appelle également les entreprises à offrir aux gens une alternative humaine aux systèmes automatisés lorsque c’est approprié, et à informer les gens de la manière dont ces systèmes fonctionnent.
En juillet 2023, après la période de couverture, l’administration a obtenu des engagements volontaires de la part d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI en matière de sécurité et de sûreté de l’IA.
Bien que l’auto-régulation soit un point de départ important, elle doit être accompagnée d’une surveillance significative.
La production de contenu faux ou trompeur
L’une des pressions spécifiques auxquelles les gouvernements devront faire face est de répondre à la préoccupation largement répandue selon laquelle l’IA générative donnera un coup de fouet à la production de contenu faux ou trompeur. Les outils d’IA générative pourraient rendre moins coûteuse et plus facile la production de fausses informations dans un format sophistiqué, permettant la propagation rapide de ces informations d’une manière que les vérificateurs de faits humains auront du mal à suivre.
Cette préoccupation n’est pas nouvelle, puisque des discussions autour de la réglementation des vidéos dites « deepfake » sont en cours depuis des années, et qu’il y a déjà eu des propositions au niveau des pays pour réglementer ce type de contenu.
Dans les pays occidentaux, les faussetés – y compris les parodies – sont des discours protégés par les droits de l’homme, sauf dans certaines circonstances étroitement définies, telles que la fraude ou la diffamation. Le droit international protège de la même façon l’expression d’une opinion erronée ou d’une interprétation incorrecte d’événements passés.
Les gouvernements pourraient chercher à imposer la responsabilité de l’utilisation des outils d’IA générative en exigeant l’identification de la paternité en ligne. Mais ce faisant, ils pourraient empiéter sur le droit de s’exprimer anonymement, tel qu’il est protégé par le droit international des droits de l’homme. Nous avons déjà vu des gouvernements tenter de restreindre l’utilisation d’outils de messagerie chiffrée au nom de la lutte contre la criminalité, alors même que ces outils permettent aux gens de communiquer en privé et de façon anonyme, garantissant les droits de l’homme à l’ère numérique.
Les défenseurs devraient résister aux tentatives des gouvernements d’éroder la capacité à utiliser des outils d’anonymat au nom de la lutte contre une prolifération de contenus illicites générés par l’IA. Le droit de s’exprimer anonymement reste fondamental et mérite d’être protégé, en particulier pour les communautés marginalisées et celles qui vivent dans des environnements répressifs.
Où en sont les gouvernements qui veulent s’attaquer aux effets potentiellement perturbateurs de l’IA générative ?
La réglementation de l’IA est nécessaire de toute urgence, et aucune mesure d’autosurveillance de la part de l’industrie ne peut remplacer les mandats exécutoires, imposés démocratiquement à ceux qui développent et déploient des outils d’IA.
La réglementation de l’IA doit continuer à cibler l’utilisation de l’IA dans des contextes particuliers, notamment son utilisation pour prendre des décisions conséquentes affectant les droits des personnes à la liberté, à une procédure régulière et à l’absence de discrimination en matière d’emploi, de logement et d’éducation.
Veillons à ce que les outils d’IA ne soient pas concentrés entre les mains de quelques acteurs, et que le développement et le déploiement de ces outils soit cohérent avec la confidentialité des données et les protections des travailleurs. Ceux qui sont chargés de réglementer l’IA doivent également veiller à ce que de larges restrictions sur les contenus générés par l’IA ne finissent pas par restreindre les protections essentielles de la liberté d’expression.
Un déficit de confiance et de sécurité réduit l’espoir d’auto-régulation
Protégez vos données et libérez tout le potentiel d'internet
🌐 Découvrez la liberté en ligne : Avec notre application VPN, changez votre adresse IP et accédez aux contenus bloqués ou géo-restreints partout dans le monde. Netflix US, chaînes TV étrangères, sites spécifiques… rien ne vous résistera !
🔒 Sécurisez votre navigation : Protégez vos données sensibles grâce à un cryptage avancé. Dites adieu aux malwares et aux risques de piratage, que ce soit chez vous ou sur un Wi-Fi public.
📈 Essayez dès maintenant notre VPN et rejoignez des millions d'utilisateurs satisfaits. Ne laissez pas votre vie privée sans défense !
🔑 Gérez vos mots de passe comme un pro : Avec notre gestionnaire de mots de passe, dites adieu aux oublis et créez des mots de passe ultra-sécurisés. Plus besoin de vous inquiéter des failles de sécurité.
Une série de décisions commerciales suscite des doutes supplémentaires quant à la volonté et à la capacité du secteur privé à s’auto-réguler.
Sur plusieurs grandes plateformes, les équipes chargées du contenu, de l’intégrité, de la confiance et de la sécurité, y compris celles chargées de définir, de maintenir et d’appliquer les règles de comportement des utilisateurs, ont connu une réduction dramatique des effectifs et des ressources. Certaines entreprises ont également réduit les mécanismes de transparence ainsi que les politiques de contenu destinées à réduire la propagation d’informations fausses et trompeuses.
⇒ X
Ce changement de priorités suggère que les entreprises ont oublié les leçons des controverses passées. Nulle part ailleurs cette réduction et cette réorientation des ressources n’a été aussi dramatique que chez X, autrefois connu sous le nom de Twitter, après son acquisition par l’investisseur et entrepreneur technologique Elon Musk en octobre 2022.
Dans le cadre de ses licenciements massifs, l’entreprise a licencié des experts en matière de confiance et de sécurité, de droits de l’homme, de politique publique et de questions régionales en Afrique, en Asie et en Amérique latine.
X a également réduit sa transparence vis-à-vis du public, par exemple :
- en mettant son interface de programmation d’application (API) derrière un paywall
- en réduisant ses propres rapports de transparence sur les demandes de l’État
- en suspendant ses rapports à Lumen, une base de données qui publie les ordres gouvernementaux de suppression de contenu
Les préoccupations économiques au cours de la période de couverture ont également conduit Meta, Twitch d’Amazon, Google, Snap et Microsoft à imposer des licenciements massifs, réduisant les équipes travaillant sur des sujets tels que :
- les élections
- l’éthique de l’IA
- ou la modération du contenu
De nombreux sous-traitants qui effectuaient la modération du contenu, et qui souffraient déjà de salaires et de ressources insuffisants, ont également été licenciés.
Les entreprises semblent parier sur le fait qu’elles peuvent utiliser l’IA pour compenser la perte d’expertise humaine, même lorsqu’il s’agit de résoudre les problèmes découlant de l’IA elle-même.
⇒ OpenAI a proposé d’utiliser ChatGPT pour modérer le contenu en ligne et élaborer des règles de modération du contenu
La nouvelle vague d’outils d’IA générative pourrait être un atout puissant pour examiner le contenu que les réviseurs humains trouveraient perturbant. Cependant, la surveillance humaine reste essentielle pour garantir que les systèmes automatisés et leurs suppressions de contenu ne sont ni excessifs ni discriminatoires.
Les enjeux de ce pari sont élevés, surtout à l’approche des élections dans des pays pivotants et à mesure que le contenu généré par l’IA devient plus prévalent.
- Le licenciement d’équipes régionales et juridiques entraîne une perte de connaissances institutionnelles sur les partis politiques, les réseaux de désinformation et les systèmes de régulation.
- La réduction des politiques de contenu destinées à fournir des informations aux lecteurs affaiblira l’intégrité de l’information.
- La réduction de la transparence des plates-formes limitera la capacité de la société civile à analyser les tactiques de censure en évolution et à demander des comptes.
En fin de compte, certaines entreprises peuvent choisir de déprioriser davantage le développement et l’application de politiques en dehors de leurs marchés principaux perçus. Cependant, les décisions qui maximisent les profits à court terme tout en acceptant des conséquences négatives pour les droits de l’homme créeront en pratique une expérience en ligne plus dangereuse, menaçant l’environnement de l’État de droit sur lequel toutes les entreprises dépendent.
Veiller à ce que l’IA favorise les droits de l’homme en ligne
⇒ La technologie ne peut pas se substituer à la gouvernance
- La plupart des modèles d’IA sont très opaques
- dépendent du traitement de milliards de points de données
- et sont sous le contrôle d’une poignée d’entreprises qui en révèlent peu sur leur développement et leur formation
Leur structure opaque est fondamentalement en contradiction avec des valeurs démocratiques telles que la transparence, la proportionnalité et la responsabilité, et leurs entrées d’information sont souvent des foyers potentiels de biais.
Les entreprises qui créent ou déploient des systèmes d’IA, des start-ups les plus récentes aux géants les plus établis, devraient cultiver une compréhension des efforts précédents visant à renforcer la responsabilité des plates-formes, qui ont produit à la fois des succès et des échecs au cours de la dernière décennie.
Compte tenu de la tendance naturelle du secteur privé à se concentrer sur la génération de profits, les IA devraient être supervisées par un public informé, un groupe mondial d’organisations de la société civile et des régulateurs habilités.
⇒ La réglementation gouvernemental
- La réglementation gouvernementale doit viser à offrir plus de transparence
- à fournir des mécanismes efficaces de surveillance publique
- et à privilégier la protection des droits de l’homme
Lorsqu’ils sont conçus et utilisés de manière sûre et équitable, les systèmes d’IA peuvent aider les personnes à échapper à la censure autoritaire, à contrer les informations fausses et trompeuses, à surveiller les élections pour s’assurer qu’elles sont libres et crédibles, et à renforcer la documentation des abus des droits de l’homme.
Pour instaurer une gouvernance de l’IA efficace et respectueuse des droits, la société civile doit être associée dès le début. Les organisations à but non lucratif, les journalistes d’investigation et les militants des droits de l’homme ont été des acteurs indispensables derrière les succès passés de la liberté sur internet. Entre autres contributions, ils peuvent créer et maintenir une pression publique et inciter à l’action des législateurs, des régulateurs et de l’industrie.
Une défense efficace de la liberté sur internet nécessite non seulement le développement de systèmes de gouvernance de l’IA, mais aussi la résolution des menaces de longue date pesant sur la vie privée, la liberté d’expression et l’accès à l’information qui ont sapé l’environnement numérique plus large.