Les développeurs d’IA générative en faveur de la liberté d’expression ?

Photo of author
Écrit par Mallory Lebel

Se sentir libre de concilier "vie privée" et "vie numérique" sans intrusion.

Ma page Facebook

L’IA générative se généralise, et il existe un risque réel qu’elle devienne maîtrisée par une poignée d’entreprises, comme dans d’autres secteurs du numérique

La Federal Trade Commission (FTC) aux États-Unis et la Commission européenne dans l’Union européenne analysent les risques de concurrence dans l’IA générative. Naturellement, les régulateurs antitrust sont préoccupés par les implications économiques de cette situation.

Une concurrence limitée peut avoir des effets négatifs bien au-delà de l’économie. Une industrie de l’IA générative concentrée et homogène peut être pernicieuse pour la liberté d’expression et l’accès à l’information. Cela signifierait qu’un petit nombre de fournisseurs d’IA pourraient influencer de manière décisive le type d’informations que des millions d’utilisateurs créent et auxquelles ils accèdent.

  • Ce serait un résultat problématique si, par exemple, Gemini de Google orientait les utilisateurs de Gmail vers la rédaction de messages favorisant des informations et des points de vue spécifiques, tout en limitant ou en refusant l’assistance pour d’autres perspectives.
  • Ou si le Copilot de Microsoft faisait de même sur Word.
  • Ou si l’IA de Meta façonnait les messages que les utilisateurs écrivaient sur ses plateformes.

Bien que l’avenir de l’IA générative soit encore flou et que les décideurs politiques aient encore le temps de stimuler un marché concurrentiel, nous devons nous préparer à la possibilité que quelques grands acteurs le dominent. Dans un tel marché consolidé, il est primordial que ces entreprises dominantes développent des approches et des politiques qui s’alignent sur les droits de l’homme et, en particulier, s’engagent en faveur de la liberté d’expression et de l’accès à l’information.

Trouver un équilibre entre la liberté d’expression et la prévention des préjudices

Toutes les entreprises de partage d’informations, comme les entreprises de réseaux sociaux ou les fournisseurs d’IA, doivent trouver un équilibre entre le droit à la liberté d’expression et à l’accès à l’information, d’une part, et la sécurité, l’égalité et d’autres intérêts, d’autre part. Cela crée inévitablement des tensions.

Lorsque des millions de personnes utilisent les services d’une entreprise et n’ont que peu d’alternatives, ces tensions sont encore plus intenses et pertinentes pour la société. Ces tensions sont déjà apparues dans l’IA générative. Google a fait parler de lui dans le monde entier parce que son chatbot Gemini a généré des images de personnages raciaux et de personnes de couleur en réponse à des messages demandant des images de soldats nazis et d’autres personnages historiques blancs. L’outil de création d’images Adobe Firefly a été confronté à des problèmes similaires.

Ces résultats ont conduit certains commentateurs à se plaindre du fait que l’IA était devenue «woke». D’autres ont suggéré que ces problèmes résultaient d’efforts erronés pour lutter contre les préjugés de l’IA et mieux servir un public mondial. Ces débats controversés ne sont évidemment pas nouveaux. Pendant près de deux décennies, une poignée de réseaux sociaux ont décidé de ce qu’était un discours acceptable sur leurs plateformes, façonnant le discours public pour des milliards de personnes. Ce niveau d’influence des plateformes a suscité un débat important sur la question de savoir quand et comment les entreprises doivent modérer le discours des utilisateurs.

  • La guerre entre Israël et le Hamas illustre clairement ce débat. Après l’attaque odieuse du Hamas le 7 octobre, de nombreuses organisations de la société civile ont mis en garde contre « une montée de la haine antisémite en ligne » sur les réseaux sociaux. Elles ont appelé les plateformes à mieux appliquer les normes communautaires et à prendre d’autres mesures.
  • Mais d’autres organisations, y compris des organisations de défense des droits de l’homme, ont souligné comment les réponses des plateformes ont eu un impact disproportionné sur le discours des points de vue pro-palestiniens. Comme l’indique un rapport de Human Rights Watch, « les politiques et les pratiques de Meta ont réduit au silence les voix qui soutiennent la Palestine et les droits de l’homme des Palestiniens ».

Aucune solution politique ne peut équilibrer la liberté d’expression et la modération des propos préjudiciables

Les entreprises disposent néanmoins d’un outil utile et puissant : les normes relatives aux droits de l’homme.

L’ancien rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression a déjà proposé que les sociétés Internet utilisent cet outil pour guider la modération des contenus. Les normes en matière de droits de l’homme sont reflétées dans les constitutions du monde entier et dans les traités internationaux. Elles peuvent fournir aux entreprises des orientations solides pour équilibrer la liberté d’expression avec d’autres intérêts, tels que la lutte contre l’incitation à la haine.

Les entreprises ne sont pas tenues de respecter les normes internationales en matière de droits de l’homme, et les lois peuvent même protéger la capacité des plateformes à modérer le discours et le contenu des utilisateurs. De même, les fournisseurs d’IA peuvent souhaiter adopter des politiques de modération restrictives pour protéger leur réputation et éviter les contenus controversés ou pour se protéger de toute responsabilité.

La responsabilité est une considération particulièrement pertinente dans un nouveau secteur, tel que l’IA générative, qui est confronté à une incertitude juridique. Par exemple, on ne sait pas si la section 230, qui a accordé l’immunité aux États-Unis aux plateformes en ligne pour la publication en ligne du contenu d’une autre personne, s’applique à l’IA générative.

Ces considérations ne devraient pas empêcher les fournisseurs d’IA d’avoir des politiques robustes qui préservent la liberté d’expression

Les droits de l’homme peuvent offrir une base solide aux entreprises pour élaborer des politiques de protection de la liberté d’expression. Des entreprises telles que Google et Anthropic ont souligné l’importance des droits de l’homme dans leurs activités, et le Conseil de surveillance de Meta s’appuie sur les droits de l’homme pour éclairer ses décisions.

Confidentiel :

Utilisez un VPN pour cacher votre adresse IP et refuser qu'on vous piste.

Anonyme :

Ce VPN chiffre votre connexion internet et maquille votre localisation en ligne.

Le respect des droits de l’homme est particulièrement important pour les grandes entreprises numériques, étant donné le pouvoir qu’elles exercent sur le discours public. La responsabilité particulière des grandes entreprises est reconnue par la loi sur les services numériques, le règlement européen sur la sécurité internet. Cette loi exige que les soi-disant « très grandes plateformes internet » évaluent et atténuent les « risques systémiques ». Ces risques comprennent les effets négatifs sur les droits fondamentaux, notamment la liberté d’expression et d’information.

La manière dont cette loi s’appliquera à l’IA générative n’est pas claire. Jusqu’à présent, les politiques d’utilisation et de contenu des principaux fournisseurs d’IA générative ne sont pas alignées sur les normes internationales en matière de droits de l’homme concernant la liberté d’expression. Six grands chatbots d’IA, dont Gemini de Google et ChatGPT d’OpenAI, ont des politiques en matière de désinformation et d’incitation à la haine trop vagues et trop étendues.

Les politiques des entreprises en matière d’incitation à la haine contiennent des interdictions extrêmement larges. Par exemple, Google interdit la production de « contenus qui promeuvent ou encouragent la haine ». Bien que les propos haineux soient détestables et puissent causer du tort, des règles définies de manière aussi large et vague que celles de Google peuvent se retourner contre l’entreprise.

Dans le même ordre d’idées, le chatbot Pi interdit les « contenus susceptibles de diffuser des informations erronées. » Mais les normes des droits de l’homme sur la liberté d’expression protègent généralement la désinformation. À moins qu’il n’existe une justification solide pour imposer des limites, comme l’ingérence étrangère dans les élections. Dans le cas contraire, les normes relatives aux droits de l’homme garantissent « la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières […] par le moyen […] de […] son choix ».

En savoir plus ⇒ La liberté d’expression existe-t-elle sur les réseaux sociaux ?

Conclusion

Les grands fournisseurs d’IA générative comme OpenAI et Google devraient corriger le tir dès maintenant et aligner davantage leurs pratiques sur les normes en matière de droits de l’homme. Cet alignement passe par des politiques générales publiques, claires et détaillées.

Il faut respecter les principes de légitimité et de proportionnalité, en veillant à ce que les restrictions de contenu soient fondées sur des justifications solides et n’aillent pas au-delà de ce qui est nécessaire. Par exemple, les entreprises peuvent souhaiter des politiques plus restrictives pour un outil intégré à Facebook qui permet de publier automatiquement des commentaires que pour un service qui fournit du contenu à un utilisateur spécifique dans le cadre d’un chatbot privé.

De même, les utilisateurs ont des préférences différentes et peuvent vouloir maîtriser davantage les choses. Les entreprises pourraient envisager d’adopter une barre minimale de modération du contenu et de permettre aux utilisateurs d’utiliser des filtres et d’autres mécanismes pour gérer l’accès au contenu.

Les utilisateurs remettront inévitablement en question les décisions des entreprises en matière de modération de contenu, comme ils ont déjà commencé à le faire. La surveillance sera particulièrement intense dans un monde où il n’y aura que quelques fournisseurs d’IA. Les fournisseurs d’IA seraient bien avisés de s’appuyer sur des bases solides, telles que les droits de l’homme, pour justifier leurs politiques en matière de contenu.

Naviguez en toute sérénité

Cliquez ici pour assurer votre confidentialité sur internet. Chiffrez vos données et surfez sans limites.

banniere nordvpn janvier 2025

Laisser un commentaire