Envoyer à un ami | Version à imprimer | Version en PDF

Méfiez-vous de la réglementation de l'IA pilotée par les grandes entreprises technologiques

par Peter G. Kirchschläger*

ZURICH - En octobre dernier, la Commission européenne a adopté une nouvelle feuille de route pour lutter contre le trafic de drogue et la criminalité organisée, l'une des menaces les plus graves pour la sécurité de l'Union. Pour des raisons évidentes, les responsables politiques de l'Union européenne n'ont pas invité les membres des cartels à participer à la conception et à l'élaboration de cette stratégie ; demander l'avis des réseaux criminels n'aurait fait que faciliter la poursuite de leurs activités en toute impunité.

Mais lorsqu'il s'agit de réglementer la transformation numérique et l'intelligence artificielle, qui présentent toutes deux une myriade de risques, les décideurs politiques font le contraire. Ils collaborent avec les grandes entreprises technologiques telles que Meta (Facebook), Alphabet (Google), Amazon, Apple et Microsoft, même si leurs dirigeants ont fait preuve d'une volonté effrontée de créer des outils dangereux et de nuire aux utilisateurs au nom de la maximisation des profits.

Par exemple, des " groupes de travail ", " groupes d'experts " et " conseils consultatifs " nationaux, régionaux et internationaux comprenant des représentants des entreprises Big Tech préparent des propositions visant à réglementer la transformation numérique et l'IA. En outre, certaines initiatives et conférences sur ce sujet sont financées par les entreprises mêmes qu'elles visent à réglementer.

Les menaces posées par les systèmes numériques sont complexes et d'une grande portée. Les nouvelles technologies creusent considérablement les inégalités dans le monde, et les géants de la technologie sont devenus d'énormes consommateurs d'énergie, ce qui a de graves répercussions sur le changement climatique et l'environnement. Les violations quasi constantes du droit à la vie privée, dues à l'absence de sécurité des données ou de protection contre la surveillance, sont peut-être les plus inquiétantes. La collecte de grandes quantités de données et leur vente au plus offrant est une pratique courante dans l'industrie. En conséquence, les plateformes numériques semblent nous connaître mieux que nous ne nous connaissons nous-mêmes, et la vie en ligne est inondée de manipulations économiques et politiques.

En outre, il a déjà été démontré que la manipulation algorithmique et la désinformation menacent le bon fonctionnement de la démocratie. Avant l'élection présidentielle de 2016 aux États-Unis, par exemple, la société de conseil politique Cambridge Analytica a recueilli des informations sur pas moins de 87 millions d'utilisateurs de Facebook dans le but d'influencer les électeurs. L'entreprise et ses filiales avaient déjà, de la même manière, détourné des données pour tenter d'influencer le vote du Brexit au Royaume-Uni.

Plus récemment, le développement rapide de grands modèles de langage tels que le ChatGPT d'OpenAI a ouvert de nouvelles voies à la fraude, notamment par le biais d'imitations sonores et visuelles qui peuvent détruire des réputations. Les LLM ont également facilité la diffusion de fausses nouvelles, un fléau qui se fait particulièrement sentir dans les démocraties, où un flot de contenu généré par l'IA menace de noyer le journalisme de qualité et de déstabiliser des pays entiers en quelques heures (comme cela s'est produit lors des récentes émeutes d'extrême-droite au Royaume-Uni). En outre, les mêmes stratégies peuvent être utilisées pour tromper les consommateurs.

Mais ce n'est pas tout : l'utilisation des médias sociaux a été associée à des effets néfastes importants sur la santé mentale des jeunes. De nombreux spécialistes ont exprimé leur inquiétude quant à l'impact perturbateur que les cyberattaques et les armes autonomes basées sur l'IA pourraient avoir sur la paix et la sécurité internationales, sans parler des risques existentiels que de telles armes posent.

Les grandes entreprises technologiques se sont toujours montrées peu soucieuses de nuire aux personnes et de violer leurs droits. C'est particulièrement vrai pour les entreprises de médias sociaux, qui gagnent généralement plus de revenus publicitaires au fur et à mesure que les utilisateurs restent sur leurs plateformes. En 2021, un lanceur d'alerte a fourni des documents montrant que Facebook savait que ses algorithmes et ses plateformes favorisaient les contenus préjudiciables, mais n'a pas déployé de contre-mesures significatives. Cela n'a rien de surprenant : des études ont montré que les utilisateurs passent plus de temps en ligne lorsqu'ils expriment de la haine, de la colère et de la rage.

Malgré sa réticence à s'autosurveiller, Big Tech veut contribuer à l'élaboration de réglementations pour la sphère numérique et l'IA. Il est à la fois ironique et tragique de donner à ces entreprises un siège à la table des négociations. Les gouvernements et la communauté internationale permettent à ces mastodontes de dominer le processus d'établissement d'un nouveau cadre réglementaire mondial et de mécanismes de surveillance. Mais faire confiance à ceux qui profitent des problèmes fondamentaux du secteur est une erreur dangereuse.

La bonne nouvelle, c'est qu'il existe un grand nombre d'experts et d'universitaires indépendants qui peuvent apporter une contribution précieuse sur la meilleure façon de réglementer le développement et l'utilisation de l'IA et d'autres technologies numériques. Bien entendu, le secteur privé doit être impliqué dans ces processus d'élaboration des politiques, mais pas plus que les autres parties prenantes, y compris les organisations de la société civile.

L'innovation technologique ne doit plus servir uniquement les intérêts de quelques multinationales. Pour garantir un avenir durable dans lequel chacun pourra mener une vie digne et prospère, les décideurs politiques ne doivent pas permettre aux géants de la technologie d'orienter la réglementation des plateformes numériques et des applications émergentes de l'IA.



*Professeur d'éthique et directeur de l'Institut d'éthique sociale de l'université de Lucerne - Professeur invité à l'ETH Zurich