« De plus en plus de gens prennent conscience des dangers et des défis liés à l’IA. J’espère que cela se traduira par une orientation plus éthique et démocratique de cette technologie », observe cet expert, le philosophe belge Mark Coeckelbergh, spécialiste des médias et des technologies à l’Université de Vienne, dans un entretien accordé au Centre régional d’information des Nations Unies à Bruxelles.

Les experts du Groupe scientifique international indépendant sur l’IA exerceront leurs fonctions pendant trois ans afin de faire progresser les connaissances scientifiques et de garantir que les délibérations internationales s’appuient sur les meilleures données disponibles.

Selon le Secrétaire général de l’ONU, António Guterres, « dans un monde où l’IA progresse à une vitesse fulgurante, ce groupe apportera ce qui manquait jusqu’à présent : des analyses scientifiques rigoureuses et indépendantes permettant à tous les États membres, quelles que soient leurs capacités technologiques, de participer sur un pied d’égalité ».

Mark Coeckelbergh est spécialiste des médias et de la technologie.

Vous avez écrit plusieurs ouvrages en anglais sur l’IA. Vous démontrez que la trajectoire actuelle est néfaste pour l’humanité. Pourquoi ?

Mark Coeckelbergh : Telle qu’elle est utilisée et développée actuellement, l’IA sape la démocratie de multiples façons. Elle peut servir à manipuler les électeurs et les élections d’une manière inédite. Le ciblage personnalisé des électeurs à partir de leurs données personnelles est également une nouveauté.

Plus inquiétant encore, à mon sens, est la mise à mal des fondements mêmes de nos démocraties. Le principe d’égalité est, par exemple, miné par les fortes asymétries de pouvoir entre les citoyens et les géants du numérique. Le principe de liberté est compromis par les moyens de surveillance désormais disponibles.

Le type d’environnement du savoir ainsi créé est également problématique. Nous ne savons plus distinguer le vrai du faux. La philosophe Hannah Arendt nous avait déjà mis en garde : quiconque cherche à contrôler les citoyens a tout intérêt à exploiter la confusion. La propagande devient alors plus efficace, et cela pourrait mener au totalitarisme.

Dans la seconde partie de l’ouvrage, je montre comment nous pouvons changer les choses et modifier l’environnement dans lequel l’IA est développée afin de l’utiliser au service de la démocratie.

Vous êtes co-auteur d’un livre intitulé « Intelligence artificielle communicative ». Quel est l’impact de cette technologie ?

Mark Coeckelbergh : L’ouvrage traite des grands modèles de langage (GML) et de leur portée philosophique. Soudain, nous disposons d’un outil capable de produire du texte, une capacité jusque-là réservée à l’humain. Car nous ne sommes ni des machines, ni des animaux.

Selon une tradition philosophique, nous sommes définis par le « logos », les mots. Or, ce sont les machines qui produisent des mots. Dans ce livre, nous nous interrogeons sur les implications de cette évolution pour la notion d’auteur, pour le langage et la communication.

Lorsque nous écrivons avec des GML, par exemple, il est clair que nous ne sommes plus des auteurs au sens traditionnel du terme. Mais alors, que sommes-nous ? Et est-ce encore écrire ? Nous sommes contraints de repenser ce que signifie être auteur et écrire.

Les menaces liées à l’IA vont de la désinformation aux dommages environnementaux, voire à une IA incontrôlable… Quel est le plus grand risque selon vous ?

Mark Coeckelbergh : Je me suis concentré sur les risques politiques, mais il existe aussi un risque majeur, d’ordre plus psychologique, lié au phénomène d’addiction et à notre dépendance à la technologie.

Le risque ne réside pas tant dans une prise de conscience ou une domination de l’IA, mais plutôt dans des risques très concrets pour l’éducation et l’exposition des personnes vulnérables, comme les enfants, les personnes souffrant de troubles mentaux ou les personnes très isolées.

Ces problèmes s’accentueront à mesure que les chatbots deviendront de plus en plus convaincants et imiteront de plus en plus une personne.

Comment, selon vous, l’IA modifie-t-elle notre perception de la vérité ?

L’IA facilite la désinformation. Il devient alors difficile de distinguer le vrai du faux. Toute information peut être fausse. Toute citation, vidéo ou enregistrement sonore peut être falsifié. Cette confusion est dangereuse pour la démocratie.

Dans un contexte d’absence de gouvernance mondiale de l’IA, le groupe d’experts sera-t-il en mesure de formuler des recommandations contraignantes ?

Mark Coeckelbergh : Très bonne question. Le travail du groupe d’experts et des organes consultatifs est essentiel, même dans un contexte où le multilatéralisme est mis à rude épreuve. Dans le cadre de mes travaux personnels, j’ai plaidé en faveur d’une gouvernance mondiale de l’IA, établi des lignes directrices et fourni des orientations. Même s’il est peu probable que des règles contraignantes soient adoptées prochainement, il est important de s’y préparer.

Le groupe d’experts est avant tout perçu comme un organe scientifique. L’accent sera donc moins mis sur la gouvernance que sur l’expertise scientifique. Bien entendu, je ferai part de mon expertise en matière d’éthique de l’IA, notamment sur toutes ces questions.

Utilisez-vous les réseaux sociaux ?

Mark Coeckelbergh : Oui, bien sûr. En tant qu’universitaire, il est indispensable de se faire connaître et de publier ses résultats. À titre personnel, j’utilise également les réseaux sociaux pour garder le contact.

Quel est le dernier exemple de désinformation qui vous a marqué ?

Mark Coeckelbergh : Ce qui me frappe, c’est que, par exemple, sur la plateforme X (anciennement Twitter), Elon Musk semble privilégier certains discours et censurer les opinions qui lui déplaisent. Je constate que c’est un outil de propagande très efficace de nos jours. C’est d’ailleurs l’une des raisons pour lesquelles j’ai écrit un article intitulé « techno-fascisme ».

Y a-t-il des motifs d’espoir quant à l’avenir de l’IA ?

Mark Coeckelbergh : Oui, je constate qu’aujourd’hui, de plus en plus de gens prennent conscience des dangers et des défis liés à l’IA. J’espère que cela se traduira par une orientation plus éthique et démocratique de cette technologie. L’IA devrait être une technologie qui profite à tous.

Source of original article: United Nations (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.com).

To submit your press release: (https://www.globaldiasporanews.com/pr).

To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).

Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.