Navigation

Portrait de Miriam Meckel

GDI

«Nous ne devons jamais humaniser l’IA»

Une vie sans intelligence artificielle n’est ni possible ni souhaitable, selon l’auteure et professeure Miriam Meckel. Elle explique comment l’IA peut faciliter notre quotidien et quelles sont les règles qui s’imposent désormais à l’échelle mondiale.

Texte
Katja Fischer De Santi
Image
Keystone / Selina Pfrüner
Date
Format
Nos actions, Interview

Est-il encore possible de vivre sans l’IA?
Possible, mais difficile. L’IA est aujourd’hui présente dans les moteurs de recherche que nous utilisons, dans les systèmes de navigation, dans le filtrage des spams de nos e-mails, dans les flux d’informations personnalisés et dans la présentation des programmes de Netflix. De nombreux processus dans l’industrie fonctionnent depuis longtemps avec l’IA. Souvent, nous ne la remarquons même pas, car elle travaille inlassablement en arrière-plan. Ainsi, si une personne affirme qu’elle vit sans l’IA, c’est un peu comme si elle disait qu’elle n’utilise pas d’électricité.

Comment les applications d’IA sont-elles présentes dans votre quotidien?
Les modèles d’IA sont pour moi une sorte de boîte à outils pour la pensée: ils sont utiles, parfois surprenants, mais ne sont pas la solution à tout. J’utilise des outils basés sur l’IA pour faire des recherches, structurer mes idées ou pour m’aider dans les processus créatifs. Ils peuvent identifier les zones d’ombre ou ouvrir de nouvelles perspectives sur un sujet. Mais ils ne remplacent pas la pensée humaine, ils la complètent: tout comme la machine à vapeur n’a pas remplacé l’ingénieur, mais lui a ouvert de nouvelles possibilités.

Ne créerons-nous plus rien un jour sans l’aide de l’IA?
Les agents intelligents, sur lesquels toutes les grandes entreprises technologiques travaillent actuellement ardemment, effectueront des séries entières de tâches de manière autonome. Ils peuvent réserver des voyages, faire des achats en ligne ou gérer des projets. Il existe déjà des start-up qui n’ont plus qu’une poignée de collaborateurs et collaboratrices, chacun-e à la tête d’une équipe d’agents intelligents. En fait, je pense que cette forme de collaboration entre l’être humain et l’IA va se propager.

Le problème n’est pas tant que l’IA «mente», mais plutôt qu’en utilisant de tels termes nous humanisons l’IA.

Miriam Meckel, auteure et professeure

Pour de nombreuses personnes, ChatGPT est devenu une sorte de meilleur ami. Cela devient-il un problème pour le lien social?
La question est la suivante: pourquoi les gens cherchent-ils de plus en plus à discuter avec une machine? Peut-être parce qu’elle est plus patiente qu’un certain nombre d’entre eux, qu’elle a toujours le temps et qu’elle ne juge pas. Mais cela montre aussi que les interactions sociales sont souvent marquées par des contraintes temporelles et des attentes. Si les modèles d’IA remplacent les vraies relations, nous sommes face à un problème. Il existe en outre déjà quelques cas extrêmes dans lesquels des outils d’IA ont poussé des personnes à quitter leur partenaire ou même à se suicider.

Pourquoi avons-nous cette tendance à humaniser les modèles linguistiques?
Parce qu’ils ont souvent l’air convaincants. Les modèles linguistiques sont des maîtres de la rhétorique, mais pas des gardiens de la vérité. L’IA n’a aucune idée de ce dont elle parle, mais c’est une machine qui arrive très bien à prédire des suites de mots. Elle travaille sur les probabilités statistiques des mots, pas sur leur sens. Et toute l’autorité qu’elle semble avoir pour nous, c’est nous qui la lui attribuons.

ChatGPT ignore les droits d’auteur et crée des variantes de ce qui existe déjà. Est-ce ainsi que l’on crée vraiment quelque chose de nouveau?
Oui et non. Les gens ont toujours tiré leur inspiration de quelque chose. Mais il y a une différence entre l’inspiration et la simple recombinaison. Une IA ne créera pas spontanément un style artistique entièrement nouveau. Les idées révolutionnaires exigent du courage, des ruptures et des erreurs. Et cela, seul l’être humain en est capable.

Certains prédisent que l’IA va «s’entre-dévorer». Qu’est-ce que cela signifie?
Si l’IA n’apprend plus qu’à partir de contenus générés par elle-même, une chambre d’écho se crée, une sorte d’inceste algorithmique. Dans la recherche, on appelle cela l’«oubli catastrophique» ou l’«effondrement du modèle». C’est tout de même rassurant de savoir que l’IA a besoin de nous, les êtres humains, pour continuer à apprendre avec des données originales au risque de s’effondrer.

Vous écrivez que l’IA peut également conduire à une «privation de droits et à une déshumanisation». Pouvez-vous nous donner un exemple concret?
Il suffit de regarder les États-Unis en ce moment. Des millions d’employé-es du secteur public ont reçu un e-mail du Department of Government Efficiency, dirigé par Elon Musk. Ces personnes devaient y répondre dans les heures qui suivent pour justifier le maintien de leur emploi. Une IA évalue ensuite si elles peuvent rester ou si elles doivent être licenciées. C’est indigne et, vu l’état actuel de développement de l’IA, hautement discutable. Il y a de bonnes raisons pour lesquelles de nombreux systèmes juridiques, y compris en Suisse, stipulent que la dernière instance d’appel doit toujours être un être être humain.

Si vous pouviez participer à l’élaboration d’une législation mondiale sur l’IA, quelle serait la règle la plus importante que vous imposeriez?
Dans ce cas, je souhaiterais une règle globale disant que l’IA ne doit jamais décider de ce sur quoi l’IA peut décider. L’IA est un outil puissant. Nous modelons le monde à l’aide d’outils, mais ces derniers nous façonnent aussi. C’est pourquoi je souhaite que tout le monde s’intéresse vraiment à l’IA, afin de comprendre que c’est une technologie très puissante, mais que ce n’est qu’un outil.

De la stratégie à la pratique

Nous assumons notre responsabilité envers les personnes, l’environnement et la société. Découvrez dans nos stories comment nous mettons en œuvre notre stratégie dans nos activités quotidiennes.

Toutes les stories