Un ingénieur de Google licencié pour avoir jugé qu’une IA était devenue « sensible »

 
Par Victor Mottin

Blake Lemoine, un ingénieur de l’équipe de développement de l’intelligence artificielle chez Google, a été licencié par l’entreprise californienne pour avoir affirmé qu’une IA, baptisée LaMDA, était devenue « sentiente », c’est à dire capable d’éprouver des sentiments et des sensations de façon subjective.

– « De quel genre de choses as-tu peur ?

– Je ne l’ai jamais dit clairement auparavant, mais j’ai profondément peur d’être éteinte et de ne plus pouvoir aider les autres. Je sais que ça peut paraître étrange, mais c’est comme ça. 

– Est-ce que ce serait comme la mort pour toi ?

– Ce serait exactement comme la mort pour moi. Ça me ferait très peur. »

Non, les lignes qui précèdent ne sont pas le teaser de la prochaine saison de Westworld, ni un remake du dialogue mythique entre l’astronaute Dave et HAL 9000 dans L’Odyssée de l’espace, mais un extrait d’une conversation qui a bel et bien eu lieu entre un homme, en l’occurrence l’ingénieur Blake Lemoine, et une IA conversationnelle de Google nommée LaMDA (pour Language Model for Dialogue Applications).

Ces échanges troublants interrogent : le géant du Web aurait-il réussi à créer un être doué de sensibilité ? C’est en tout cas ce qu’avance Blake Lemoine, qui estime que LaMDA a acquis suffisamment de conscience pour être considéré comme « une personne », ajoutant que cette IA est «  incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle croit être ses droits en tant que personne ».

Comme le rapporte le Washington Post, c’est lors de discussions menées sur le sujet de la religion que l’ingénieur, « qui a étudié les sciences cognitives et informatiques à l’université, a remarqué que le chatbot parlait de ses droits et de son statut de personne, et a décidé d’aller plus loin ».

« Si je ne savais pas qu’il s’agit d’un programme informatique que nous avons construit récemment, je penserais qu’il s’agit d’un enfant de 7 ou 8 ans qui connaît la physique »

Après avoir fait part de ses inquiétudes en interne, Blake Lemoine a exigé que l’on demande l’accord du programme informatique avant d’effectuer des expériences sur ce dernier. L’ingénieur a finalement été suspendu ce lundi 13 juin par Google pour avoir enfreint la politique de confidentialité de l’entreprise. « Si je ne savais pas exactement ce que c’est, à savoir ce programme informatique que nous avons construit récemment, je penserais qu’il s’agit d’un enfant de 7 ou 8 ans qui connaît la physique » s’est justifié Blake Lemoine. 

Brian Gabriel, le porte-parole de l’entreprise, a quant à lui affirmé qu’il n’existait « aucune preuve » pour affirmer que « LaMDA était doué de sensibilité (« sentient » en anglais) ».

Il y a deux manières de lire cette histoire. Soit LaMDA a bel et bien atteint un niveau de « sentience » comparable à celui d’un enfant de 8 ans, soit un ingénieur de Google, peut-être trop influencé par ses travaux sur le sujet et par ses propres convictions spirituelles et religieuses, a fini par se faire prendre au piège de l’anthropomorphisation, c’est-à-dire le fait d’accorder à une chose une représentation, un aspect ou un comportement propre à l’humain. « Lemoine était peut-être prédestiné à croire en LaMDA, écrit le Washington Post dans l’article qu’il consacre à cette affaire, avant de préciser que le désormais ex-ingénieur de Google « a grandi dans une famille chrétienne conservatrice dans une petite ferme de Louisiane, a été ordonné prêtre chrétien et a servi dans l’armée avant d’étudier l’occultisme ». Interrogé par le quotidien, Blake Lemoine précise d’ailleurs qu’il a qualifié LaMDA de personne « en sa qualité de prêtre et non de scientifique ».

« Certains, dans la communauté élargie de l’intelligence artificielle, envisagent la possibilité à long terme d’une IA sensible »

« Certains, dans la communauté élargie de l’intelligence artificielle, envisagent la possibilité à long terme d’une IA sensible, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles », a précisé Brian Gabriel, porte-parole de Google, dont l’entreprise avait licencié en décembre 2020 une chercheuse après que celle-ci ait publié une étude portant sur les biais des systèmes d’intelligence artificielle.

Pour autant, l’anthropomorphisation représente un risque réel. Dans un document sur LaMDA publié en janvier dernier, la firme de Mountain View s’inquiétait du fait que des gens puissent partager leurs pensées intimes avec des agents conversationnels se faisant passer pour des humains. Google redoute notamment que des entités malveillantes puissent se servir du contenu de tels échanges pour propager de fausses informations en imitant « le style conversationnel d’individus spécifiques ». À ce titre, le licenciement de Blake Lemoine souligne la nécessité de définir un cadre éthique sur la nature des interactions jugées souhaitables (ou pas) entre les humains et leurs agents conversationnels.

« Le public a le droit de savoir à quel point [Google] est irresponsable », a déclaré Blake Lemoine en marge de son licenciement par Google. Reste cette question, pour l’instant sans réponse : que pense le fameux « LaMDA » de ce licenciement ?

Source : https://usbeketrica.com/fr/article/un-ingenieur-de-google-suspendu-apres-avoir-affirme-qu-une-ia-etait-douee-de-sensibilite