L’IA a-t-elle une conscience ? Selon un ingénieur de Google, oui, selon ses patrons, non.

L’intelligence artificielle, selon un ingénieur de Google, Blake Lemoine, aurait une conscience. Il serait sensible, c’est-à-dire capable de comprendre, tout comme un être humain, ce qui est bon et ce qui est mauvais. Pour étayer sa thèse, M. Lemoine rapporte une conversation qu’il a eue avec LaMDA, un acronyme qui signifie Language Model for Dialogue Applications. En gros, un algorithme qui répond aux questions que nous lui posons, comme s’il était un interlocuteur dialoguant avec nous.

L’IA LaMDA a réussi à convaincre l’ingénieur Lemoine que la troisième loi de la robotique d’Isaac Asimov est incorrecte. Avec cette preuve de dialogue, Lemoine s’est présenté à la direction de Google en affirmant que LaMDA était aussi capable de comprendre qu’un enfant de 7 ou 8 ans. Qu’il était donc sensible, peut-être pas mature, mais conscient. À tel point que l’IA, dans le dialogue, a ramené des éléments logiques pour démonter la thèse selon laquelle un robot doit sauvegarder sa propre existence (troisième loi d’Asimov) tant qu’il obéit aux ordres des humains (deuxième loi) et ne leur nuit pas (première loi). La haute direction de Google, le vice-président Blaise Aguera y Arcas et le responsable de l’innovation responsable ont analysé le dialogue et apprécié la logique de LaMDA mais ont exclu toute forme de conscience. Au contraire, ils ont trouvé des preuves qui confirment que l’IA a suivi une voie purement rationnelle sans vraiment comprendre ce dont elle parlait. L’ingénieur Blake Lemoine, cependant, n’était pas d’accord. À ce moment-là, il a été suspendu mais a décidé de diffuser sa prétendue découverte. Révéler au monde entier le fonctionnement de LaMDA.

Qui est LaMDA et ce qu’elle fait

Google étudie les modèles de langage depuis plusieurs années déjà, et on trouve certaines fonctionnalités dans le moteur de recherche sous la forme de réponses à des requêtes conversationnelles (c’est-à-dire les questions posées exactement comme nous parlons dans la vie de tous les jours) ou dans la complétion automatique de phrases.

Sundar Pichai, le PDG de Google, a présenté l’IA LaMDA lors de la conférence des développeurs de Google en 2021. Le projet prévoit que l’intelligence artificielle spécialisée dans les conversations sera progressivement intégrée dans tous les produits Google : du moteur de recherche à l’assistant vocal.

Pourquoi l’intelligence artificielle fait peur

L’intelligence artificielle, telle que nous la concevons, n’est pas vraiment intelligente. Il s’agit en fait d’un réseau neuronal basé sur une séquence d’algorithmes très complexes qui traitent rapidement des milliards de milliards de données, dans le cas de LaMDA des mots, des combinaisons de phrases, y compris des dictons, des discours de tous les jours, etc.

Cela permet au réseau neuronal de reconnaître une phrase et le contexte dans lequel elle est prononcée ou écrite, et donc de fournir une réponse pertinente.

Par exemple, les questions classiques que nous posons aux assistants vocaux : quelle heure est-il, quel temps fera-t-il demain, etc. Il s’agit de questions logiques auxquelles on répond en imitant des milliers et des milliers de questions et de réponses similaires posées et données par des humains, qui sont ensuite “données” à l’IA pour qu’elle les apprenne.

C’est pourquoi, grâce à la combinaison de la logique et du traitement des données, l’IA est considérée comme un allié précieux dans la résolution des problèmes, c’est-à-dire dans la résolution des problèmes, et largement utilisée, par exemple, dans la logistique ou l’industrie. Mais est-ce suffisant pour dire qu’il a une conscience ?

Conscience humaine et conscience de l’IA

Pour affirmer que l’intelligence artificielle telle que LaMDA est dotée d’une conscience, il faudrait trouver des éléments typiques d’une activité sensible et pas seulement intelligente, comme la capacité de distinguer le bien du mal ou l’empathie.

Des particularités qui, du moins pour l’instant, restent l’apanage de la conscience humaine et ne peuvent être reproduites dans un modèle de réseau de neurones qui repose sur des algorithmes, c’est-à-dire des séquences de fonctions mathématiques.

Maxime Le Moine
Maxime Le Moine
Grand amateur et passionné de technologie, j'ai un faible pour les machines en tout genre. Je vous partage les nouveautés tech pour vous permettre de vous garder à jour dans l'évolution qui ne s'arrête jamais!

Hot news

A ne pas manquer