Contenus générés par AI : les machines n’ont pas droit à la liberté d’expression

Les contenus générés par l’IA doivent être reconnaissables et les machines n’ont pas la liberté d’expression : telle est la position de l’UE

L’UE se prépare à aborder la question des intelligences artificielles, dont l’utilisation a connu une forte croissance ces derniers mois, notamment grâce au succès du ChatGPT et des services d’IA générative, capables de créer des contenus facilement diffusables sur les sites web et les réseaux sociaux.

Vera Jourova, vice-présidente de la Commission européenne, a clarifié la position actuelle de l’UE en insistant sur deux points : la nécessité d’étiqueter clairement les contenus générés par l’IA, afin de les rendre reconnaissables, et l’absence de liberté d’expression pour les machines.

Les IA n’ont pas de liberté d’expression

La Commission européenne s’interroge sur la croissance de l’utilisation de l’intelligence artificielle générative et sur le risque d’une augmentation des faux contenus en ligne susceptibles d’alimenter la désinformation. À la suite d’une réunion avec les signataires du code de conduite sur la désinformation en ligne (44 entreprises, dont de grandes entreprises technologiques telles que Google et Microsoft et de petites start-ups), Vera Jourova, vice-présidente de la Commission, a clarifié plusieurs aspects de la position de l’UE sur la diffusion de l’IA.

Selon Vera Jourova, les machines ne devraient pas avoir la liberté d’expression. Les contenus générés par l’IA doivent être régulés et il n’est pas possible de laisser le champ libre à des systèmes capables de générer des textes et surtout des photos et des vidéos qui peuvent alimenter la désinformation en ligne.

Il s’agit d’un élément central sur lequel l’UE n’a pas l’intention de changer de position. Les entreprises qui adhèrent au code de conduite seront invitées à prendre les contre-mesures nécessaires et, en tout état de cause, toutes les IA devront être “étiquetées” en fonction de leur degré de risque, comme le prévoit la nouvelle loi européenne sur l’IA.

Les contenus générés par l’IA doivent être reconnaissables

Mme Jourova a également souligné l’importance de rendre les contenus générés par l’IA reconnaissables en introduisant des systèmes capables de les identifier et de les étiqueter comme tels. Les entreprises qui ont adhéré au code de conduite devront donc s’engager à lutter contre la propagation des “fake news” également en mettant en place des systèmes capables de freiner la propagation des contenus générés par l’IA.

Les utilisateurs, selon la Commission européenne, devraient être en mesure d’identifier facilement ce type de contenu. D’ailleurs, selon ce qu’a révélé le vice-président de la Commission, Google possède déjà une technologie capable de détecter les textes générés par l’IA.

Cette technologie est encore en cours de développement, dans le but d’accroître son efficacité. Dans un avenir proche, l’entreprise américaine, qui adhère au code de conduite de l’UE en matière de lutte contre la désinformation en ligne, pourrait donc apporter une contribution importante au soutien des objectifs de l’UE.

Dans les semaines à venir, l’Union européenne devrait présenter un nouveau projet de code de conduite concernant l’intelligence artificielle. Ce code est élaboré en collaboration avec les États-Unis, précisément parce que la plupart des entreprises qui développent ces technologies sont américaines. Des mises à jour en ce sens pourraient donc intervenir prochainement.

Maxime Le Moine
Maxime Le Moine
Grand amateur et passionné de technologie, j'ai un faible pour les machines en tout genre. Je vous partage les nouveautés tech pour vous permettre de vous garder à jour dans l'évolution qui ne s'arrête jamais!

Hot news

A ne pas manquer