Intelligence artificielle-Le G7 doit adopter une réglementation "fondée sur le risque"-ministres

Reuters

Publié le 30/04/2023 12:25

Mis à jour le 30/04/2023 14:56

TAKASAKI, Japon (Reuters) - Le Groupe des Sept devrait adopter sur l'intelligence artificielle (IA) une réglementation "fondée sur le risque", ont déclaré dimanche les ministres participant au G7 numérique, alors que les parlementaires européens cherchent à introduire rapidement une loi sur l'IA afin de réglementer des outils comme le robot conversationnel ChatGPT.

Une telle réglementation devrait toutefois également "préserver un environnement ouvert et propice" au développement des technologies d'intelligence artificielle et se fonder sur les valeurs démocratiques, ont ajouté les ministres du G7 dans une déclaration publiée à l'issue d'une réunion de deux jours au Japon.

Bien qu'ils aient reconnu que "les instruments politiques permettant d'atteindre la vision et l'objectif communs d'une IA digne de confiance peuvent varier entre les membres du G7", l'accord pose un jalon dans la manière d'approcher l'intelligence artificielle dans un contexte de préoccupations sur la protection de la vie privée et les risques pour la sécurité liés à la désinformation.

Le robot conversationnel ChatGPT, lancé en novembre dernier par la société OpenAI, soutenue par Microsoft (NASDAQ:MSFT), a particulièrement attiré l'attention du public et des gouvernements pour sa capacité à rédiger rapidement des réponses à un large éventail de questions.

Les parlementaires de l'UE sont parvenus jeudi à un accord préliminaire sur un nouveau projet de loi sur l'IA, comprenant des mesures de protection des droits d'auteur pour l'intelligence artificielle "générative".

La Commissaire européenne à la Concurrence, Margrethe Vestager a déclaré que le bloc "trouverait un accord politique cette année" sur la législation relative aux droits d'auteur en matière d'IA, notamment en ce qui concerne l'obligation d'indiquer si des images ou de la musique ont été générées par ce type d'intelligence.

Il s'agirait du premier texte de loi majeur dans le monde sur l'intelligence artificielle.

"La raison pour laquelle nous avons ces garde-fous pour des cas d'usage à haut risque, c'est qu'un nettoyage (...) après une mauvaise utilisation par l'IA serait bien plus coûteux et dommageable que le cas d'usage de l'IA en lui-même", a-t-elle ajouté.

Si la loi européenne devrait être adoptée en 2023, des avocats ont prévenu qu'il faudrait encore plusieurs années avant qu'elle entre en vigueur. Mais la commissaire européenne a indiqué que les entreprises pouvaient néanmoins commencer dès maintenant à étudier les implications de la nouvelle législation.

"Faire une pause (dans le développement de l'IA) n'est pas la bonne réponse - l'innovation devrait continuer à ce développer, mais au sein de certains garde-fous que les démocraties auront posés", a dit de son côté à Reuters le ministre français délégué à la Transition numérique Jean-Noël Barrot.

Obtenez l’App
Rejoignez les millions de personnes qui utilisent l’app Investing.com pour suivre les marchés.
Télécharger maintenant