Observateur OCDE
Home
Menu
Quels sont les Principes de l’OCDE sur l’IA ?

L’intelligence artificielle n’en est qu’à ses débuts et les décideurs prennent encore leurs marques. Dans quelle mesure peuvent-ils – et doivent-ils – encourager cette nouvelle technologie puissante, et comment peuvent-ils gérer les risques connexes ? Les Principes de l’OCDE sur l’IA sont là pour les y aider. Ils promeuvent une intelligence artificielle (IA) synonyme d’innovation, de confiance, et de respect des droits de l’homme et des valeurs démocratiques.

Les pays membres de l’OCDE ont adopté ces Principes lorsqu’ils ont approuvé la Recommandation du Conseil sur l’intelligence artificielle, le 22 mai 2019. Outre les Membres de l’Organisation, l’Argentine, le Brésil, la Colombie, le Costa Rica, le Pérou et la Roumanie y ont également adhéré.

Le 9 juin 2019, le G20 a adopté les principes d’une IA centrée sur l’humain, inspirés de ceux de l’OCDE.

Les cinq principes de l’OCDE sur l’IA

La Recommandation du Conseil énonce cinq principes complémentaires fondés sur des valeurs, jetant les bases d’une approche responsable à l’appui d’une IA digne de confiance :

1. L’IA devrait profiter aux individus et à la planète en favorisant la croissance inclusive, le développement durable et l’amélioration du bien-être.

2. Les systèmes d’IA devraient être conçus dans une optique de respect de l’état de droit, des droits de l’homme, des valeurs démocratiques et de la diversité. Ils devraient présenter des garanties appropriées – par exemple, en permettant une intervention humaine lorsque nécessaire – afin de tendre vers une société équitable et juste.

3. Il convient de veiller à la transparence et à une divulgation responsable des informations liées aux systèmes d’IA afin de s’assurer que les individus puissent en comprendre et en contester les résultats.

4. Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie et les risques potentiels devraient être évalués et gérés de manière continue.

5. Les organisations et les individus concevant, déployant ou exploitant des systèmes d’IA devraient être tenus responsables de leur bon fonctionnement, dans le respect des principes exposés ci-dessus.

Que peuvent faire les gouvernements ?

Dans la droite lignée de ces principes fondés sur des valeurs, l’OCDE énonce cinq recommandations à l’intention des pouvoirs publics :

1. Encourager les investissements publics et privés dans la recherche et le développement afin de stimuler l’innovation dans une IA digne de confiance.

2. Favoriser l’instauration d’écosystèmes d’IA accessibles, intégrant les infrastructures et technologies numériques, ainsi que des mécanismes de partage des données et des connaissances.

3. Veiller à la mise en place d’un cadre d’action qui ouvre la voie au déploiement de systèmes d’IA dignes de confiance.

4. Doter les individus des compétences nécessaires à l’IA et garantir aux travailleurs une transition équitable.

5. Favoriser la coopération internationale et intersectorielle afin d’œuvrer à l’adoption d’une approche responsable à l’appui d’une IA digne de confiance.

Et ensuite ?

Un Observatoire des politiques relatives à l’IA, qui verra bientôt le jour, fournira des données probantes et des orientations sur les indicateurs, les politiques et les bonnes pratiques en matière d’IA. Il aura pour mission d’aider à la mise en œuvre des principes et fera office de plateforme favorisant le dialogue et le partage des meilleures pratiques dans son domaine de compétence. Pour plus d’informations sur l’IA, rendez-vous sur : https://www.oecd.org/going-digital/ai/.

La Recommandation est consultable ici : https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.

©observateurocde.org, Août 2019