Un nouveau cadre de management des risques pour l’Intelligence Artificielle (#IA)

Avec la généralisation d’accès à une partie de ce que peut nous proposer l’Intelligence Artificielle, le coût de production de non-sens sera presque nul, ce qui facilitera l’inondation d’Internet et des réseaux sociaux de mensonges à des fins économiques et politiques.

Risk Management framework for AI de John Goodpasture

http://www.johngoodpasture.com/2023/03/new-risk-management-framework-for-ai.html

Le National Institute of Standards and Technology (NIST) aux États-Unis a publié, après de longues discussions et des ébauches examinées, son cadre de gestion des risques (Risk Management Framework – RMF) pour l’IA.

Selon NIST

Téléchargez le guide

Le RMF IA fait référence à un système d’IA en tant que système conçu ou basé sur une machine qui peut, pour un ensemble donné d’objectifs, générer des résultats tels que des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner avec différents niveaux d’autonomie (Adapté de : Recommandation de l’OCDE sur l’IA : 2019 ; ISO/IEC 22989:2022).

Tout ceci n’est pas nouveau; une grande partie a été tirée des normes de gestion des risques de l’ISO, ainsi que d’autres guides de gestion des risques de l’Agence.

Autres avis

Ebook sur amazon

Si vous voulez un bon aperçu des risques de l’IA tels que vus par un pseudo-sceptique expert, lisez ce qu’écrit Gary Marcus*.  Avec ses co-auteurs, il a écrit plusieurs articles et un livre très respecté intitulé: « Rebooting AI: Building Artificial Intelligence We Can Trust »

« Redémarrer l’IA : Construire une intelligence artificielle en laquelle nous pouvons avoir confiance »

Sans surprise, Marcus voit un grand risque dans l’acceptation des résultats des modèles de réseaux neuronaux qui interrogent de très grands ensembles de données, car, comme il le dit, sans connectivité contextuelle aux modèles d’IA symboliques (le genre que vous obtenez avec les algorithmes de symboles, comme celui de l’algèbre), il y a peu de façons (pour le moment) de valider la « vérité ».

Marcus dit que le risque de systèmes comme ceux récemment introduits par OpenAI et d’autres est qu’avec ces outils, le coût de production de non-sens sera presque nul, ce qui facilitera l’inondation d’Internet et des réseaux sociaux de mensonges à des fins économiques et politiques.

* Commencez par un podcast ou une transcription de l’interview de Gary Marcus avec le podcasteur Ezra Klein qui peut être trouvé partout où vous obtenez vos podcasts, ou sur le site Web du New York Times.

n'hésitez pas à commenter les billets et à partager vos idées.

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.