L’inquiétude croissante au sein de la société civile concernant l’intelligence artificielle (IA) et ses applications pousse les gouvernements à adopter des cadres législatifs pour en garantir une utilisation « responsable ». Ces cadres, comme la norme ISO-42 et le AI Act Européen, visent à codifier les principes d’IA responsable, tels qu’énoncés dans la Déclaration de Montréal.
L’IA responsable consiste donc à utiliser l’intelligence artificielle de manière éthique et sûre, en respectant les droits humains et en minimisant les risques.