Les États-Unis, le Royaume-Uni et d’autres s’engagent à rendre l’IA « sécurisée dès la conception »

0
166

Les États-Unis, le Royaume-Uni et 16 autres pays ont signé un accord s’engageant à prendre des mesures pour rendre l’IA « sécurisée dès la conception ».

Bien que reconnue comme une déclaration de principes fondamentaux, l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a déclaré qu’il s’agissait d’une première étape importante…

Reuters rapports.

Les États-Unis, la Grande-Bretagne et plus d’une douzaine d’autres pays ont dévoilé dimanche ce qu’un haut responsable américain a décrit comme le premier accord international détaillé sur la manière de protéger l’intelligence artificielle des acteurs malveillants, poussant les entreprises à créer des systèmes d’IA « sécurisés par conception. »

Dans un document de 20 pages dévoilé dimanche, les 18 pays ont convenu que les entreprises qui conçoivent et utilisent l’IA doivent la développer et la déployer de manière à protéger leurs clients et le grand public contre toute utilisation abusive.

La directrice de la CISA, Jen Easterly, a déclaré qu’il était important que les pays reconnaissent que le développement de l’IA nécessite une approche axée sur la sécurité et a encouragé d’autres pays à s’y inscrire.

« C’est la première fois que nous voyons une affirmation selon laquelle ces capacités ne devraient pas seulement concerner des fonctionnalités intéressantes et la rapidité avec laquelle nous pouvons les commercialiser ou comment nous pouvons rivaliser pour réduire les coûts », a déclaré Easterly à Reuters, affirmant que les lignes directrices représentent « un accord selon lequel la chose la plus importante à faire lors de la phase de conception est la sécurité. »

Les autres pays signataires jusqu’à présent sont l’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, Israël, le Nigeria et Singapour.

L’Europe a pris une longueur d’avance dans ce domaine, en tentant de créer des lois spécifiques régissant le développement et la publication de nouveaux systèmes d’IA – qui incluraient une obligation légale pour les entreprises d’effectuer des tests de sécurité réguliers pour identifier les vulnérabilités potentielles. Cependant, les progrès à ce sujet ont été lentsce qui a conduit la France, l’Allemagne et l’Italie à procéder à un accord intérimaire qui leur est propre.

La Maison Blanche a exhorté le Congrès à développer une réglementation de l’IA aux États-Unis, mais peu de progrès ont été réalisés jusqu’à présent. Le président Biden a signé le mois dernier un décret obligeant les sociétés d’IA à effectuer des tests de sécurité, principalement destinés à protéger les systèmes contre les pirates informatiques.

L’utilisation de l’IA par Apple

Apple intègre des fonctionnalités d’IA dans ses produits depuis de nombreuses années, notamment dans le domaine de la photographie sur iPhone. La société a développé son propre chatbot – baptisé Apple GPT – mais ne l’utilise jusqu’à présent qu’au sein de l’entreprise, probablement parce qu’elle souhaite tirer parti des fonctionnalités d’IA générative pour le développement de logiciels sans compromettre la sécurité des produits.

Compte tenu de l’approche généralement prudente de l’entreprise à l’égard des nouvelles technologies, il faudra probablement un certain temps avant qu’Apple ne propose quelque chose de ce genre à ses clients.

Prise de 9to5Mac

Créer des lois destinées à garantir la sûreté et la sécurité des nouveaux systèmes d’IA est incroyablement difficile.

La nature même des systèmes d’IA – qui développent leurs propres capacités, plutôt que d’être spécifiquement programmés pour faire ou ne pas faire certaines choses – signifie que même les chercheurs travaillant sur un projet peuvent ne pas être pleinement conscients de ce qu’un nouveau modèle d’IA peut accomplir tant qu’il n’est pas mis en œuvre. déjà terminé.

Il est également courant d’avoir des désaccords entre chercheurs sur quelles sont ces capacitéset ce qu’ils pourraient signifier pour l’avenir.

Cet accord de 20 pages est incroyablement basique, plus une déclaration de principes généraux qu’un modèle, mais étant donné les défis rencontrés, il constitue probablement au moins un point de départ raisonnable. Il établit que les sociétés de recherche ont l’obligation de rechercher spécifiquement les failles de sécurité.

Cependant, il est important de noter que l’initiative concerne uniquement la manière dont les pirates pourraient tirer parti des systèmes d’IA. Il ne répond pas à la question beaucoup plus large – et plus vaste – de savoir comment les systèmes d’IA pourraient eux-mêmes constituer une menace pour l’humanité.

FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.

Marion Legrand
Marion a été éditeur en chef pour SOON. elle a précédemment créé des stratégies de marketing de contenu et des textes convaincants pour diverses entreprises de technologie et de commerce électronique. Elle a cofondé deux jeux de rôle fantastiques en direct qui ont offert des expériences immersives et interactives pendant près de 10 ans.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici