Les initiatives du gouvernement fédéral en matière d’IA sont soumises à trois règles

Marion Legrand

Alors que 2024 s’annonce comme l’année où Apple fera un grand pas en avant dans l’IA générative, le gouvernement fédéral encourage également l’utilisation de l’IA par ses propres agences…

Cependant, la Maison Blanche a annoncé aujourd’hui que les agences gouvernementales souhaitant tirer parti de l’IA doivent appliquer trois mesures de protection pour atténuer les risques potentiels de cette technologie.

Trois règles pour les initiatives du gouvernement fédéral en matière d’IA

Engadget note que la vice-présidente Kamala Harris a annoncé la nouvelle politique, qui impose aux agences fédérales trois exigences lors de l’introduction d’initiatives d’IA :

  • Assurer la sécurité
  • Soyez transparent
  • Nommer un responsable de l’IA

« Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l’intelligence artificielle soit adoptée et développée de manière à protéger le public des dommages potentiels tout en garantissant que chacun puisse en profiter. ses avantages », a déclaré le vice-président aux journalistes lors d’un appel à la presse.

Assurer la sécurité

Premièrement, les agences devront s’assurer que les outils d’IA qu’elles utilisent « ne mettent pas en danger les droits et la sécurité du peuple américain ». Ils ont jusqu’au 1er décembre pour s’assurer qu’ils ont mis en place des « garanties concrètes » pour garantir que les systèmes d’IA qu’ils utilisent n’ont pas d’impact sur la sécurité ou les droits des Américains.

Cette exigence ne se limite pas à la sécurité physique, mais également à des éléments tels que le maintien de l’intégrité des élections et des infrastructures de vote.

L’une des principales préoccupations soulevées à propos des systèmes d’IA est que, parce qu’ils apprennent de ce qui a été fait dans le passé, ils peuvent perpétuer des préjugés systémiques. Des garanties appropriées sont donc nécessaires pour l’utilisation de l’IA dans des domaines tels que la police prédictive et le contrôle préalable à l’emploi.

Soyez transparent

Les agences fédérales doivent divulguer les systèmes d’IA qu’elles utilisent, et tous les détails seront rendus publics dans la plupart des cas.

« Aujourd’hui, le président Biden et moi exigeons que chaque année, les agences gouvernementales américaines publient en ligne une liste de leurs systèmes d’IA, une évaluation des risques que ces systèmes pourraient poser et la manière dont ces risques sont gérés », a déclaré Harris.

Dans le cadre de cet effort, les agences devront publier le code, les modèles et les données d’IA appartenant au gouvernement, à condition que cela ne nuise pas au public ou aux opérations gouvernementales.

Nommer un responsable de l’IA

Enfin et surtout, les agences fédérales devront exercer une surveillance interne de leur utilisation de l’IA. Cela implique que chaque département nomme un responsable de l’IA pour superviser toute l’utilisation de l’IA par une agence.

« Il s’agit de garantir que l’IA est utilisée de manière responsable, en sachant que nous devons avoir des hauts dirigeants au sein de notre gouvernement qui sont spécifiquement chargés de superviser l’adoption et l’utilisation de l’IA », a noté Harris. De nombreuses agences devront également mettre en place des conseils de gouvernance de l’IA d’ici le 27 mai.

L’évolution relativement lente d’Apple vers l’IA générative est presque certainement le résultat des propres inquiétudes de l’entreprise concernant les risques potentiels.

photo par Ana Lanza sur Unsplash

FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.

Laisser un commentaire