Femmes dans l’IA : Rashida Richardson, avocate senior chez Mastercard se concentrant sur l’IA et la confidentialité

Generated with DALL·E 3

Pour donner aux universitaires féminines axées sur l’IA et aux autres le temps sous les projecteurs qui leur est bien mérité – et en retard – TechCrunch lance une série d’entretiens mettant l’accent sur les femmes remarquables qui ont contribué à la révolution de l’IA. Plusieurs articles seront publiés tout au long de l’année à mesure que le boom de l’IA continue, mettant en évidence des travaux clés qui passent souvent inaperçus. Parmi ces profils se trouve Rashida Richardson, avocate principale chez Mastercard, où elle a la charge des problèmes juridiques liés à la confidentialité et à la protection des données, en plus de l’IA.

Avant de rejoindre Mastercard, Richardson était la directrice de la recherche politique à l’AI Now Institute, l’institut de recherche qui étudie les implications sociales de l’IA, et une conseillère politique senior pour les données et la démocratie au bureau de la politique scientifique et technologique de la Maison Blanche. Richardson est professeur adjoint de droit et de science politique à l’Université Northeastern depuis 2021. Là, elle se spécialise dans la race et les technologies émergentes.

“Rashida Richardson, une femme noire, a su apporter sa contribution unique au domaine de l’IA grâce à son expérience en matière de droits civils, d’éducation et de gouvernement. De plus, elle met en garde les utilisateurs d’IA sur deux points clés : la compréhension limitée des capacités et des limites des différentes applications de l’IA, et l’incertitude quant à la capacité des lois actuelles et futures à résoudre les conflits ou certaines préoccupations concernant l’utilisation de l’IA.”

En parlant de son entrée dans le monde de l’IA, Richardson explique qu’elle a d’abord travaillé comme avocate pour les droits civils, s’occupant de problèmes tels que la surveillance, la déségrégation scolaire, le logement équitable et la réforme de la justice pénale. En travaillant sur ces questions, elle a été témoin des premières étapes de l’adoption et de l’expérimentation de technologies basées sur l’IA par le gouvernement. Dans certains cas, les risques et les préoccupations étaient apparents, et elle a aidé à mener un certain nombre d’efforts de politique technologique.

Interrogée sur la manière dont elle navigue dans les défis de l’industrie technologique dominée par les hommes, elle répond qu’étant une femme noire, elle a l’habitude d’être une minorité dans de nombreux espaces. Selon elle, pour construire de l’IA de manière responsable, il faut avoir des principes clairs, des politiques, des directives et des normes pour leur développement et leur utilisation qui sont appliquées par le biais d’un contrôle interne, de l’établissement de références et d’autres pratiques de gouvernance.

Richardson recommande également aux investisseurs de faire un meilleur travail pour définir ou du moins clarifier ce qui constitue un développement ou une utilisation responsable de l’IA, et de prendre des mesures lorsque les pratiques des acteurs de l’IA ne sont pas alignées. Selon elle, si les investisseurs ne sont pas prêts à agir en cas de désalignement ou de preuve de mauvais acteurs, il y aura peu d’incitations à ajuster le comportement ou les pratiques.

Partagez cet article
article précédent

Lyon au sprint sur les formations à la pratique du vélo

article suivant

VAE : vers une réduction de la durée des parcours à six ou huit mois – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles