Pour donner aux femmes universitaires spécialisées en IA et à d’autres le temps et la reconnaissance qu’elles méritent – et qui sont en retard – TechCrunch lance une série d’interviews mettant en avant des femmes remarquables qui ont contribué à la révolution de l’IA. Anika Collier Navaroli est un chercheur senior au Tow Center for Digital Journalism de l’Université Columbia et une Technology Public Voices Fellow avec le projet OpEd, en collaboration avec la Fondation MacArthur. Elle est connue pour son travail de recherche et de plaidoyer dans le domaine de la technologie. Auparavant, elle travaillait comme praticienne spécialisée dans les rapports entre la race et la technologie au Stanford Center on Philanthropy and Civil Society. Avant cela, elle dirigeait Trust & Safety chez Twitch et Twitter.
Navaroli est peut-être mieux connue pour son témoignage devant le Congrès sur Twitter, où elle a parlé des avertissements ignorés concernant la violence imminente sur les réseaux sociaux qui ont précédé ce qui est devenu l’attaque du Capitole du 6 janvier. Comment avez-vous commencé à travailler en IA ? Qu’est-ce qui vous a attiré dans ce domaine ? Il y a environ 20 ans, je travaillais comme copiste dans la rédaction du journal de ma ville natale pendant l’été où il est passé au numérique. A l’époque, j’étais étudiante en journalisme. Des sites de médias sociaux comme Facebook se répandaient sur mon campus, et je suis devenue obsédée par la compréhension de l’évolution des lois basées sur l’imprimerie avec les technologies émergentes.
Cette curiosité m’a orientée vers le droit, où j’ai migré vers Twitter, étudié le droit et la politique des médias, et j’ai observé le déroulement des mouvements Printemps arabe et Occupy Wall Street. J’ai tout mis en relation et écrit ma thèse de master sur la façon dont les nouvelles technologies transformaient le flux d’information et l’exercice de la liberté d’expression par la société. Après l’obtention de mon diplôme, j’ai travaillé dans quelques cabinets d’avocats, puis j’ai intégré le Data & Society Research Institute, où j’ai dirigé les recherches du nouveau think tank sur ce qui s’appelait alors les “big data”, les droits civils et l’équité.
“Mon travail là-bas a consisté à examiner comment les premiers systèmes d’IA, comme le logiciel de reconnaissance faciale, les outils de police prédictive et les algorithmes d’évaluation des risques en matière de justice pénale, reproduisaient les préjugés et créaient des conséquences non voulues qui touchaient les communautés marginalisées.”
Par la suite, j’ai été amenée à travailler chez Color of Change et à diriger le premier audit des droits civils d’une entreprise technologique, à développer le manuel de la campagne pour la responsabilité technologique de l’organisation et à militer pour des changements politiques technologiques auprès des gouvernements et des régulateurs. De là, je suis devenue un haut responsable politique au sein des équipes de confiance et de sécurité de Twitter et du service Twitch.