Governos de toda a América Latina estão em fase de testes e pilotos de uma ampla variedade de sistemas de Inteligência Artificial para ajudar a implementar serviços públicos. Neste exercício inicial de mapeamento, pudemos identificar cinco áreas de tendência: Educação; Sistema Judicial; Policiamento; Saúde Pública e Benefícios Sociais. Mas quais são as implicações feministas e de direitos humanos de usar a tomada de decisão algorítmica para definir a disponibilidade de benefícios sociais e outros serviços públicos? Este é um processo contínuo para construir críticas feministas anticoloniais aos sistemas de I.A. que sejam baseadas em casos práticos.
O mapa abaixo ilustra projetos em que a implantação de sistemas de inteligência artificial provavelmente pode causar ou propagar danos e discriminação com base em gênero e todas as suas interseccionalidades de raça, classe, sexo, idade, território etc.
Embora este seja um mapeamento contínuo e não exaustivo para ilustrar as próprias narrativas em torno desses projetos, ele já revela tendências preocupantes que deveriam receber a atenção dos movimentos feministas. No entanto, são necessárias mais informações e investigações mais profundas para realizarmos melhores avaliações de impacto, algo que já fizemos para dois deles. Você já ouviu falar de outros projetos? Ajude-nos a rastreá-los aqui.