Onde estamos
Neste hype da I.A., estamos assistindo a um mundo em que os Governos estão cada vez mais adotando sistemas algorítmicos de tomada de decisão como uma varinha mágica para “resolver” problemas sociais, econômicos, ambientais e políticos, gastando recursos públicos de maneiras questionáveis, compartilhando dados pessoais sensíveis de cidadãos com empresas privadas e, em última instância, descartando qualquer tentativa de resposta coletiva, democrática e transparente aos principais desafios da sociedade. Para estimular o pensamento crítico contra tal tendência, este projeto busca contribuir para o desenvolvimento de um kit de ferramentas feminista para questionar os sistemas algorítmicos de tomada de decisão que estão sendo implementados pelo setor público.
Não acreditamos em uma A.I. justa, ética e/ou inclusiva se os sistemas automatizados de decisão não reconhecerem as desigualdades e injustiças estruturais que afetam as pessoas cujas vidas constituem o alvo a ser gerenciado por esses sistemas. A transparência não basta se os desequilíbrios de poder não forem levados em consideração. Além disso, somos críticas à ideia de sistemas de I.A. serem concebidos para gerenciar pessoas pobres ou quaisquer comunidades marginalizadas. Esses sistemas tendem a ser desenvolvidos por estratos da população privilegiados, contra o livre arbítrio e sem ouvir a opinião nem ter a participação desde o início daqueles que provavelmente serão alvos ou “ajudados”, resultando em opressão e discriminação automatizadas praticadas pelos Estados de Bem-Estar Digital, que recorrem à matemática como desculpa para se esquivar de qualquer responsabilidade política.
Indo além da abordagem liberal dos Direitos Humanos, que ignora as relações de poder, as teorias e práticas feministas constroem estruturas políticas para que possamos imaginar outros mundos, baseados na solidariedade, na equidade e na justiça socioambiental. Por isso, acreditamos em apoiar os movimentos feministas a compreender o desenvolvimento dessas tecnologias emergentes, para que possam lutar contra essa injustiça social automatizada, unidas e com solidariedade.
Nota sobre metodologia
Este projeto busca aproximar os movimentos feministas dos problemas sociais e políticos que muitas decisões algorítmicas carregam consigo. Para tanto, colocamos três questões de pesquisa:
- Quais são os principais motivos para que os governos implementem inteligência artificial e outros métodos de processos de tomada de decisão algorítmica na América Latina para abordar questões de serviços públicos?
- Quais são as implicações críticas de tais tecnologias na implementação da igualdade de gênero, diversidade cultural, direitos sexuais e reprodutivos?
- Como podemos adaptar as teorias feministas para oferecer diretrizes de defesa dos direitos para equilibrar a dinâmica de poder imposta pelos usos da I.A. e outros mecanismos algorítmicos de tomada de decisão?
Para isso, trabalhamos em uma ampla revisão da literatura disponível, realizamos oficinas e selecionamos estudos de caso em que esses sistemas foram usados para gerenciar a pobreza ou outros programas de seguridade social. Portanto, deixamos de fora de nossa análise aprofundada a tendência mapeada de adoção de I.A. no policiamento preditivo e nos concentramos em programas que revelam manifestações de um Estado de Bem-Estar Digital. Para estes, trabalhamos com informação pública, onde nos concentramos principalmente em questionar os discursos dos criadores dessas tecnologias, os quais permeiam a opinião pública e a das pessoas com poder de decisão. Acreditamos firmemente que isso nos permite revelar estratégias e categorias políticas que podem aproximar essas questões da pauta feminista mais ampla e fazer avançar uma investigação feminista das tecnologias digitais.
Dúvidas e sugestões? Por favor, entre em contato conosco pelo e-mail contact@codingrights.org
Créditos do Projeto:
Um projeto da: Coding Rights em associação com a ativista Paz Peña
Pesquisa e Coordenação: Joana Varon e Paz Peña
Design e ilustrações: Clarote
Desenvolvimento Web: Diana K. Cury
Administração de sistemas (Sysadmin): Nanda Monteiro
Comunicação: Juliana Mastrascusa, Erly Guedes e Évilin Matos
Tradução: Trajano Pontes e Évilin Matos
Apoio: Feminist Internet Research Network (FIRN), da Association for Progressive Communications – APC (fase de pesquisa em inglês e oficinas); Fundação Heinrich Böll Rio de Janeiro (fase das oficinas no Brasil, tradução para o Português e da zine); Access Now (fase da tradução para o espanhol, das oficinas de América Latina e da construção da página da midiateca e recursos para oficinas).