TV 247 logo
      Ana Carolina Lima avatar

      Ana Carolina Lima

      Ana Carolina Lima, é advogada, co-fundadora do escritório Romana & Lima Advogadas Associadas e do Aqualtune Lab

      1 artigos

      HOME > blog

      Por trás do algoritmo, decisões humanas

      A inteligência artificial não é neutra, ela reflete escolhas, interesses e omissões de quem a cria, opera e aplica

      Ilustração de Inteligência Artificial (IA) (Foto: Dado Ruvic / Reuters)

      Nos anos 1990, quando o o à internet ainda era e os espaços de interação online estavam apenas começando a se formar, compreendi que o ambiente digital reflete, e muitas vezes intensifica, as dinâmicas de poder, os valores e as violências presentes na sociedade. Essa consciência, que nasceu da vivência, se consolidou ao longo dos anos na prática profissional e na atuação em políticas públicas.

      A partir da minha experiência em espaços de escuta e formulação sobre tecnologias e justiça, compreendo que a inteligência artificial não é uma ferramenta neutra. Ela carrega as marcas de quem a constrói, os dados de quem a alimenta e os interesses de quem a aplica.

      O filósofo e cientista político Mark Coeckelbergh, no livro Ética na Inteligência Artificial (Edições Loyola, 2023), propõe uma virada necessária: deixar de tratar a IA como se fosse autônoma, como se tivesse vontade própria. Atribuir agência à máquina, como se ela escolhesse ou decidisse sozinha, é uma armadilha ética. Toda vez que dizemos que a culpa é do algoritmo ou que a máquina errou, corremos o risco de apagar a responsabilidade humana.

      É neste sentido que proponho a reflexão de que por trás de cada sistema, há uma cadeia de decisões tomadas por pessoas: quem coletou os dados? Quem escreveu os códigos? Quem autorizou o uso daquela tecnologia em contextos específicos de poder? Quais vidas serão afetadas? E quais serão descartadas?

      Essa reflexão é urgente. Quando alimentados por dados históricos de uma sociedade racista, patriarcal e desigual, como a nossa, os sistemas de IA tendem a reproduzir e aprofundar as mesmas injustiças. Coeckelbergh nos alerta que os grandes desafios éticos da IA am por aí, como viés algorítmico, vigilância, automação do trabalho, decisões judiciais automatizadas, manipulação política e uso militar.

      No campo do Judiciário, observa-se o avanço de ferramentas tecnológicas voltadas à produtividade, à modernização da prestação jurisdicional e à inovação na gestão dos serviços. Essas iniciativas, embora promissoras, precisam ser acompanhadas de mecanismos de transparência e escuta pública, sob pena de reforçarem estruturas de exclusão e apagarem a complexidade das experiências jurídicas em um país marcado pela desigualdade.

      Além disso, é preciso discutir a presença, ou a distorção, dos corpos negros nos dados. Historicamente, pessoas negras são sub-representadas em contextos de o a direitos e super-representadas em registros de criminalização e suspeição. Quando esses padrões históricos alimentam sistemas automatizados, os riscos se tornam gravíssimos.

      Basta lembrar do caso de Matheus Oliveira, um jovem negro carioca preso injustamente após ser identificado por um sistema de reconhecimento facial. Matheus nunca havia pisado no estado onde o crime aconteceu. Ainda assim, ou dias encarcerado. Trata-se de uma tecnologia adotada por órgãos de segurança pública sem que existam, até o momento, protocolos públicos e auditáveis que assegurem sua confiabilidade e precisão, especialmente diante dos riscos comprovados de erro em relação a pessoas negras. A tecnologia, tratada como verdade absoluta, ignorou sua identidade, sua história e seus direitos. Casos como o de Matheus não são exceção: são sintomas de uma estrutura que legitima a desumanização.

      Outro exemplo recente vem do mercado de trabalho. A nutricionista e mestre em ciências sociais Bruna de Oliveira denunciou o LinkedIn por racismo algorítmico. A plataforma ou a sugerir a ela vagas incompatíveis com sua formação, como atendente de lanchonete, serviços gerais e faxineira. Mesmo após atualizar manualmente o seu perfil, os anúncios persistiram. A empresa reconheceu uma falha no sistema, mas negou que tenha ocorrido discriminação. O episódio, no entanto, revela como o viés algorítmico pode operar silenciosamente, moldando oportunidades e reforçando estigmas históricos. Bruna, como tantas outras pessoas negras, foi tratada não como uma profissional com trajetória e qualificação, mas como um padrão estatístico atravessado pelo preconceito.

      Não é apenas o código que precisa ser repensado, mas também a linguagem. Expressões como “a IA decidiu”, “o sistema selecionou” ou “o robô rejeitou” são frequentemente usadas para justificar exclusões, como se essas tecnologias fossem entes dotados de vontade própria. Ao aceitarmos esse vocabulário, contribuímos para apagar a autoria humana por trás de decisões que afetam vidas reais.

      Corrigir o viés é necessário, mas não é suficiente. A pergunta que se impõe é: quem tem poder para moldar essas tecnologias, e quem deveria estar nesse debate, mas segue excluído?

      O que está em jogo é a responsabilidade ética sobre o que estamos criando e ando. E é por isso que defendo uma ética relacional e inclusiva. Quando falo em ética relacional, refiro-me a uma ética que não se limita à técnica ou à legalidade, mas que considera as relações de poder, escuta os afetados pelas decisões e reconhece que nenhuma tecnologia é neutra quando aplicada a contextos sociais desiguais. Precisamos de uma ética que reconheça o impacto social da IA, escute quem mais sofre com seus efeitos e envolva a sociedade no debate tecnológico. Afinal, a quem interessa manter o discurso de que a IA decide sozinha?

       

      * Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

      ❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com [email protected].

      ✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.

      Rumo ao tri: Brasil 247 concorre ao Prêmio iBest 2025 e jornalistas da equipe também disputam categorias

      Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista:

      Cortes 247

      Carregando anúncios...
      Carregando anúncios...