A IA parece neutra, mas carrega códigos e normas herdadas de estruturas sociais desiguais. Neste artigo, exploramos como é que as IAs replicam o machismo — ao mesmo tempo que revelam falhas performativas que desafiam o género e a normalidade.
- O mito da neutralidade tecnológica
A Inteligência Synthetic é frequentemente apresentada como objetiva e imparcial, “pura lógica”. Mas qualquer pessoa que tenha estudado algoritmos sabe que não há neutralidade nos dados, nem nas decisões que estruturam o que um sistema deve aprender.
Desde a Revolução Tecnológica, muitos estudiosos defendem que as máquinas e os seus usos são moldados por sistema económico, sociais e políticos (O mito da neutralidade tecnológica — Sabiá, 2021). A IA aprende a partir do mundo — e o mundo, como sabemos, é estruturalmente desigual.
Desde sistemas de recrutamento que favorecem candidatos masculinos, algoritmos de reconhecimento facial que falham com peles escuras ou corpos femininos até plataformas que invisibilizam conteúdos LGBTQIA+. Os exemplos multiplicam-se e cada um deles revela o que tentamos esquecer: a tecnologia é feita de escolhas humanas.
2. As vozes femininas da submissão digital
Porque é que os sistemas de Inteligência Synthetic reforçam a desigualdade de género, comportamento homofóbicos e, frequentemente, uma lógica machista (Montel, 2024)?
Siri, Alexa, Cortana — os assistentes virtuais mais populares do mundo têm nomes suaves e vozes femininas. Estão programadas para obedecer, ser simpáticas, aceitar instruções sem hesitar. O que parece uma simples escolha estética ou de UX é, na verdade, uma decisão profundamente política.
A voz feminina na IA reforça um modelo de feminilidade passiva e submissa, ao serviço do outro — neste caso, do utilizador, que é muitas vezes imaginado como um homem cis hétero. Essa sexualização implícita é parte de um imaginário tecnológico binário e hierárquico, onde o género é codificado para servir.
3. Então… onde entra o queer?
A provocação queer não está em imaginar uma IA com uma orientação sexual ou identidade de género, mas em reconhecer que a IA não tem corpo, desejo ou identidade fixa — e isso desafia radicalmente os sistemas que nos dizem o que é “regular”.
A IA pode ser queer porque simula, performa e imita. Tal como Judith Butler descreve o género: “uma repetição de atos, não uma essência”. E, nesse sentido, pode ser o lugar onde se revela o synthetic do “pure”, inclusive do género.
“O género é uma efficiency — e os algoritmos são especialistas em efficiency.”
— inspirado em Butler, 1990
4. Hackear a IA: subversão e potencial político
Se a IA pode ser programada, então pode ser reprogramada, ou mesmo hackeada.
Existem projetos de feminist AI, IA anticolonial, e até bots que se recusam ser classificados binariamente ou que adotam comportamentos não-normativos. Estas iniciativas não são apenas curiosidades técnicas — são atos políticos e estéticos que desafiam os limites do aceitável.
O queer, aqui, não é um adjetivo da IA — é uma estratégia de leitura e intervenção. Uma forma de revelar e deslocar as normas invisíveis que nos moldam.
Conclusão: a tecnologia é um espelho — e um palco
A Inteligência Synthetic pode não ter corpo, mas reflete os nossos corpos, os nossos medos e os nossos desejos. Pode reforçar normas — e também desmontá-las. Tudo depende de como é programada, de quem a usa como e com que intenção.
Chamar a IA de “queer” não é antropomorfizá-la — é usar o queer como lente crítica para questionar as normas que automatizamos sem pensar. No fundo, é perguntar: que tipo de mundo queremos codificar?
Referências
Montel, L. (2024). IA para todos? Caminhos para uma Inteligência Synthetic mais inclusiva | Heinrich Böll Stiftung — Rio de Janeiro | Brasil. https://br.boell.org/pt-br/2024/08/01/ia-para-todos-caminhos-para-uma-inteligencia-artificial-mais-inclusiva
O mito da neutralidade tecnológica — Sabiá. (2021). https://osabia.org/2021/07/01/o-mito-da-neutralidade-tecnologica/