Helio Dias
Instituto para Valorização da Educação e da Pesquisa no Estado de São Paulo (IVEPESP)
https://ivepesp.org.br
Helio Henrique Villela Dias
Engenheiro de Computação, Cientista de Dados
IVEPESP
https://ivepesp.org.br/membro/helio-henrique-villela-dias/
Resumo
A crescente incorporação da Inteligência Artificial (IA) em processos decisórios tem provocado uma transformação estrutural na organização das redes sociotécnicas contemporâneas. Este artigo propõe uma interpretação da IA à luz da Teoria Ator-Rede, de Bruno Latour, caracterizando-a como um “actante” capaz de influenciar e co-determinar ações em sistemas híbridos. A partir dessa perspectiva, discute-se o papel da Explainable Artificial Intelligence (XAI) como elemento central para a governança dessas redes, ao permitir a interpretação, auditabilidade e responsabilização de decisões algorítmicas. O artigo também aborda o desafio emergente dos sistemas dinâmicos baseados em fluxos contínuos de dados (data streams) e concept drift, destacando a necessidade de novas abordagens de explicabilidade adaptativa. Conclui-se que a explicabilidade não é apenas uma característica técnica, mas uma condição estruturante para a governança da IA em contextos institucionais e sociais.
Palavras-chave: Inteligência Artificial; XAI; Governança; Teoria Ator-Rede; Actante; Concept Drift.
1. Introdução
A Inteligência Artificial (IA) tem se consolidado como um dos principais vetores de transformação econômica e social no século XXI. Inicialmente compreendida como ferramenta de automação, a IA passa a ocupar um papel mais ativo na tomada de decisões, influenciando processos em setores como saúde, educação, finanças e administração pública.
Essa mudança de paradigma exige uma revisão conceitual. A visão instrumental da tecnologia mostra-se insuficiente para descrever sistemas que aprendem, adaptam-se e interagem de forma contínua com humanos e outros sistemas técnicos.
Neste contexto, a Teoria Ator-Rede (TAR), proposta por Bruno Latour, oferece um arcabouço teórico relevante ao reconhecer que tanto humanos quanto não humanos participam da construção da realidade social (LATOUR, 2005). A IA, sob essa perspectiva, pode ser compreendida como um actante, isto é, uma entidade com capacidade de agência dentro de uma rede.
O reconhecimento da IA como actante impõe desafios significativos, especialmente no campo da governança. Como compreender, auditar e responsabilizar decisões mediadas por sistemas complexos? É nesse ponto que emerge a importância da Explainable Artificial Intelligence (XAI).
2. Inteligência Artificial como Actante em Redes Sociotécnicas
A Teoria Ator-Rede propõe que a ação não é prerrogativa exclusiva de agentes humanos, mas resulta da interação entre múltiplos elementos — humanos e não humanos — em uma rede (LATOUR, 2005).
Nesse sentido, tecnologias deixam de ser vistas como instrumentos passivos e passam a ser consideradas participantes ativos das relações sociais. A IA contemporânea exemplifica esse fenômeno ao:
- influenciar decisões organizacionais
- mediar interações humanas
- produzir inferências e recomendações
- adaptar-se a novos contextos
Assim, a IA pode ser caracterizada como um actante digital, cuja atuação reconfigura relações de poder, responsabilidade e autoria.
Essa perspectiva tem implicações profundas, pois desloca o foco da análise de agentes isolados para redes de interação, nas quais a ação é distribuída.
3. O problema da opacidade algorítmica
Apesar de sua crescente relevância, muitos sistemas de IA operam como “caixas-pretas”, especialmente aqueles baseados em aprendizado profundo (GOODFELLOW; BENGIO; COURVILLE, 2016).
A opacidade algorítmica dificulta a compreensão de:
- como decisões são tomadas
- quais variáveis são determinantes
- como modelos evoluem ao longo do tempo
Essa limitação compromete a confiança, a transparência e a responsabilização, tornando-se um obstáculo significativo à adoção segura da IA em contextos críticos (RIBEIRO; SINGH; GUESTRIN, 2016).
4. XAI como mecanismo de governança
A Explainable Artificial Intelligence (XAI) surge como resposta à necessidade de tornar sistemas de IA mais transparentes e interpretáveis.
No entanto, sua relevância ultrapassa o domínio técnico. O XAI pode ser compreendido como um mecanismo de governança sociotécnica, ao possibilitar:
- Transparência: compreensão dos critérios decisórios
- Auditabilidade: verificação e rastreabilidade
- Accountability: atribuição de responsabilidade
- Confiança: aceitação por parte dos usuários
Nesse sentido, o XAI atua como uma interface entre actantes humanos e não humanos, permitindo a coordenação das ações dentro da rede.
5. Actantes dinâmicos e explicabilidade em data streams
A complexidade aumenta em sistemas baseados em fluxos contínuos de dados, nos quais ocorre o fenômeno de concept drift, caracterizado pela mudança na distribuição dos dados ao longo do tempo (GAMA et al., 2014).
Nesses ambientes, os modelos de IA evoluem continuamente, tornando-se actantes dinâmicos.
Isso impõe novos desafios:
- manter consistência nas explicações
- detectar mudanças no comportamento do modelo
- adaptar mecanismos de explicabilidade
- preservar a confiança ao longo do tempo
A pesquisa em XAI precisa, portanto, avançar para incorporar a dimensão temporal e adaptativa, desenvolvendo métodos capazes de explicar não apenas decisões isoladas, mas também a evolução do sistema.
6. Implicações para a governança da IA no Brasil
No contexto brasileiro, a adoção crescente de IA em setores estratégicos exige o desenvolvimento de uma agenda estruturada de governança.
Destacam-se as seguintes diretrizes:
- estabelecimento de padrões de explicabilidade em sistemas críticos
- desenvolvimento de marcos regulatórios baseados em responsabilidade distribuída
- fomento à pesquisa interdisciplinar
- formação de profissionais com competências sociotécnicas
A integração entre academia, setor produtivo e governo é fundamental para garantir que a IA seja desenvolvida e aplicada de forma alinhada aos valores sociais e institucionais.
7. Conclusão
A Inteligência Artificial representa mais do que uma inovação tecnológica: trata-se de uma transformação na própria natureza da ação social.
Ao ser compreendida como actante, a IA passa a integrar redes sociotécnicas nas quais decisões são distribuídas entre múltiplos agentes.
Nesse contexto, a explicabilidade não é opcional, mas essencial para a governança.
O XAI emerge como elemento estruturante, permitindo que sistemas de IA sejam compreendidos, auditados e integrados de forma responsável à sociedade.
O desafio futuro reside em desenvolver modelos capazes de lidar com a complexidade de actantes dinâmicos, garantindo transparência e confiança em ambientes em constante transformação.
Referências (ABNT)
GAMA, João et al. A survey on concept drift adaptation. ACM Computing Surveys, v. 46, n. 4, 2014.
GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep Learning. Cambridge: MIT Press, 2016.
LATOUR, Bruno. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press, 2005.
RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD, 2016.
DOSHI-VELEZ, Finale; KIM, Been. Towards a Rigorous Science of Interpretable Machine Learning. arXiv preprint, 2017.
MILLER, Tim. Explanation in Artificial Intelligence: Insights from the Social Sciences. Artificial Intelligence, v. 267, 2019.