Helio Dias
Instituto para Valorização da Educação e da Pesquisa no Estado de São Paulo (IVEPESP)
https://ivepesp.org.br

Helio Henrique Villela Dias
Engenheiro de Computação, Cientista de Dados
IVEPESP
https://ivepesp.org.br/membro/helio-henrique-villela-dias/


Resumo

A crescente incorporação da Inteligência Artificial (IA) em processos decisórios tem provocado uma transformação estrutural na organização das redes sociotécnicas contemporâneas. Este artigo propõe uma interpretação da IA à luz da Teoria Ator-Rede, de Bruno Latour, caracterizando-a como um “actante” capaz de influenciar e co-determinar ações em sistemas híbridos. A partir dessa perspectiva, discute-se o papel da Explainable Artificial Intelligence (XAI) como elemento central para a governança dessas redes, ao permitir a interpretação, auditabilidade e responsabilização de decisões algorítmicas. O artigo também aborda o desafio emergente dos sistemas dinâmicos baseados em fluxos contínuos de dados (data streams) e concept drift, destacando a necessidade de novas abordagens de explicabilidade adaptativa. Conclui-se que a explicabilidade não é apenas uma característica técnica, mas uma condição estruturante para a governança da IA em contextos institucionais e sociais.

Palavras-chave: Inteligência Artificial; XAI; Governança; Teoria Ator-Rede; Actante; Concept Drift.


1. Introdução

A Inteligência Artificial (IA) tem se consolidado como um dos principais vetores de transformação econômica e social no século XXI. Inicialmente compreendida como ferramenta de automação, a IA passa a ocupar um papel mais ativo na tomada de decisões, influenciando processos em setores como saúde, educação, finanças e administração pública.

Essa mudança de paradigma exige uma revisão conceitual. A visão instrumental da tecnologia mostra-se insuficiente para descrever sistemas que aprendem, adaptam-se e interagem de forma contínua com humanos e outros sistemas técnicos.

Neste contexto, a Teoria Ator-Rede (TAR), proposta por Bruno Latour, oferece um arcabouço teórico relevante ao reconhecer que tanto humanos quanto não humanos participam da construção da realidade social (LATOUR, 2005). A IA, sob essa perspectiva, pode ser compreendida como um actante, isto é, uma entidade com capacidade de agência dentro de uma rede.

O reconhecimento da IA como actante impõe desafios significativos, especialmente no campo da governança. Como compreender, auditar e responsabilizar decisões mediadas por sistemas complexos? É nesse ponto que emerge a importância da Explainable Artificial Intelligence (XAI).


2. Inteligência Artificial como Actante em Redes Sociotécnicas

A Teoria Ator-Rede propõe que a ação não é prerrogativa exclusiva de agentes humanos, mas resulta da interação entre múltiplos elementos — humanos e não humanos — em uma rede (LATOUR, 2005).

Nesse sentido, tecnologias deixam de ser vistas como instrumentos passivos e passam a ser consideradas participantes ativos das relações sociais. A IA contemporânea exemplifica esse fenômeno ao:

  • influenciar decisões organizacionais
  • mediar interações humanas
  • produzir inferências e recomendações
  • adaptar-se a novos contextos

Assim, a IA pode ser caracterizada como um actante digital, cuja atuação reconfigura relações de poder, responsabilidade e autoria.

Essa perspectiva tem implicações profundas, pois desloca o foco da análise de agentes isolados para redes de interação, nas quais a ação é distribuída.


3. O problema da opacidade algorítmica

Apesar de sua crescente relevância, muitos sistemas de IA operam como “caixas-pretas”, especialmente aqueles baseados em aprendizado profundo (GOODFELLOW; BENGIO; COURVILLE, 2016).

A opacidade algorítmica dificulta a compreensão de:

  • como decisões são tomadas
  • quais variáveis são determinantes
  • como modelos evoluem ao longo do tempo

Essa limitação compromete a confiança, a transparência e a responsabilização, tornando-se um obstáculo significativo à adoção segura da IA em contextos críticos (RIBEIRO; SINGH; GUESTRIN, 2016).


4. XAI como mecanismo de governança

A Explainable Artificial Intelligence (XAI) surge como resposta à necessidade de tornar sistemas de IA mais transparentes e interpretáveis.

No entanto, sua relevância ultrapassa o domínio técnico. O XAI pode ser compreendido como um mecanismo de governança sociotécnica, ao possibilitar:

  • Transparência: compreensão dos critérios decisórios
  • Auditabilidade: verificação e rastreabilidade
  • Accountability: atribuição de responsabilidade
  • Confiança: aceitação por parte dos usuários

Nesse sentido, o XAI atua como uma interface entre actantes humanos e não humanos, permitindo a coordenação das ações dentro da rede.


5. Actantes dinâmicos e explicabilidade em data streams

A complexidade aumenta em sistemas baseados em fluxos contínuos de dados, nos quais ocorre o fenômeno de concept drift, caracterizado pela mudança na distribuição dos dados ao longo do tempo (GAMA et al., 2014).

Nesses ambientes, os modelos de IA evoluem continuamente, tornando-se actantes dinâmicos.

Isso impõe novos desafios:

  • manter consistência nas explicações
  • detectar mudanças no comportamento do modelo
  • adaptar mecanismos de explicabilidade
  • preservar a confiança ao longo do tempo

A pesquisa em XAI precisa, portanto, avançar para incorporar a dimensão temporal e adaptativa, desenvolvendo métodos capazes de explicar não apenas decisões isoladas, mas também a evolução do sistema.


6. Implicações para a governança da IA no Brasil

No contexto brasileiro, a adoção crescente de IA em setores estratégicos exige o desenvolvimento de uma agenda estruturada de governança.

Destacam-se as seguintes diretrizes:

  • estabelecimento de padrões de explicabilidade em sistemas críticos
  • desenvolvimento de marcos regulatórios baseados em responsabilidade distribuída
  • fomento à pesquisa interdisciplinar
  • formação de profissionais com competências sociotécnicas

A integração entre academia, setor produtivo e governo é fundamental para garantir que a IA seja desenvolvida e aplicada de forma alinhada aos valores sociais e institucionais.


7. Conclusão

A Inteligência Artificial representa mais do que uma inovação tecnológica: trata-se de uma transformação na própria natureza da ação social.

Ao ser compreendida como actante, a IA passa a integrar redes sociotécnicas nas quais decisões são distribuídas entre múltiplos agentes.

Nesse contexto, a explicabilidade não é opcional, mas essencial para a governança.

O XAI emerge como elemento estruturante, permitindo que sistemas de IA sejam compreendidos, auditados e integrados de forma responsável à sociedade.

O desafio futuro reside em desenvolver modelos capazes de lidar com a complexidade de actantes dinâmicos, garantindo transparência e confiança em ambientes em constante transformação.


Referências (ABNT)

GAMA, João et al. A survey on concept drift adaptation. ACM Computing Surveys, v. 46, n. 4, 2014.

GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep Learning. Cambridge: MIT Press, 2016.

LATOUR, Bruno. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press, 2005.

RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD, 2016.

DOSHI-VELEZ, Finale; KIM, Been. Towards a Rigorous Science of Interpretable Machine Learning. arXiv preprint, 2017.

MILLER, Tim. Explanation in Artificial Intelligence: Insights from the Social Sciences. Artificial Intelligence, v. 267, 2019.