A crescente adoção da Inteligência Artificial (IA) no Brasil tem sido marcada por um fenômeno recorrente: a implementação de soluções sem a devida compreensão conceitual por parte das organizações.
A difusão acelerada de termos como machine learning, redes neurais, IA generativa, LLMs, agentes de IA e automação tem produzido, em muitos casos, mais confusão do que clareza. O resultado é uma combinação perigosa: altas expectativas, decisões equivocadas e baixo impacto real.
O IVEPESP destaca que a maturidade em IA começa pelo domínio do vocabulário — mas não termina nele.
Ela exige também governança estruturada e compromisso ético na aplicação da tecnologia.
📌 O vocabulário como base da decisão
Uma organização que não distingue claramente conceitos como:
- IA vs. automação
- Machine Learning vs. regras programadas
- IA generativa vs. modelos tradicionais
- Chatbots vs. agentes autônomos
- LLMs vs. sistemas corporativos
não está preparada para investir, implementar ou avaliar resultados.
O vocabulário essencial — que inclui ML, Deep Learning, redes neurais, LLMs, agentes, prompts, datasets, fine-tuning, PLN, visão computacional, automação e personalização — constitui a base mínima de inteligência organizacional sobre IA.
⚖️ Ética em IA: de princípio abstrato à prática institucional
A ética em Inteligência Artificial não pode ser tratada como um item acessório ou declaratório.
Ela deve ser incorporada como componente estrutural do ciclo de vida das soluções.
O IVEPESP propõe que a ética em IA seja implementada a partir de cinco pilares operacionais:
1. Transparência e explicabilidade
- Garantir que decisões automatizadas possam ser compreendidas
- Utilizar técnicas de XAI (Explainable AI) quando aplicável
- Informar usuários quando estão interagindo com IA
📌 Exemplo:
Um sistema de atendimento automatizado em um condomínio deve deixar claro que é um assistente virtual e, em decisões críticas (ex: cobrança, advertências), permitir revisão humana.
2. Responsabilidade e supervisão humana
- Definir responsáveis claros por decisões apoiadas por IA
- Evitar delegação total a sistemas autônomos em decisões sensíveis
📌 Exemplo:
Um modelo que sugere aumento de taxa condominial ou corte de serviços deve ser validado por síndico ou conselho — nunca executado automaticamente.
3. Qualidade e governança de dados
- Garantir dados corretos, atualizados e representativos
- Evitar vieses que possam gerar decisões injustas
📌 Exemplo:
Modelos que classificam inadimplência devem considerar contexto e histórico, evitando penalizar sistematicamente determinados perfis de moradores ou regiões.
4. Segurança e privacidade
- Proteger dados pessoais e sensíveis
- Cumprir LGPD e boas práticas de segurança da informação
📌 Exemplo:
Assistentes de IA que acessam dados de moradores devem ter controle rigoroso de acesso e não expor informações financeiras ou pessoais indevidamente.
5. Finalidade e proporcionalidade
- Utilizar IA apenas quando há ganho real
- Evitar uso excessivo ou invasivo da tecnologia
📌 Exemplo:
Não faz sentido implementar reconhecimento facial ou análise comportamental em ambientes onde o ganho operacional é marginal e o risco à privacidade é elevado.
🏢 Aplicações práticas em empresas e gestão institucional
A incorreta aplicação da IA em ambientes organizacionais tem gerado riscos concretos. O IVEPESP destaca alguns cenários críticos:
🔹 Atendimento automatizado (chatbots e IA generativa)
Risco: respostas incorretas, jurídicas ou financeiras
Mitigação: supervisão humana + base de conhecimento validada
🔹 Análise preditiva (inadimplência, churn, comportamento)
Risco: decisões enviesadas ou discriminatórias
Mitigação: auditoria de modelos + validação periódica
🔹 Automação de processos financeiros
Risco: erros em escala (ex: classificação de pagamentos)
Mitigação: thresholds de confiança + revisão amostral
🔹 Agentes de IA autônomos
Risco: execução de ações sem controle adequado
Mitigação: limites claros de autonomia + logs auditáveis
⚠️ O risco da falsa transformação digital
Sem vocabulário, sem governança e sem ética, a IA não transforma — ela amplifica erros existentes.
Organizações que adotam IA sem esses fundamentos:
- aumentam riscos jurídicos
- comprometem sua reputação
- tomam decisões baseadas em modelos mal compreendidos
- e criam dependência tecnológica sem controle
✅ Caminho proposto pelo IVEPESP
Para uma adoção responsável e eficaz da IA, recomenda-se:
- Formação conceitual obrigatória para lideranças
- Criação de diretrizes institucionais de uso de IA
- Implantação de governança de dados e modelos
- Estabelecimento de comitês ou responsáveis por IA
- Auditoria contínua de sistemas e decisões automatizadas
- Integração entre tecnologia, negócio e responsabilidade ética
📍 Conclusão
A Inteligência Artificial não é apenas uma tecnologia — é uma nova camada de decisão sobre a realidade.
E toda decisão exige responsabilidade.
A verdadeira transformação digital não começa com algoritmos.
Começa com entendimento, estrutura e ética.
Prof. Dr. Helio Dias
Presidente do IVEPESP
https://ivepesp.org.br/membro/helio-dias/
[email protected]
Helio Henrique Villela Dias
Engenheiro de Computação | Cientista de Dados – Lello Lab
Doutorando em Ciência da Computação (IA – XAI e Aprendizado Contínuo)
https://ivepesp.org.br/membro/helio-henrique-villela-dias/