#Advocacia
#Direito

2025, o ano dos Agentes de IA: Como gerir riscos e estar em compliance com as legislações vigentes.

26/2/25
mão humana tocando em um globo terrestre cercado de elementos digitais

Em 2023, a inteligência artificial (IA) foi democratizada. É a tecnologia mais rapidamente aderida pelos usuários no mundo, principalmente o ChatGPT com mais de 100M de novos usuários. Em 2024, foi o ano da corrida pelo desenvolvimento de novos sistemas. Pela disrupção e inovação. Em, chegou a vez dos Agentes de IA.

Segundo um relatório da Grand View Research, o mercado de IA foi avaliado em aproximadamente US$ 136,6 bilhões em 2022 e tem previsão de crescimento anual composto (CAGR) de 37,3% até 2030 (Grand View Research). Esse avanço reflete a crescente adoção de agentes de IA para otimização de processos, análise de dados e automação de tarefas complexas.

Imagine que você gerencie um e-commerce em franco crescimento. As demandas de clientes não param de chegar. Você não tem mão de obra (humana) suficiente para dar conta. As demandas são cada vez mais volumosas. Os seus chatbots com base em LLM só lidam com questões básicas. Você precisa de respostas mais rápidas, personalizadas e que resolvam problemas complexos. Enquanto os LLMs se destacam em compreender e gerar linguagem semelhante à humana, alimentando chatbots e assistentes virtuais, os Agentes de IA vão um passo além, executando decisões, automatizando tarefas e interagindo com o mundo real de forma autônoma.

Os agentes de IA são sistemas que tomam decisões de forma autônoma, sendo treinados com grandes volumes de dados para identificar padrões e gerar respostas. Esses sistemas operam com base em aprendizado de máquina e técnicas avançadas, como redes neurais profundas, permitindo aplicações desde assistentes virtuais até sistemas de previsão financeira.

Para desenvolver agentes de IA, as empresas devem investir em infraestrutura tecnológica robusta, modelos de aprendizado de máquina bem treinados e equipes multidisciplinares. A criação de um agente de IA envolve diversas etapas, incluindo coleta e tratamento de dados, desenvolvimento de algoritmos, testes e validação, além da implementação de medidas de segurança e conformidade regulatória. Dependendo da complexidade do agente, os custos podem variar significativamente. Segundo um estudo da McKinsey, o desenvolvimento de uma IA empresarial pode custar entre US$ 500 mil e US$ 5 milhões, considerando despesas com hardware, software, contratação de especialistas e manutenção contínua (McKinsey AI Report). Empresas menores podem optar por soluções terceirizadas ou plataformas de IA como serviço (AIaaS) para reduzir custos iniciais e acelerar a implementação. Além do investimento financeiro, é essencial que as empresas considerem aspectos éticos e regulatórios desde a concepção do projeto, garantindo que a IA atue de forma responsável e alinhada às normas vigentes.

No entanto, a forma como esses agentes são desenvolvidos e as novas soluções se tornando cada vez mais sofisticadas, geram impactos significativos, exigindo um arcabouço regulatório sólido e uma uma governança eficaz para evitar os riscos envolvidos, como aqueles relacionados ao viés algorítmico, privacidade e proteção de dados, segurança cibernética e responsabilidade legal.

O viés algorítmico ocorre quando os sistemas refletem e amplificam preconceitos existentes nos dados utilizados para treiná-los, podendo resultar em discriminação em contratações, concessão de crédito ou decisões judiciais automatizadas. A privacidade e a proteção de dados são preocupações centrais, uma vez que os agentes de IA operam com grandes volumes de informações sensíveis, aumentando o risco de vazamentos, uso indevido e falta de transparência no tratamento desses dados. A segurança cibernética também é um fator crítico, pois sistemas de IA podem ser alvo de ataques, manipulação de modelos e extração indevida de informações sigilosas. Além disso, a definição de responsabilidade legal em casos de erro ou dano causado por uma IA pode ser complexa, envolvendo desenvolvedores, empresas usuárias e terceiros impactados.

O Global Risk Report 2025, um levantamento do World Economic Forum, que entrevistou mais de 900 líderes mundiais, apontou que a Cibersegurança é um dos maiores riscos do próximo biênio.

Por sua vez, um levantamento da PwC aponta que 85% dos CEOs globais veem a segurança cibernética como um dos maiores desafios no uso da IA (PwC CEO Survey). Diante desses riscos, empresas devem adotar estratégias robustas de governança e compliance para garantir o uso responsável da IA. Isso inclui a criação de políticas internas para monitoramento de sistemas, auditorias regulares para identificar vieses e falhas, além da implementação de mecanismos de explicabilidade e rastreabilidade das decisões. Também é essencial investir na capacitação de profissionais para compreenderem os impactos éticos e regulatórios da IA, garantindo que as soluções desenvolvidas estejam alinhadas às melhores práticas de segurança e transparência. A inteligência artificial continuará a evoluir rapidamente, trazendo oportunidades e desafios. Empresas que adotarem uma abordagem proativa para conformidade regulatória e mitigação de riscos estarão mais bem posicionadas para garantir inovação sustentável e competitividade no mercado.

O futuro da IA dependerá de uma governança eficaz e de uma regulamentação equilibrada, que permita o avanço tecnológico sem comprometer direitos fundamentais e a segurança dos usuários.

Não à toa, o avanço regulatório global tem acompanhado esse crescimento acelerado. Na Europa, o AI Act propõe uma abordagem baseada no risco, categorizando sistemas de IA conforme seu impacto potencial e impondo exigências mais rigorosas para aplicações de alto risco, como sistemas de reconhecimento facial e algoritmos usados em processos de recrutamento. O regulamento exige transparência, auditorias frequentes e mecanismos de accountability para evitar abusos e garantir que a IA seja utilizada de forma ética e segura. Empresas que descumprirem as regras podem enfrentar sanções financeiras significativas, com multas que podem chegar a 6% do faturamento global da companhia.

Além disso, o GDPR (Regulamento Geral de Proteção de Dados da União Europeia) impõe diretrizes rigorosas sobre o tratamento de dados pessoais por sistemas de IA. Entre os principais requisitos está o direito à explicabilidade das decisões automatizadas, garantindo que indivíduos possam questionar e compreender como e por que determinada decisão foi tomada. A coleta e processamento de dados devem seguir princípios como minimização, necessidade e consentimento explícito, o que impacta diretamente o desenvolvimento e a operação de agentes de IA que dependem de grandes volumes de informações.

No Brasil, a LGPD (Lei Geral de Proteção de Dados) segue princípios semelhantes ao GDPR e impõe regras para o tratamento de dados pessoais por IA. A legislação exige que decisões automatizadas sejam revisáveis por humanos e que os titulares dos dados tenham acesso a informações claras sobre os critérios utilizados pelos algoritmos.

Órgãos reguladores, como a ANPD (Autoridade Nacional de Proteção de Dados), que será o órgão central no Brasil para acompanhar a evolução regulatória da IA, têm ampliado sua atuação para fiscalizar práticas de IA e garantir conformidade com a legislação vigente.

Portanto, empresas e negócios que pretendem investir em Agentes de IA precisarão ter uma governança corporativa robusta com a definição de políticas e comitês internos para IA (utilizar a ISO 42001 é uma opção), realizar auditorias e avaliações de impacto (DPIA e avaliações algorítmicas, no contexto do GDPR/LGPD), explicabilidade e accountability para tornar os modelos cada vez mais transparentes e implantar mecanismos de mitigação de riscos (cláusulas contratuais de limitação de responsabilidade, termos de uso robustos etc.)

Autor:

Jean Marc Sasson

Créditos da Imagem: Freepik

Compartilhe esse artigo em suas redes sociais: