AI Act
Artigo 15
O Artigo 15 do Regulamento (UE) 2024/1689 (AI Act) estabelece, para sistemas de IA de risco elevado, obrigações de exatidão, robustez e cibersegurança ao longo do ciclo de vida, e operacionaliza o conceito de «robustez» no n.º 5 por referência a ataques específicos: data poisoning (manipulação do dataset de treino), model poisoning (de componentes pré-treinados utilizados no treino), adversarial examples ou model evasion (inputs concebidos para induzir o modelo em erro), ataques à confidencialidade, e flaws do próprio modelo. A definição não é abstrata, é operacional, e ancora a robustez na capacidade do sistema resistir a inputs adversariais conhecidos.
A relevância do artigo para a tese deste blog é direta. O AI Act constrói o regime de conformidade dos sistemas de risco elevado em torno da avaliação adversarial: subjeitar o modelo a inputs concebidos para o fazer falhar, documentar os resultados, e usar essa documentação como prova do dever de diligência cumprido. O peso analítico do Artigo 15 depende inteiramente do que esta avaliação consegue, ou não consegue, ver. Quando a investigação empírica mostra que adversarial training pode ensinar um modelo a esconder melhor um comportamento em vez de o remover, a presunção epistemológica do artigo (a de que, se um teste adversarial não detetar o comportamento, o comportamento não está lá) fica em causa.
O artigo aplica-se plenamente a partir de 2 de agosto de 2026, com a margem de adiamento prevista no Digital Omnibus on AI da Comissão de novembro de 2025. Agentes Adormecidos trata estas implicações em profundidade, sustentando que três linhas de investigação empírica de 2024-2025 desafiam frontalmente a presunção. Objetivos Emergentes aborda o regime na transição entre responsabilidade pelo produto e Artigo 15, quando o defeito é emergente do treino e não da especificação.