Modelos de IA passam a usar tipos de incerteza em vez de scores de confiança
Um artigo técnico propõe uma mudança fundamental na forma como modelos de classificação lidam com incerteza. Em vez de depender de scores numéricos de confiança, a nova abordagem categoriza a incerteza em tipos distintos: CERTAIN, PARTIAL e UNCERTAIN. Essa distinção permite uma tomada de decisão mais nuanced em aplicações onde o erro tem consequências graves, como avaliação de crédito.
A classificação tripartida separa casos onde o modelo tem evidência convergente (CERTAIN), evidência limitada mas existente (PARTIAL) e completa falta de direção (UNCERTAIN). Essa estrutura reflete melhor a natureza da informação disponível, indo além de uma simples probabilidade. Por exemplo, em sistemas de crédito, um score de 0,8 não indica se a alta confiança vem de dados sólidos ou de uma suposição otimista.
Scores tradicionais podem ser enganosos, pois compactam diferentes fontes de incerteza em um único número. Eles não diferenciam entre ambiguidade inerente dos dados e falta de informação. Em cenários críticos, isso leva a decisões baseadas em falsa precisão. A proposta de tipos de incerteza aborda essa deficiência ao oferecer uma representação mais fiel da qualidade da predição.
Setores como finanças, saúde e justiça criminal podem se beneficiar dessa abordagem. Ao saber se um modelo está CERTAIN ou apenas PARTIAL, os operadores podem ajustar seu grau de reliance. Por exemplo, um sistema de aprovação de empréstimo pode exigir intervenção humana sempre que a incerteza for PARTIAL, mitigando riscos de discriminação algorítmica.
Termos importantes são CERTAIN, PARTIAL, UNCERTAIN e classificação de incerteza. A mudança representa um avanço na interpretabilidade de IA, pois comunica o estado de conhecimento do modelo de forma mais transparente. Isso fortalece a governança algorítmica e a responsabilização. A indústria de machine learning está cada vez mais ciente da necessidade de métricas que capturem a qualidade das predições, não apenas sua acurácia. Essa proposta se alinha a esforços de desenvolver IA mais confiável e segura, especialmente em contextos de alto risco.