A aplicação da inteligência artificial (IA) cresce rapidamente e está cada vez mais entrelaçada com a nossa vida quotidiana e indústrias de alto risco, como saúde, telecomunicações e energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA, por vezes, cometem erros ou fornecem respostas incertas que podem ter grandes consequências.
A Themis AI do MIT, cofundada e liderada pela professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “sabem o que não sabem”. Isto significa que os sistemas de IA podem indicar por si próprios quando estão incertos sobre as suas previsões, permitindo evitar erros antes que causem danos.
Por que isso é tão importante?
Muitos modelos de IA, mesmo os avançados, podem, por vezes, apresentar as chamadas “halucinações”—fornecem respostas incorretas ou infundadas. Em setores onde as decisões têm um peso significativo, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu a Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.
Como funciona?
Ao dotar os modelos de consciência de incerteza, é possível fornecer às suas saídas um rótulo de risco ou confiança. Por exemplo: um carro autônomo pode indicar que não está seguro sobre uma situação e, portanto, ativar uma intervenção humana. Isso não só aumenta a segurança, mas também a confiança dos usuários em sistemas de IA.
capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Conclusão
O MIT equipe mostra que o futuro da IA não se trata apenas de se tornar mais inteligente, mas principalmente de operar de forma mais segura e justa. Na Fortis AI, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, você também pode colocar essa visão em prática.