A aplicação da inteligência artificial (IA) está a crescer rapidamente e torna-se cada vez mais integrada na nossa vida quotidiana e em indústrias de elevado risco, como saúde, telecomunicações e energia. Mas a maior capacidade traz também maior responsabilidade: os sistemas de IA por vezes cometem erros ou apresentam respostas incertas que podem ter consequências graves.
Themis AI do MIT, cofundada e liderada pela professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A tecnologia deles permite que os modelos de IA «saibam aquilo que não sabem». Isto significa que os sistemas de IA podem indicar quando estão incertos acerca das suas previsões, evitando-se assim erros antes que causem danos.
Porque é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem ocasionalmente apresentar as chamadas «alucinações» — fornecem respostas erradas ou sem fundamento. Em setores onde as decisões têm grande peso, como no diagnóstico médico ou na condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu o Capsa, uma plataforma que aplica quantificação da incerteza: mede e quantifica a incerteza das saídas de IA de forma detalhada e fiável.
Como funciona?
Ao dotar os modelos de consciência da incerteza, estes podem fornecer saídas com um rótulo de risco ou de confiança. Por exemplo: um carro autónomo pode indicar que não tem certeza sobre uma situação e, por isso, ativar uma intervenção humana. Isso aumenta não só a segurança, como também a confiança dos utilizadores nos sistemas de IA.
capsa_torch.wrapper() em que a saída consiste tanto na previsão como no risco:

Conclusão
O MIT equipa mostra que o futuro da IA não se resume apenas a ficar mais inteligente, mas sobretudo a funcionar de forma mais segura e justa. Na Fortis AI acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente quanto às suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza, como a Capsa, pode concretizar essa visão na prática.