L'application de l'intelligence artificielle (IA) croît rapidement et s'entremêle de plus en plus avec notre vie quotidienne et les industries à enjeux élevés telles que la santé, les télécommunications et l'énergie. Mais avec un grand pouvoir vient une grande responsabilité : les systèmes d'IA commettent parfois des erreurs ou donnent des réponses incertaines qui peuvent avoir des conséquences majeures.
Themis AI du MIT, co-fondée et dirigée par la professeure Daniela Rus du laboratoire CSAIL, propose une solution révolutionnaire. Leur technologie permet aux modèles d'IA de « savoir ce qu'ils ne savent pas ». Cela signifie que les systèmes d'IA peuvent indiquer eux-mêmes lorsqu'ils sont incertains de leurs prédictions, permettant ainsi d'éviter les erreurs avant qu'elles ne causent des dommages.
Pourquoi est-ce si important ?
De nombreux modèles d'IA, même avancés, peuvent parfois présenter des « hallucinations »—ils fournissent des réponses erronées ou sans fondement. Dans les secteurs où les décisions sont lourdes de conséquences, comme le diagnostic médical ou la conduite autonome, cela peut avoir des effets désastreux. Themis AI a développé Capsa, une plateforme qui applique la quantification de l'incertitude : elle mesure et quantifie l'incertitude des résultats de l'IA de manière détaillée et fiable.
Comment ça marche ?
En dotant les modèles d'une conscience de l'incertitude, il est possible de fournir des résultats avec une étiquette de risque ou de fiabilité. Par exemple, une voiture autonome peut indiquer qu'elle n'est pas certaine d'une situation et activer en conséquence une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d'IA.
capsa_torch.wrapper() où la sortie se compose à la fois de la prédiction et du risque :

Conclusion
Le MIT équipe montre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez Fortis AI, nous croyons que l'IA ne devient vraiment précieuse que lorsqu'elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l'incertitude comme Capsa, vous pouvez également mettre cette vision en pratique.