Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika nasze życie codzienne oraz branże o wysokiej odpowiedzialności, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak wielka moc pociąga za sobą także wielką odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, które mogą mieć poważne konsekwencje.
Themis AI z MIT, współzałożone i kierowane przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI potrafią same sygnalizować, kiedy są niepewne swoich przewidywań, co pozwala zapobiegać błędom zanim wyrządzają szkody.
Dlaczego to jest tak ważne?
Wiele modeli AI, nawet zaawansowanych, czasami wykazuje tzw. „halucynacje” — udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają dużą wagę, takich jak diagnoza medyczna czy jazda autonomiczna, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyjścia AI w sposób szczegółowy i niezawodny.
Jak to działa?
Ucząc modele świadomości niepewności, można oznaczać ich wyniki etykietą ryzyka lub wiarygodności. Na przykład samochód autonomiczny może wskazać, że nie jest pewny sytuacji i w związku z tym aktywować ingerencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale też zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wyjście składa się zarówno z przewidywania, jak i z ryzyka:

Wniosek
MIT zespół pokazuje, że przyszłość AI to nie tylko bycie coraz mądrzejszym, ale przede wszystkim działanie w sposób bezpieczniejszy i sprawiedliwszy. W Fortis AI wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, tę wizję można wdrożyć także w praktyce.