MIT doet onderzoek om AI slimmer te maken

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika nasze życie codzienne oraz branże o wysokiej odpowiedzialności, takie jak opieka zdrowotna, telekomunikacja i energetyka. Jednak wielka moc pociąga za sobą także wielką odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, które mogą mieć poważne konsekwencje.

Themis AI z MIT, współzałożone i kierowane przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia pozwala modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI potrafią same sygnalizować, kiedy są niepewne swoich przewidywań, co pozwala zapobiegać błędom zanim wyrządzają szkody.

Dlaczego to jest tak ważne?
Wiele modeli AI, nawet zaawansowanych, czasami wykazuje tzw. „halucynacje” — udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, w których decyzje mają dużą wagę, takich jak diagnoza medyczna czy jazda autonomiczna, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę stosującą kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyjścia AI w sposób szczegółowy i niezawodny.

 Jak to działa?
Ucząc modele świadomości niepewności, można oznaczać ich wyniki etykietą ryzyka lub wiarygodności. Na przykład samochód autonomiczny może wskazać, że nie jest pewny sytuacji i w związku z tym aktywować ingerencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale też zaufanie użytkowników do systemów AI.

Przykłady technicznej implementacji

  • Przy integracji z PyTorch owinięcie (wrapping) modelu odbywa się przez capsa_torch.wrapper() gdzie wyjście składa się zarówno z przewidywania, jak i z ryzyka:

Python example met capsa

Dla modeli TensorFlow Capsa działa z dekoratorem:

tensorflow

Wpływ dla firm i użytkowników
Dla Fortis AI i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać rozwiązania AI, które są nie tylko inteligentne, lecz także bezpieczniejsze i bardziej przewidywalne, z mniejszym ryzykiem wystąpienia halucynacji. To pomaga organizacjom podejmować lepiej uzasadnione decyzje i zmniejszać ryzyko przy wdrażaniu AI w krytycznych dla działalności aplikacjach.

Wniosek
MIT zespół pokazuje, że przyszłość AI to nie tylko bycie coraz mądrzejszym, ale przede wszystkim działanie w sposób bezpieczniejszy i sprawiedliwszy. W Fortis AI wierzymy, że AI staje się naprawdę wartościowa dopiero wtedy, gdy jest przejrzysta co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, tę wizję można wdrożyć także w praktyce.

Gerard

Gerard działa jako konsultant ds. AI i menedżer. Mając duże doświadczenie w dużych organizacjach, potrafi bardzo szybko rozwiązać problem i doprowadzić do rozwiązania. W połączeniu z wykształceniem ekonomicznym zapewnia podejmowanie uzasadnionych biznesowo decyzji.