L'applicazione dell'intelligenza artificiale (IA) è in rapida crescita e si sta sempre più intrecciando con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l'energia. Ma con grande potere deriva anche grande responsabilità: i sistemi di IA a volte commettono errori o forniscono risposte incerte che possono avere conseguenze significative.
Themis AI del MIT, co-fondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione rivoluzionaria. La loro tecnologia consente ai modelli di IA di “sapere ciò che non sanno”. Ciò significa che i sistemi di IA possono indicare autonomamente quando sono incerti sulle loro previsioni, consentendo di prevenire errori prima che causino danni.
Perché è così importante?
Molti modelli di IA, anche quelli avanzati, possono talvolta mostrare le cosiddette “allucinazioni”: forniscono risposte errate o infondate. In settori in cui le decisioni hanno un peso notevole, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza (uncertainty quantification): misura e quantifica l'incertezza dell'output dell'IA in modo dettagliato e affidabile.
Come funziona?
Dotando i modelli della consapevolezza dell'incertezza, è possibile fornire gli output con un'etichetta di rischio o affidabilità. Ad esempio: un'auto a guida autonoma può indicare di non essere sicura di una situazione e attivare di conseguenza un intervento umano. Ciò non solo aumenta la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.
capsa_torch.wrapper() dove l'output consiste sia nella previsione che nel rischio:

Conclusione
Il MIT squadra dimostra che il futuro dell'IA non riguarda solo il diventare più intelligenti, ma soprattutto il funzionare in modo più sicuro ed equo. Noi di Fortis AI crediamo che l'IA diventi veramente preziosa solo quando è trasparente riguardo ai propri limiti. Con strumenti avanzati di quantificazione dell'incertezza come Capsa, potete mettere in pratica anche questa visione.