MIT doet onderzoek om AI slimmer te maken

Il team del MIT insegna ai modelli di IA ciò che ancora non sapevano.

L'applicazione dell'intelligenza artificiale (IA) cresce rapidamente e si intreccia sempre più con la nostra vita quotidiana e con settori ad alta criticità come sanità, telecomunicazioni ed energia. Ma a grande potenza corrisponde anche grande responsabilità: i sistemi di IA a volte commettono errori o forniscono risposte incerte che possono avere conseguenze significative.

Themis AI del MIT, cofondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione innovativa. La loro tecnologia permette ai modelli di IA di “sapere ciò che non sanno”. Ciò significa che i sistemi di IA possono indicare quando sono incerti riguardo alle loro previsioni, permettendo di prevenire errori prima che provochino danni.

Perché è così importante?
Molti modelli di IA, anche quelli avanzati, possono talvolta manifestare le cosiddette “allucinazioni” — forniscono risposte errate o infondate. In settori dove le decisioni sono critiche, come nella diagnosi medica o nella guida autonoma, questo può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza: misura e quantifica l'incertezza delle uscite dell'IA in modo dettagliato e affidabile.

 Come funziona?
Insegnando ai modelli la consapevolezza dell'incertezza, è possibile etichettare le uscite con un livello di rischio o di affidabilità. Per esempio: un'auto a guida autonoma può segnalare di non essere sicura su una situazione e quindi attivare un intervento umano. Questo aumenta non solo la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.

Esempi di implementazione tecnica

  • Nell'integrazione con PyTorch il wrapping del modello avviene tramite capsa_torch.wrapper() dove l'output consiste sia nella previsione sia nel rischio:

Python example met capsa

Per i modelli TensorFlow Capsa funziona con un decorator:

tensorflow

L'impatto per aziende e utenti
Per Fortis AI e i suoi clienti questa tecnologia rappresenta un enorme passo avanti. Possiamo fornire applicazioni di IA che non sono solo intelligenti, ma anche sicure e più prevedibili, con minore probabilità di generare allucinazioni. Aiuta le organizzazioni a prendere decisioni meglio fondate e a ridurre i rischi nell’introduzione dell’IA in applicazioni critiche per il business.

Conclusione
Il MIT team mostra che il futuro dell’IA non riguarda solo il diventare più intelligenti, ma soprattutto il funzionare in modo più sicuro e più equo. In Fortis AI crediamo che l’IA diventi veramente preziosa solo quando è trasparente riguardo ai propri limiti. Con strumenti avanzati di quantificazione dell’incertezza come Capsa, potete mettere in pratica questa visione.

Gerard

Gerard è attivo come consulente e manager nel campo dell'IA. Con molta esperienza presso grandi organizzazioni, è in grado di analizzare rapidamente un problema e procedere verso una soluzione. Unito a un background economico, garantisce decisioni commercialmente responsabili.