XAI Trasparenza degli algoritmi
Aree / Gruppi di ricerca
Partecipanti al progetto
- Pisano Paola (Responsabile)
- Tagliapietra Marco (Dottorando)
- Macis Luca (Dottorando)
Descrizione del progetto
Il progetto ha l'obiettivo di individuare e testare nuove metodologie che rendano più trasparenti gli algoritmi utilizzati nel campo dell'AI.
L'Intelligenza Artificiale Spiegabile (Explainable Artificial Intelligence, XAI) è un campo sempre più importante e in evoluzione nell'ambito della Data Science, per rendere i processi decisionali dell'IA e dei modelli di apprendimento automatico più trasparenti, interpretabili e comprensibili. Man mano che i sistemi di IA diventano più complessi e integrati in vari aspetti della nostra vita e nelle attività delle aziende aumenta l'esigenza di XAI per migliorare la fiducia degli utenti e l'affidabilità dei sistemi.
Per questo motivo è stato analizzato e utilizzato il Gradient Descendent, tecnica di ottimizzazione utilizzata nell'apprendimento automatico per mettere a punto i parametri dei modelli di intelligenza artificiale, apportandone piccoli aggiustamenti e riducendone così gli errori di previsione, migliorando l'accuratezza del modello.
Inoltre, l'utilizzo della discesa del gradiente può essere monitorato e analizzato per rilevare eventuali problemi o bias nel processo di apprendimento automatico. In sintesi, la discesa del gradiente non solo contribuisce a migliorare l'accuratezza dei modelli di intelligenza artificiale, ma fornisce anche un mezzo per esplorare e spiegare come questi prendono le decisioni, contribuendo così agli obiettivi di XAI di rendere l'IA più trasparente e interpretabile per gli esseri umani.
Collaborazioni: Intesa SanPaolo, Notre Dame University, Unesco.