L’intelligenza artificiale non è immune agli stereotipi di genere che permeano il mondo reale. Molti sistemi di IA vengono addestrati su grandi quantità di dati storici, che possono involontariamente assorbire e perpetuare pregiudizi esistenti. Ad esempio, può capitare che il riconoscimento vocale sia più efficiente nel rispondere a voci maschili, perché è stato “allenato” con quel genere di voci. Nei sistemi di generazione artificiale di immagini succede che vengano generate immagini di uomini tutti molto simili fra loro.
Uno studio del MIT Media Lab a Boston ha dimostrato che alcuni algoritmi di riconoscimento facciale hanno tassi di errore significativamente più alti nell’individuare volti femminili con pelle scura rispetto a volti maschili con pelle chiara. Questa distorsione deriva dal fatto che i dati di addestramento utilizzati per sviluppare questi algoritmi spesso non sono rappresentativi della diversità della popolazione globale. Se i dataset contengono una predominanza di immagini di persone bianche, l’algoritmo finirà per essere meno accurato nel riconoscere volti che non rientrano in questa categoria. Per contrastare questo fenomeno, è essenziale che i progettisti di IA adottino un approccio consapevole e inclusivo, monitorando e correggendo i bias nei loro modelli e nei database di addestramento.
Utilizziamo i cookies.