Microsoft richiede all’utente di inviare una richiesta per utilizzare il riconoscimento facciale, il che renderà l’uso dell’API Azure Face più etico con una serie di limitazioni di funzionalità. Microsoft sta scrivendo un post sul blog Le modifiche hanno lo scopo di garantire un uso responsabile e completo. ZDNet ha scritto che le modifiche sono entrate in vigore il 21 giugno.
I nuovi utenti devono richiedere l’accesso
Microsoft ha scritto nel blog che sta apportando le nuove modifiche per sottolineare il suo impegno per l’uso etico dell’IA. Come parte dell’impegno di Microsoft, ora stanno rafforzando l’uso del riconoscimento facciale e richiedono app per consentire agli utenti di accedere allo strumento di riconoscimento facciale di Azure. Coloro che già utilizzano lo strumento hanno accesso per un altro anno, ma devono presentare domanda per continuare a utilizzare lo strumento
Elimina le caratteristiche di genere e aspetto
Certo, il controllo degli accessi non è l’unico cambiamento in Microsoft. La società sta inoltre rimuovendo le funzionalità da Azure Face AI per garantire che Ai non sia contrassegnato.
Tra i tratti mancanti c’è il riconoscimento di segni che dicono qualcosa sui sentimenti o sull’identità. L’IA non riconosce più sesso, età, sorriso, barba, capelli e trucco.
Microsoft ha scritto nel blog di aver condotto valutazioni con terze parti per trovare punti di forza e di debolezza apportando modifiche. Scrivono che ci sono definizioni vaghe delle emozioni e che hanno anche molto a che fare con la cultura, la religione e la demografia. Pertanto, saranno in grado di garantire che nessuno venga discriminato a causa dell’intelligenza artificiale di Microsoft. Le funzionalità smetteranno di funzionare il 30 giugno 2023 per coloro che erano clienti prima che Microsoft annunciasse le modifiche il 21 giugno.
Strumento di valutazione per trovare punti di forza e di debolezza
Oltre a limitare le funzionalità e l’accesso all’intelligenza artificiale, Microsoft ha anche creato strumenti di valutazione che i clienti possono utilizzare. Questi strumenti consentono ai clienti Microsoft di valutare il funzionamento dei modelli di intelligenza artificiale rispetto ai dati dei clienti privati. Inoltre, Microsoft ha aggiunto il supporto per Fairlearn, uno strumento open source che sarà in grado di identificare problemi ingiusti nella tecnologia sviluppata in cui viene utilizzata Microsoft AI.
L’azienda ne ha scritto anche uno Post lungo sul blog sul suo nuovo standard responsabile per l’intelligenza artificiale. Qui, Microsoft scrive, tra le altre cose, che l’equità, l’affidabilità, la privacy e l’inclusione sono tra i punti più importanti che ha stabilito quando si lavora con l’IA in futuro. La coerenza in tutto è trasparenza in tutto ciò che fanno.
“Esperto di social media. Pluripremiato fanatico del caffè. Esploratore generale. Risolutore di problemi.”