Gli imbarazzanti errori del software di riconoscimento di Flickr

riconoscimento_facce_flickr

Sì, questo è decisamente strano. Pare che il sistema di riconoscimento delle immagini di Flickr stia commettendo una serie di imbarazzanti errori quando si tratta di riconoscere gli afroamericani e i campi di concentramento.
Secondo quanto riporta il Guardian, infatti, il nuovo algoritmo, che è stato progettato per taggare e poi filtrare le immagini in base ai contenuti, "si sta sbagliando frequentemente".

Il quotidiano riporta come un ritratto di un nero di nome William è stato taggato come “biancoenero” e “monocromo” oltre che come “animale” e “scimmia”: E anche la fotografia di un uomo bianco ha avuto lo stesso trattamento. In altri casi, le immagini di Dachau sono state taggate come “palestra” e “sport”, come anche quelle di Auschwitz.

Ma vale la pena sottolineare che questi errori sono neutrali e anche utili. Flickr usa un approccio “machine-learning” per identificare le immagini, confrontando nuove foto con quelle che sono state già identificate per tentare di classificare quello che mostrano. Il risultato è che a volte sbagliano, quindi è importante che gli utenti cancellino i tag inappropriati perché il software impari dai propri errori. In altre parole, impara più facilmente sbagliando e poi registrando le correzioni.
Quindi, sì, gli errori sono imbarazzanti, ma sono anche necessari per un futuro migliore di Flickr.

Tags :Sources :gizmodo usa