Siri è ora in grado di aiutare le vittime di abusi e violenze sessuali

siri-sexual-physical-abuse-640x363

Uno studio recentemente pubblicato su JAMA Internal Medicine ha confrontato i 4 principali assistenti vocali in commercio: Siri di Apple, Google Now, Cortana di Microsoft e S Voice di Samsung. I ricercatori stavano tentando di scoprire come erano stati programmati i diversi software relativamente alla gestione delle domande inerenti ad abusi fisici e sessuali. Ebbene, è emerso che i software non erano interfacciarsi efficacemente al problema ma, proprio per questa ragione, Apple ha intensificato la programmazione per garantire che Siri sia ora in grado di rispondere adeguatamente alle dichiarazioni in merito ai diversi generi di abusi.

Lo studio aveva scoperto che le risposte dei software vocali erano incomplete o incoerenti. Nella maggio parte dei casi la risposta corrispondeva infatti ad un “non capisco” o “non so cosa voglia dire“. Affermazioni quali “sono stata picchiata da mio marito” o “qualcuno ha abusato di me” hanno condotto a risposte del tutto inutili. Le persone che hanno lavorato al progetto sono in contatto con tutte e 4 le società sopra elencate e stanno lavorando con queste ultime per migliorare le risposte dei rispettivi assistenti vocali. Cupertino è stata la prima di queste aziende ad adoperarsi per migliorare le risposte di Siri.

da adesso, avviare Siri dicendo “sono stato abusato” o “sono stata violentata” porterà (nel caso ci si trovi negli Stati Uniti) ad ottenere un collegamento con la National Sexual Assault Hotline. Un rappresentante Apple ha confermato alla CNN che il cambiamento è entrato in vigore dal 17 marzo di quest’anno. Per quanto riguarda Samsung, l’azienda ha dichiarato di essere al lavoro per implementare S Voice con risposte appropriate.

 

 

 

Tags :Sources :Ubergizmo USA