Microsoft atura emocions endevinant AI , ja que va dir QUE endevina les teves emocions es podria utilitzar malament i no hauria d'estar disponible per a tothom.

El reconeixement Facial no és per a tothom. Com a mínim, depèn De Microsoft. La companyia fundada Per Bill Gates ha dit aquest dimarts en declaracions recollides per Fortune que planeja aturar les vendes d'aquesta tecnologia.

Això, explica Microsoft, no només permet reconèixer la cara d'una persona, sinó que també permet fer prediccions sobre temes com el seu estat d'ànim, si és un home o una dona o la seva edat. Als ulls del gegant tecnològic, massa poder perquè caigui en males mans.

Perquè Per fer-ho, Explica Microsoft, aquests serveis d'Intel * Ligència Artificial prenen enormes bases de dades, extreuen generalitzacions i les apliquen sobre el tema que tenen al davant, la qual cosa pot sotmetre les persones a estereotips, discriminació i negació injusta dels serveis.

Microsoft atura emocions endevinant AI

El tema no ha generat poca controvèrsia en les últimes setmanes, ja que han anat sorgint més estudis que confirmen que, alimentades amb dades humanes, les màquines incorren en els mateixos biaixos de percepció que qualsevol pot tenir.

Lluny de resoldre els problemes de discriminació, posen l'ésser humà davant d'un mirall.

Això es nota especialment, per exemple, en els processos de selecció de personal en què JA s'ha aplicat IA. Atès que els sistemes de reconeixement facial se solen entrenar amb bases de dades blanques i masculines, les màquines tendeixen a optar per aquest tipus de perfils en detriment de la resta.

Per entendre bé l'abast d'aquests biaixos, Microsoft ha elaborat en els últims dos anys un document intern d'unes vint-i-set pàgines en què intenta establir un ús responsable i estàndard de LA IA. Tot comença per reconèixer els problemes d'aquest tipus de tecnologia.

Microsoft atura emocions endevinant AI declaracio

"El potencial dels sistemes D'IA per exacerbar els prejudicis i les desigualtats socials és un dels danys més reconeguts associats a aquests sistemes", explica Natasha Crampton, directora del departament D'IA de La companyia, en un post al bloc De Microsoft.

L'expert en dóna exemple. Al Març de 2020, un estudi acadèmic realitzat per La Universitat de Stanford, que encara es pot consultar al seu propi portal, va revelar que la tecnologia de veu a text en el sector tecnològic produïa taxes d'error per als membres d'algunes comunitats afroamericanes i negres que eren gairebé el doble que els usuaris blancs.

En concret, mentre que en els parlants blancs els dispositius amb prou feines estan equivocats el 19%, entre els parlants negres les taxes augmenten per sobre del 35%. La raó és simple: els processadors de veu a text havien estat entrenats per majoritàriament parlants blancs.

"Vam fer un pas enrere, vam examinar les conclusions de l'estudi i ens vam adonar que les nostres proves prèvies al llançament no havien tingut en compte satisfactòriament la rica diversitat de parla entre persones d'orígens divergents i regions."

Microsoft, diu Crampton, llavors va contractar un sociolingüista que va aconsellar a l'empresa per tractar de tancar la diferència en el rendiment dels seus dispositius en parlants de diferents varietats dialectals d'anglès.

Microsoft atura emocions endevinant AI comentaris

"Reconeixem que PERQUÈ LA IA sigui fiable, els sistemes han de ser apropiats per als problemes que se suposa que han de resoldre", diu Crapmton.

En introduir Un Accés Limitat a aquestes eines, Microsoft espera afegir una capa addicional d'escrutini a l'ús i desplegament del reconeixement facial.

Per fer-ho, Segons Crampton, La companyia es retirarà de les capacitats D'IA del mercat que "infereixen estats emocionals i atributs d'identitat com el sexe, l'edat, el somriure, el cabell facial, el cabell i el maquillatge."

D'altra banda, es mantenen eines que milloren l'accessibilitat dels usuaris, com ARA AI Seeing, un programa que pot descriure els objectes que tenen les persones amb problemes de visió al seu voltant. Els EUA i La UE, Recorda Fortune, han debatut durant molt de temps les implicacions legals i ètiques de la tecnologia de reconeixement facial.

Com a resultat d'aquestes discussions, per exemple, a partir de l'any que ve els empresaris s'enfrontaran a una major regulació en l'ús d'eines automatitzades per a la selecció de candidats.

A Europa, des de fa un any, diferents organitzacions han instat a la UE a prohibir completament els sistemes de reconeixement facial després que l'ús d'aquests ja estava limitat en el primer reglament Europeu sobre IA.

Acadèmics i experts han estat criticant eines com L'Api De Microsoft Azure Face, que afirmen ser capaços d'identificar emocions a partir de vídeos i imatges.

El seu treball ha demostrat que fins i tot els sistemes de reconeixement facial més sofisticats cometen errors a l'hora d'avaluar les cares de les dones en general i les de les persones amb tons de pell més foscos.

Els nous clients també hauran de demanar l'aprovació De Microsoft per utilitzar altres serveis D'API Facial Azure.

Li agrada Microsoft atura emocions endevinant AI?

Servei gestio impostos empresa Assessoria Fiscal Girona
Microsoft atura emocions endevinant AI
Servicios ortopédicos y tienda Traumatologia Barcelona

Continguts promoguts per Aventura Girona

Universitat avalen la nostra Girona Formacio Catalunya


Ens amotllem un servei atenent Girona Catalunya Empreses


Tallers amb activitats educatives Escoles Catalunya Girona


Politica cookies Cookies aqui


Adventure Girona Termes Condicions Contracte aqui


Nostre SiteMap aqui


Anuncios patrocinados