Discriminacio IA afecta vida quotidiana. NO, LA IA capaç de sentir d'una manera humana no existeix, però les màquines capaces de trobar noves maneres de discriminar-te ja són aquí i afecten la teva vida quotidiana.
En primer lloc, la bona notícia: LA IA capaç de tenir sentiments no és ni tan sols propera. Ara, la trista notícia: LA IA té molts problemes molt més urgents.
L'avís ve arran d'una història sobre UNA IA sensible que s'ha fet viral recentment.
L'enginyer De Google Lemoine, que no fa gaire ha parlat que creu que Un chatbot d'empresa Anomenat LaMDA (Language Model for Dialogue Applications) ha assolit una certa capacitat per albergar sentiments.
Discriminacio IA afecta vida quotidiana
No obstant això, set experts DE LA IA que han parlat amb El periodista han estat unànimes en rebutjar La teoria De Lemoine que LaMDA és un ésser conscient. Entre ells hi ha Un empleat De Google que ha treballat directament amb el chatbot.
NO obstant això, LA IA no ha de ser intel * ligent per causar danys greus, afirmen aquests mateixos especialistes.
El biaix DE LA IA, per exemple, quan replica i amplifica les pràctiques històriques de discriminació humana, és un problema que ja està molt ben documentat.
S'ha descobert, per exemple, que els sistemes de reconeixement facial mostren biaixos racials i de gènere, I El 2018 Amazon va tancar una eina DE CONTRACTACIÓ D'IA que havia desenvolupat perquè discriminava sistemàticament a les dones.
Discriminacio IA afecta vida quotidiana relevat
"Quan els algoritmes predictius O ELS anomenats AI s'utilitzen tan àmpliament, pot ser difícil reconèixer que aquestes prediccions sovint es basen en poc més que la ràpida regurgitació de creences generalitzades, estereotips o mentides", diu Stefflbauer, ethicista D'IA i CEO de La xarxa Frauenloop.
"Pot ser divertit especular sobre com de sensible sembla ser l'autogeneració de cadenes de paraules històricament correlacionades, però és un exercici insincre quan, ara mateix, les prediccions algorísmiques exclouen injustament, estereotipen i ataquen individus i comunitats basant-se en dades extretes de, per exemple, Reddit", diu El periodista.
La Professora Sandra, de La Universitat D'Oxford, va detallar en un article recent que LA IA no només mostra prejudicis sobre raça i gènere, sinó que també troba noves maneres de categoritzar i discriminar les persones.
Per exemple, el navegador utilitzat per demanar feina pot fer que els sistemes DE contractació D'IA afavoreixin o rebutgin la vostra aplicació.
Discriminacio IA afecta vida quotidiana preocupacions
La seva preocupació és la manca d'un marc legal que impedeixi A LA IA trobar aquestes noves formes de discriminació.
"SABEM que LA IA recull patrons injustos en la contractació, el préstec o la justícia penal i els mou cap al futur. PERÒ LA IA també crea nous grups que no estan protegits per la llei per prendre decisions importants", va dir.
"Aquestes qüestions necessiten respostes urgents. Abordem aquests PRIMERS i ens preocupem per LA ia sensible quan estem molt a prop de creuar Aquest Rubicó", afegeix.
Laura Edelson, investigadora en informàtica de la UNIVERSITAT Novaiorquesa, diu que ELS SISTEMES D'IA també ofereixen una resposta fàcil per a aquells que els utilitzen de manera discriminatòria.
Un cas freqüent amb els sistemes d'aprenentatge automàtic és que et permeten prendre una decisió que no vols prendre amb l'argument de:" No sóc jo, és el sistema", explica.
Stefflbauer creu que les expectatives que giren al VOLTANT de la IA sensible eclipsen de manera decisiva els problemes més urgents al voltant del biaix D'IA.
"Estem interrompent el treball d'investigadors d'ÈTICA de LA IA de classe mundial que han de passar tot el dia desacreditant aquestes històries sobre la suposada capacitat de sentir de les màquines. Ho fan a costa que no hi hagi temps ni atenció mediàtica per als problemes que tenen els sistemes predictius."
