Facebook reclamacions AI detecta suprimeix odi violent missatges, però intern documents revelen que en realitat no treballar - Facebook sovint recorda que usa sistemes d'intel·ligència artificial per identificar i d'eliminar contingut amb el discurs de l'odi o la violència en la seva plataforma, però la tecnologia no realment funcionen segons documents interns revelat que El Wall Street Journal ha tingut accés.
L'empresa enginyers ja reconeixen que els sistemes automatitzats només han eliminat el contingut que han generat només el 2% de la plataforma d'incitació a l'odi i que ha violat la seva les normes de la comunitat, segons El Wall Street Journal en diumenge.
Un altre grup de treballadors va arribar a una conclusió similar: intel·ligència artificial només han eliminat les places que es genera entre el 3% i el 5% de la incitació a l'odi a la plataforma i només un 0,6% dels continguts que hauria d'haver violat la xarxa social pròpies regles.
El Wall Street Journal la informació d'aquest diumenge va ser el darrer capítol de Facebook de l'Arxiu, una sèrie de reportatges que demostren com el gegant de la tecnologia s'ha convertit en una sordesa de l'oïda a l'impacte dels serveis oferts als seus usuaris, de la salut mental de la més jove a la desinformació, el tràfic d'éssers humans, o la violència de les bandes.
L'empresa ha lamentat que aquests informes són "caricatura".
Facebook reclamacions AI detecta suprimeix odi violent missatges
La multinacional del CEO, Mark Zuckerberg, va argumentar que la firma de l'AI seria capaç de fer caure "la gran majoria de la problemàtica del contingut" per a l'any 2020, segons El Wall Street Journal. Facebook insisteix que la majoria de l'odi i la violència que la superfície sobre la plataforma s'elimina gràcies a la seva" super-eficient " intel·ligència artificial, fins i tot abans que els usuaris vegin el contingut.
Un informe de febrer d'aquest any de l'esmentat mitjà ha accedit abundaven que l'AI detecció proporció va ser del 97%.
Alguns grups, com ara els col·lectius en defensa dels drets civils o acadèmics investigadors, continuen essent escèptic, d'aquestes estadístiques facilitades per l'empresa, ja que aquestes xifres no són coincidint amb estudis externs.
"No anem a mostrar el seu treball," Rashad Robinson, el president del Color de Canvi, un activista de la plataforma, va lamentar a la wall street journal. "Els vam demanar. Quin és el numerador? Quin és el denominador? Com aconseguir aquestes xifres?".
Facebook és responsable de la Integritat, Guy Rosen, ha defensat en el Wall Street Journal explicant que els informes que el diari ha tingut accés per a no estaven actualitzats, i que l'empresa intel · ligència van influir en la determinació de que AI seria responsable de la moderació de continguts. També va fer notar que el discurs de l'odi és en general la disminució de la plataforma.
Facebook reclamacions AI detecta suprimeix odi violent missatges
Facebook, per la seva part, no ha fet les declaracions.
La Revista últimes troballes venir després antic treballador i filtre Frances Haugen va anar a l'ENS Capitol de la setmana passada per explicar que la xarxa social es fonamenta en AI i algorismes.
Ja que els algorismes de determinar el contingut que es mostra als usuaris assegurar-se la seva atenció, els missatges que sovint es mostren estan enfadats, polèmic i sensacional, i sovint inclouen la desinformació, Haugen va advertir llavors.
"Hem de tenir els programes que es desenvolupen a escala humana, on la gent pot tenir converses, més que no pas les màquines de decidir què anem a llegir," Haugen va dir en el seu discurs.
Facebook algorismes també sovint tenen problemes per determinar quina és la incitació a l'odi i el que és la violència, que permet a molts perjudicials publicacions i vídeos a quedar-se a la plataforma per massa temps.
Facebook reclamacions AI detecta suprimeix odi violent missatges
Facebook ha eliminat gairebé 6,7 milions d'aquests odi missatges, que responen a campanyes organitzades entre els mesos d'octubre i desembre de 2020. Moltes de les publicacions incloses òrgan de vendes, de la pornografia i la violència amb armes, segons El Wall Street Journal.
No obstant això, molts dels continguts que s'escapa del radar dels sistemes automatitzats d'incloure violents i contractació, vídeos, publicada i compartida per persones implicades en el criminal bandes, humans, el tràfic de drogues i cartells.