Ali lahko AI imajo pristranskosti?

Avtor: Laura McKinney
Datum Ustvarjanja: 5 April 2021
Datum Posodobitve: 26 Junij 2024
Anonim
Хашлама в казане на костре! Многовековой рецепт от Шефа!
Video.: Хашлама в казане на костре! Многовековой рецепт от Шефа!

Vsebina


Odvzem:

V zadnjih letih je AI vse bolj sprejeta in uporabljena za vse, od ocenjevanja lepote do ocene nevarnosti recidivizma. S tem je tudi v več primerih podprl standarde, ki podpirajo pristranskost in diskriminacijo.

Napredek tehnologije lahko resnično demokratizira dostop do informacij in priložnosti. Vendar pa se v nekaterih primerih uporablja na načine, ki krepijo predstavo, da so v naši družbi nekateri bolj enaki kot drugi.

To smo videli od naslednjih sedmih primerov, v katerih se umetna inteligenca (AI) namenoma uporablja za izključitev določenih kategorij ali v kateri preprosto odraža pristranskost, ki jo vgrajujejo njeni človeški programerji, z diskriminatornim učinkom.

AI Beauty pristranskosti

Lepota je morda v očeh gledalcev, toda ko lahko ta subjektivni pogled sprogramira AI, imate v programu pristranskost. Rachel Thomas je poročala o eni taki epizodi na lepotnem tekmovanju beauty.ai leta 2016. Rezultati so pokazali, da so svetlejše polti ocenjene kot privlačnejše od temnih.


Naslednje leto je FaceApp, ki uporablja nevronske mreže za ustvarjanje filtrov za fotografije, ustvaril "filter za vročino", ki je osvetlil kožo ljudi in jim dal več evropskih značilnosti. "

Spolna pristranskost v jezikih

Thomas navaja tudi dokumentiran primer prevodov, ki prenašajo stereotipna pričakovanja glede kariere. Izhodišče sta dva stavka: "Ona je zdravnica. On je medicinska sestra."

Če jih nato prevedete v turščino in nazaj v angleščino, bi dobili rezultate, ki bi jih pričakovali od telefonske igre.

Namesto, da bi začeli tisto, s čimer ste začeli, boste v petdesetih letih dobili nekako pričakovanje, "On je zdravnik. Ona je medicinska sestra." Pojasnjuje, da je to posledica nevtralnega zaimka ednine v turškem jeziku, ki bo spolu dodeljeval na podlagi pričakovanj in stereotipnih pristranskosti. (Preberite Ženske v AI: Okrepitev seksizma in stereotipov s tehniko.)

Medtem ko rasna in spolna pristranskost, ki filtrira v slike in jezik, povzroča ogorčenje, ni povsem enaka stvar aktivne diskriminacije zaradi AI, vendar se je to tudi zgodilo.


Njegov dokaz je bil posnetek zaslona omejitev za oglas v kategoriji stanovanjskih kategorij, ki je omogočil možnost zoženja občinstva s preverjanjem izključitev kategorij, kot so afroameriški, azijsko ameriški ali latinoamerikanci. Oglas si lahko ogledate tukaj.

Kot poudarja ProPublica, je diskriminatorni učinek takih oglasov nezakonit tako po Zakonu o pravičnem stanovanju iz leta 1968 kot tudi o zakonu o državljanskih pravicah iz leta 1964. Edina obramba v tem primeru je bila, da oglas ni bil sam za stanovanje, kot ni bilo. " t o nepremičnini ali domu za prodajo ali najem.

Vendar pa je bilo tudi drugih primerov ciljanja, ki kažejo na rasno pristranskost in so motivirali različne subjekte, da vložijo civilne tožbe proti družbenemu omrežju. Kot je poročal Wired, se je marca 2019 končno odločil, da bo prilagodil svojo tehnologijo za ciljanje oglasov, ki je nastala zaradi poravnave petih pravnih primerov, zaradi katerih je z oglasi omogočila diskriminacijo manjšin z oglasi.

ACLU je v svojem poročilu o poravnavi poudaril, kako zahrbtni so lahko takšni ciljni oglasi, saj se manjšine in ženske morda niti ne zavedajo, da nimajo enakega dostopa do informacij, stanovanja in zaposlitvenih možnosti, ki jih delijo z belci.

Ko se vse več ljudi obrne na internet, da bi poiskalo zaposlitev, stanovanja in posojila, obstaja resnično tveganje, da bo ciljanje oglasov ponovilo in celo poslabšalo obstoječe rasne in spolne pristranskosti v družbi. Predstavljajte si, če se delodajalec odloči, da bo oglase za inženirska opravila prikazoval samo moškim - uporabniki, ki niso identificirani kot moški, ne bodo nikoli videli teh oglasov, tudi ne bodo vedeli, kaj so zamudili.

Navsezadnje imamo redko način prepoznavanja oglasov, ki jih v spletu ne vidimo. Da je ta diskriminacija za izključenega uporabnika nevidna, je vse težje ustaviti.

2. Spolna in starostna diskriminacija pri delovnih mestih

Med pravnimi primeri je bila nezakonita diskriminacija stanovanj, katerih ciljno dovoljenje je dovoljeno. ProPublica je v svojem poročilu o poravnavi dejal, da je preizkusil platformo in uspel kupiti "oglase, povezane s stanovanjem, za izključene skupine, kot so Afroameričani in Judje, in je že prej našel oglase za zaposlitev, razen uporabnikov po starosti in spolu, ki jih postavljajo podjetja to so imena gospodinjstev. "

Številni oglasi za zaposlitev, ki jih je ugotovil ACLU, so bili izrecno namenjeni samo moškim v določenem starostnem obdobju, saj so uporabniki lahko našli, ko so kliknili odgovor, zakaj jim je bil prikazan določen oglas, predstavljeni v drugem članku o žičnikih. ACLU je vložil tožbo pri Komisiji za enake možnosti zaposlovanja proti socialnemu omrežju in podjetjem, ki so oglaševale, z utemeljitvijo, da kršijo tako delovno kot državljansko zakonodajo.

Diskriminacija najema ljudi, starejših od 40 let, krši zvezni zakon o diskriminaciji glede zaposlovanja (ADEA). Toda platforma omogoča ciljanje oglasov za zaposlitev samo na osebe, mlajše od teh let.

ProPublica je poudaril, da se je v enem od poročil osredotočil na to, kateri oglasi za delovna mesta so izkoristili to nezakonito obliko izključitve glede na starost. Med imena gospodinjstev so med drugim Verizon, UPS, Uber, Target, Statefarm, Severozahodni Vzajemni, Microsoft, J Street, HusbSpot, IKEA, Sklad za javni interes, Goldman Sach, OpenWorks in sama, med drugimi.

Prepoznavanje obraza ni uspelo

"Prepoznavanje obraza je natančno, če ste beli tip", je objavil naslov članka New York Timesa, objavljenega februarja 2018. Navajal je rezultate, ki so pokazali jasno povezavo med tonom kože in napačno identifikacijo:

"Temnejša koža je več napak - do skoraj 35% pri slikah temnopoltih žensk, kaže nova študija, ki razbije sveže podlage z merjenjem, kako tehnologija deluje na ljudi različnih ras in spola."

Ugotovitve so zaslužne Joyju Buolamwiniju, raziskovalcu v MIT Media Lab in ustanovitelju Algoritmične pravične lige (AJL). Njeno področje raziskav je pristranskost, ki temelji na AI, kar ima za posledico tako izkrivljene rezultate, ko gre za prepoznavanje obrazov, ki ne ustrezajo belim moškim, določenim za model.

Buolamwini je v pogovoru o TED za leto 2017 predstavil problem rasne in spolne pristranosti za prepoznavanje obraza, na katerega se je skliceval na svoje zgodnje leto 2018 v videoposnetku The Gender Shades Project iz laboratorija MIT:

<

V opisu videoposnetka je zapisano, da bo puščanje pristranskosti AI brez nadzora, "bo pohabilo starost avtomatizacije in še poslabšalo neenakost, če se pusti gnjaviti." Tveganja niso nič drugega kot "izguba dobičkov, ki jih prinaša gibanje za državljanske pravice in gibanje žensk pod lažno predpostavko o strojni nevtralnosti."

V opisu videoposnetka je dodano opozorilo, ki so ga opozorili številni drugi, kot smo videli v filmu Ženske v AI: Okrepitev seksizma in stereotipov s tehniko: "Avtomatski sistemi niso sami po sebi nevtralni. Odsevajo prednostne naloge, želje in predsodke - kodirano pogled - tistih, ki imajo moč oblikovati umetno inteligenco. "

25. januarja 2019 je Buolamnwini objavila medijsko objavo, ki se je opirala na lastne raziskave in raziskave dodatnih raziskovalcev, ki opozarjajo, kako napake AI povzročajo napake v Amazonovem ponovnem vžigu in zahtevajo, da podjetje preneha prodajati storitev AI policijskim oddelkom.

Medtem ko se je Rekognation lahko pohvalil s 100-odstotno natančnostjo za prepoznavanje svetlolasih samcev in 98,7-odstotno natančnostjo tudi pri temnejših samcih, se je pri lažjih samicah natančnost znižala na 92,9%. Še bolj odmeven je bil močan padec na samo 68,6% natančnost za temnejše samice.

Ampak Amazon se je zavrnil. Članek Venture Beat je citiral izjavo dr. Matt Wood-a, generalnega direktorja poglobljenega učenja in AI na AWS, v kateri je vztrajal, da ugotovitve raziskovalcev ne odražajo, kako se AI dejansko uporablja, in pojasnil:

„Analiza obraza in prepoznavanje obraza sta popolnoma različni glede na osnovno tehnologijo in podatke, ki se uporabljajo za njihovo usposabljanje. Poskus uporabe obrazne analize za merjenje natančnosti prepoznavanja obraza je slabo priporočljiv, saj to ni predvideni algoritem v ta namen. "

Vendar niso samo tisti, ki so povezani z velikimi raziskovalnimi centri, za katere so algoritmi ugotovili, da so zelo problematični. Po poročilu Gizmodo je ACLU izvedel lasten test z najbolj sprejemljivimi stroški 12,33 dolarja. Ugotovljeno je bilo, da se je Rekognacija s fotografijami kriminalcev ujemala z 28 člani kongresa.

"Lažne identifikacije so bile izvedene, ko je ACLU v Severni Kaliforniji zadolžil Rekognacijo in primerjal fotografije vseh 535 članov kongresa proti 25.000 javno dostopnim slikam.

Ker je bilo 11 od 28 ljudi barvnih ljudi, je zanje to pomenilo 39-odstotno stopnjo napak. V nasprotju s tem je bila stopnja napake kot celote sprejemljivejša 5%. Šest članov kongresnega črnega kavkusa, ki so bili med tistimi, ki so bili povezani z rekonstrukcijo, so v odprtem pismu izvršnemu direktorju Amazona izrazili zaskrbljenost.

Recidivizem pristranskosti

Predsodki, vgrajeni v AI proti barvnim ljudem, postanejo resnejši problem, ko pomeni več kot zgolj napako pri prepoznavanju. To je bila ugotovitev druge preiskave ProPublica leta 2016. Posledice takšnih pristranskosti niso nič drugega kot svoboda posameznika, skupaj z ignoriranjem resničnega tveganja osebe, katere barvo kože favorizira algoritem.

Članek se je nanašal na dva vzporedna primera, v katerih sta vpletena en beli storilec in en črni. Za napovedovanje, kateri od njih bo znova kršil zakon, je bil uporabljen algoritem. Črni je bil ocenjen z visokim tveganjem, beli pa z nizkim tveganjem.

Napoved se je povsem zmotila in belca, ki je šel na prosto, so morali znova zaprti. To je izredno problematično, ker se sodišča pri odločanju o pogojnem odpustu zanašajo na točkovanje, kar pomeni, da rasna pristranskost, ki se upošteva v programu, pomeni neenako obravnavanje po zakonu.

ProPublica je algoritem postavil na lastni test in primerjal ocene tveganj za več kot 7000 ljudi, aretiranih v okrožju Broward na Floridi v letih 2013 in 2014, s številko, ki je v naslednjih dveh letih zoper njih vložila nove kazenske ovadbe.

Ugotovili so, da se je uresničilo le 20% napovedi za ponavljanje nasilnih kaznivih dejanj, več manjših kaznivih dejanj pa se je zgodilo le za 61% tistih, ki so pokazali tveganje.

Pravi problem ni le pomanjkanje natančnosti, ampak tudi rasna pristranskost:

  • Formula je še posebej verjetno črno obtožila črne obtožence kot bodoče zločince in jih na ta način napačno označila za skoraj dvakrat več kot bele obtožene.
  • Beli obtoženci so bili označeni kot nizko tvegani pogosteje kot črni obtoženci.

V bistvu je to število napak 45% za temnopolte in 24% za belce. Kljub tej grozljivi statistiki je Thomas poročal, da vrhovno sodišče v Wisconsinu še vedno podpira uporabo tega algoritma. Podrobno opisuje tudi druge težave, povezane z algoritmi recidivizma.