UN: Ženski digitalni asistenti povećavaju seksističke stereotipe

Amazonova Alexa, ilustracija

Popularni digitalni asistenti koji imaju ženske glasove i stilizirani su poput žena povećavaju seksističke stereotipe, stoji u novom izvještaju Ujedinjenih naroda.

Većina digitalnih asistenata, kao što su Appleova Siri, Amazonova Alexa i Microsftova Cortana su dizajnirane tako da budu ženstvene, od njihovih imena do glasova i ličnosti, stoji u studiji.

Asistenti su programirani tako da budu submisivni i servilni, što uključuje i pristojne odgovore na uvrede, što znači da učvršćuju rodne stereotipe i normaliziraju seksističko uznemiravanje, rekli su istraživači iz UNESCO-a.

Kao primjer, studija navodi da je Siri prethodno bila programirana da korisnicima koji je nazovu „kučkom“ odgovori „Zacrvenila bih se da mogu“.

„Sirina pokornost u slučaju rodnog zlostavljanja, i servilnost koju pokazuju brojni drugi digitalni asistenti koji su predstavljeni kao mlade žene, je moćna ilustracija rodnih stereotipe koji su ugrađeni u tehnološke proizvode“, stoji u izvještaju.

Apple, Amazon i Microsoft se još nisu oglasili.

Glasnogovornica Microsofta je prethodno rekla da je kompanija istraživala glasovne opcije za Cortanu i odlučila da „ženski glas najbolje odgovara našem cilju kreiranja digitalnog asistenta“.

Glasovni asistenti su brzo postali sastavni dio svakodnevnog života i trenutno se preko njih vrši skoro jedna petina svih internet pretraga, stoji u izvještaju.

Dok glasovna tehnologija dopire do sve više zajednica širom svijeta, feminizacija digitalnih asistenata može pospješiti ukorjenjivanje i širenje rodnih stereotipa.

„Svijet bi trebao obratiti više pažnje na kako, kada i da li su tehnologije umjetne inteligencije rodno obilježene i na to ko ih tako obilježava“, kazala je Saniye Gulser Corat, UNESCO-va direktorica za rodnu jednakost.

Izvještaj poziva kompanije da poduzmu mjere, koje uključuju to da digitalni asistenti ne budu automatski kreirani kao žene, kao i da počnu istraživati rodno neutralne opcije i asistente programirati tako da obeshrabre rodno zasnovane uvrede i uvredljivi jezik.

Tim kreativaca napravio je prvog rodno neutralnog glasovnog asistenta ranije ove godine, u pokušaju da se izbjegnu seksistički stereotipi.

Grupe za ženska prava pozdravile su UNESCO izvještaj, a glasnogovornica grupe Womankind, Maria Vlahakis, rekla je da je izvještaj posvetio „prijeko potrebnu pažnju“ temi rodnih stereotipa u algoritmima.

„Ovi algoritmi perpetuiraju rodne stereotipe i seksističko i mizogino ponašanje i reflektiraju šire strukturalne nejednakosti u tehnologiji“, rekla je.