Adimen artifizialak pertsonentzat zailak diren lanetan lagundu nahi omen digu, baita ere ohikoak ditugun lan batzuk bere gain hartu. Halako programak gizartean hedatzen ari diren heinean, erabaki garrantzitsuetan duten eragina handitzen doa, eta hortaz adituak hasi dira aztertzen ea programa hauek neutralak diren edo aurreiritzi kaltegarriak dituzten. Adimen artifizialeko programen erabilpena, besteen artean, bi eremutan ari da zabaltzen bizkorren: argazki eta bideotan azaltzen diren aurpegien identifikazioa eta erabakiak hartzeko testuen tratamendua. Tamalez, bietan ikusi dira joera kezkagarriak.

Jendartean badauden aurreiritziz kutsatuta daude makinak ere, hala nola arrazakeria eta sexismoa

Joera horiek ulertzeko azaldu beharra dago adimen artifizialeko programak bi zati izaten dituztela: lehenbizikoa programa bat izaten da, informatikariek diseinatu eta eraikitakoa; bigarrena adibide multzoak izaten dira. Programak adibideetatik ikasten du kasu bakoitzean zer egin. Horrela, kasu berri bat datorrenean (argazki edo testu bat), programak adibideetatik ikasi duenaren arabera hartuko du erabakia. Adituek aztertu dutenez, programa neutrala izan ohi da, hau da, informatikariek ez dute nahita aurreiritzirik kodetzen. Bigarrenean aldiz, adibideak jasotzeko metodologia dela eta, joera ezkutu kaltegarriak hedatu daitezke, eta horrela erabakiak neutralak izan ordez aurreiritziz beteak izan.

Lehenengoaren adibide bezala, poliziak gero eta gehiago jotzen du kameraz grabatutako irudiak erabiltzera, eta grabazioetan azaltzen diren pertsonak nortzuk diren jakiteko ohiko bihurtu da programa automatikoak erabiltzea. Amerikako Estatu Batuetan  esan izan da 117 miloi pertsonen irudiak (gida baimenetatik hartutakoak adibidez) gurutzatu ohi direla krimenen grabazioekin. Kontua da pertsonak identifikatzeko programa horiek ez direla berdin portatzen edozeinekin: pertsona zuriekin zehatzagoak dira beltzekin baino, heldu eta nagusiekin hobeto ari dira gazteekin baino. Bitxikeria bezala, polizia agentzia estatubatuarrak hornitzen dituen software etxe baten programak arazoak ditu jatorri asiarrekoen argazkietan begiak itxita ala irekita dauden bereizteko. Gaur arte inori ez zaio kezkagarria iruditu programa hauek ezberdin jokatzea arrazaren arabera, aditu batzuek honen arriskuaz ohartu diren arte. Esaterako, pertsona beltz bat azaltzen denean grabazioan, oker identifikatzeko aukerak handiagoak dira, eta identifikatutako pertsona horrengan ondorio kaltegarriak eragin. Pertsona batek egingo balu, nork ukatu joera arrazista erakusten duela?

Testuak

Testuen tratamenduari dagokionean, programak gai dira testu masa erraldoiak irakurriz hitzen esanahia ikasteko, eta hitzen artean pertsonak egiten ditugun asoziazioak imitatzeko. Asoziazio hauei esker jakin daiteke pertsonek zein  aurreiritzi dituzten, adibidez, genero eta arrazari buruzkoak. Berriki erakutsi da aurreiritzi horiek testuetan gordeta daudela, eta adimen artifizialeko algoritmoek oharkabean ikasten dituztela. Hala ikasten dute, adibidez, loreak gauza atseginei lotuta daudela eta intsektuak gauza ezatseginei. Baina problematikoagoak diren asoziazioak ere egiten dituzte, hala nola europear-amerikarren izenak alaitasun eta sari bezalako hitz atseginei lotuta daudela, eta afro-amerikarren izenak hitz ezatseginei. Generoari dagokionean andrazkoak giza zientzia eta etxeko lanetara lotuago azaltzen dira, eta gizonezkoak ingeniaritza eta matematikari lotutako lanbideetara. Hau da marka, sexismoa ere?

Hein baten, bi adibide hauek erakusten dute programa hauek gizartean dauden aurreiritzi batzuk islatzen dituztela, mundu anglosaxoiari buruz ari garenean bai behintzat. Programak bakarrik ez, aipatutako aurreiritziak jendartean azaldu ohi dira, eta ez da harritzekoa programek hori ikastea. Arazoa da programa hauek ezin direla erabili neutralak balira bezala, xurgatu dituzten aurreiritziak ondorio kaltegarriak eduki ditzakete eta. Zorionez, arazo hauek identifikatu dira, eta pertsonetan ez bezala, errazagoa izan beharko litzateke horiek konpontzea edo ondorio kaltegarriak gutxitzea.