Er kunstig intelligens diskrimerende?
Er kunstig intelligens diskrimerende?

Er kunstig intelligens diskrimerende?

Diskriminerer kunstig intelligens?

I forrige innlegg snakket jeg om moralske og etiske dilemmaer knyttet til kunstig intelligens. Jeg tar blant annet opp «Trolley problemet». I dag skal jeg ta for meg spørsmålet om kunstige intelligens diskriminerer og hva kan man gjøre for å forhindre dette?

Tay og Aristo

Tay og Aristo er eksempler på kunstige intelligens som ikke gikk helt som planlagt. Tay var Microsoft sitt forsøk på kunstig intelligens. Tay fikk tilgang til en Twitter bruker hvor den kunne snakke med andre mennesker, men det hele gikk galt etter kun ett døgn. På ett døgn gikk Tay fra å skrive helt harmløse Tweets til mannssjåvinistiske og høyreekstreme Tweets. Mens Allen Institute for Artificial Intelligence utviklet den kunstige intelligensen Aristo til å svare på vitenskapelige spørsmål. På spørsmål om hvilken rase som var overlegen svarte Aristo med 75% sikkerhet at den hvite rase var overlegen, noe som helt klart er feil. Eksemplene er mange og alvorlige. Amazon som brukte kunstig intelligens for å være sikre på å ansatte riktig endte med å luke ut alle kvinnelige ansatte. Den kunstige intelligensen dommerne i Wisconsin bruker er beskyldt for å diskriminere mørkhudede og det finnes sikkert mange flere tilfeller. (Forskning.no)

Hvorfor skjer det?

Så hva skjer? Hvorfor ser vi at flere kunstige intelligenser blir høyreekstreme, rasister og mannssjåvinister? Svaret er egentlig ganske enkelt. De blir rett og slett lært opp av høyreekstreme, rasister og mannssjåvinister. Tay ble lært opp på twitter og høyreekstreme snakket med chatbotten. Tay tok til sin kunnskapen hun fikk av de han snakket med. Aristo svarte hvite på spørsmålet om hvilken rase som var overlegen fordi datasettet som ble brukt i treningen hans antageligvis var dominert av hvite personer. Det er ikke samsvarende med at hvite personer er overlegne, men det var konklusjonen Aristo tok utifra treningen sin. Amazon har tidligere ansatt flest menn, derfor tok den kunstige intelligensen å luket ut kvinner, ikke fordi menn er best egnet, men fordi det var det den var lært opp til basert på datasettet. Og til slutt den kunstige intelligensen til dommerne i Wisconsin. Firmaet bak vil ikke si hva som er brukt til å lære den opp, men man kan anta at det er snakk om tidligere domfellelser. Så hvis tidligere dommere vurderte mørkhudede som farligere ville den kunstige intelligensen lære det mønsteret.

Det er altså ikke noe feil med hvordan kunstige intelligenser fungerer, men heller hva og av hvem den blir lært.

Hvordan løse problemet?

Så spørsmålet blir hvordan man kan løse dette? Jeg tror det ikke er noen tvil om at kunstige intelligenser er kommet for å bli, så hvordan skal man unngå de problemene vi har støtet på hittil? Det aller første man burde gjøre er jo så klart å endre grunnlaget kunstige intelligenser lærer av, men hvordan skal man sikre et objektivt uavhengig og moralsk riktig grunnlag? Forskere håper på at man i fremtiden klarer å utvikle det de kaller for kunstig moral. Rett og slett at vi lærer kunstige intelligenser hva god moral er. Da kan datamaskinene faktisk bli flinkere enn mennesker til å gjøre moralske vurderinger. Men faktum er at vi ikke er der helt enda, derfor må vi bli mer beviste i opplæringen vår av kunstige intelligenser og sette tydelige rammer for beslutningene kunstig intelligens tar.

lyspære

Kilder

2 Comments

  1. Fredrikke Linnea Eriksson

    Hei Sivert!
    Veldig fint blogginnlegg!
    Synes du har valgt med deg spennende eksempler å skrive om, og at du reflekterer veldig bra rundt de. Det sagt kunne du gjerne gått litt dypere inn på hvem Tay og Aristo var, og hvor det startet, slik at du også ville fått flere ord på innlegget ditt.
    Husk også at komma skal etter kilden: (forskning.no). I tillegg, er det fint å referere til forfatteren av artikkelen hvis du finner den. Hvis ikke, er det fint å gjøre det slik du har gjort det.
    Veldig bra jobbet, interessant innlegg, det var veldig lett å lese og veldig bra at du har brukt underoverskrifter:)

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.