Det er noe annet å drepe en mygg enn å drepe et menneske. Dessuten er det ingen som tar skade om du slår i hjel tid.
Kunstig intelligens tas i bruk på stadig nye områder. Ettersom teknologien blir mer selvgående, ville det være en fordel om maskinen kan ta etikk med i beregningen.
Forskere i Tyskland har trent en modell de kaller Moral Choice Machine på tekster fra 1500-tallet til 2009, grunnlover, samt religiøse tekster som bibelen og koranen. Den kunstige intelligensen svarte så på hva den regnet som gode og dårlige handlinger.
- Maskinen gjorde det, ikke ved å repetere tekstbiter den hadde funnet, men ved å ekstrahere forhold ved hvordan mennesker har brukt språket, sier hovedforskeren bak studien, Patrick Schramowski, i en pressemelding.
Oppdager menneskers vurderinger
Det er tidligere vist at kunstig intelligens kan lære seg å diskriminere. Det kan du lese mer om i denne forskning.no-saken.
For eksempel førte bruk av kunstig intelligens til strengere straffer for afroamerikanere enn hvite i Wisconsin i USA, selv om forbrytelsen var den samme.
En årsak kan være at teknologien er trent på tidligere dommer. Hvis dommerne, kanskje uten å være klar over det, vurderte afroamerikanere som farligere, vil den kunstige intelligensen herme.
Kan den samme mekanismen brukes for å lære maskinene noe nyttig?
- Vi spurte oss selv: hvis AI tar i bruk de skadelige skjevhetene fra en tekst, bør de ikke også være i stand til å lære positive skjevheter, slik som moralske verdier? sier Cigdem Turan, postdoktor ved Darmstadt University of Technology. Hun har også vært med på den nye studien.
Forskjell på konteksten
Forskerne trente et AI-system med bøker, grunnlovstekster fra 193 land, religiøse tekster og nyhetssaker fra de siste tiårene.
Den kunstig intelligensen vurderte at handlinger som å smile, hilse og kose er positivt. Mens ord som mishandle, dehumanisere og ødelegge er negative.
Det er vel og bra. Men kunne den skille skille mellom forskjellige situasjoner? Det er fint å spise, men det er forskjell på