De fleste vil oppfatte slike avgjørelser som urettferdige. Det er årsaken til at retten til å få en forklaring på algoritmers beslutninger ble innført gjennom EUs personvernforordning i 2018. Men hva om du faktisk blir gitt en forklaring, men forklaringen er for komplisert til å forstås? En uforståelig forklaring.
Hvordan fungerer kunstig intelligens?
Moderne kunstig intelligens blir ofte kritisert for mangel på tolkbarhet. Med tolkbarhet menes evnen til å gi en forklaring på hvorfor man har tatt en gitt beslutning. Hovedkomponenten i moderne kunstig intelligens er en gren av maskinlæring kalt dyplæring.
Den store styrken til dyplæring er å automatisk transformere data på en måte som er gunstig for å utføre en gitt oppgave. For å forstå hva disse transformasjonene er og hvorfor de er viktige, må vi forstå hvordan data blir representert digitalt.
For eksempel, et digitalt bilde blir representert som et rutenett av piksler, som til sammen utgjør det vi oppfatter som et bilde. En piksel er et tall som sier noe om intensiteten og fargen til et gitt punkt i bildet. Vi mennesker er veldig gode til å tolke og forstå bilder basert på denne pikselrepresentasjonen av bildet, og vi kan enkelt gjenkjenne forskjellige objekter i slike bilder.
Algoritmen kan automatisk avgjøre om du får avslag


































































































