forskning.no
28.01.2020
En del forskning kan misbrukes. Noen forskere velger derfor å holde resultater tilbake.
«Modellen vår, kalt GPT-2 (), ble ganske enkelt opplært til å forutsi neste ord i en internett-tekst på 40GB. På grunn av vår bekymring for skadelig bruk av teknologien, frigir vi ikke den opptrente modellen. Som et eksperiment innen ansvarlig publisering frigir vi i stedet en mye mindre modell som forskere kan eksperimentere med, samt en teknisk artikkel.»
Les merBudskapet ble publisert av kunstig intelligens-forsker Alec Radford og kollegaene hans i forskningslaboratoriet OpenAI i februar i fjor. De laget en datamodell som kan lage tekst. Og dette anså de altså som såpass risikabelt at de ikke ville frigi modellen.
Forklaringen? Kort sagt er oppfinnelsen så god at den blant annet kan lage falske nyheter av svært overbevisende kvalitet i en fei. Forskerne lister opp følgende punkter for mulig misbruk av teknolog