Klassekampen skrev onsdag 10. april om forlaget Legatum Publishing og deres planer for nye lydbøker. Forlaget ønsker en lydbokinnspilling av Knut Hamsuns klassiske roman Sult. Det oppsiktsvekkende er at forlaget vil rekonstruere Knut Hamsuns stemme slik at det høres ut som at forfatteren selv leser boken høyt. For å få dette til skal forlaget benytte seg av kunstig intelligens (KI).
Planene til Legatum Publishing skaper reaksjoner. Hamsuns familie ønsker utgivelsen stanset, mens forlegger Tore Rasmussen på sin side hevder at ingen har opphavsrett til Knut Hamsuns stemme. Uenighetene mellom Legatum Publishing og Knut Hamsuns familie føyer seg inn i en stadig større debatt: Det plutselige inntoget KI har i ulike deler av samfunnet. Men denne bruken av KI er ikke ny.
I 2023 ble mange forbløffet da det dukket opp en ny versjon av Coolios rap-klassiker «Gangsta’s Paradise». Det overraskende var at sangen var fremført av Frank Sinatra. En belgisk lydprodusent hadde klippet sammen ulike låter fra Sinatras karriere.
Ved hjelp av kunstig intelligens og «deepfake»-teknologi kunne han konstruere et lydspor der Sinatra sa nøyaktig det samme som teksten til sangen. Slik ble det skapt en versjon av «Gangsta’s Paradise» der sangeren ikke er i live, og han sier ord han aldri har sagt.
Vi kan ikke akseptere en normalisering av at de som har gått bort skal kunne gjenskapes digitalt
Hva ville Knut og Frank sagt?
Betrakter man eksemplene om Hamsun og Sinatra, er det et spørsmål vi burde ta stilling til: Hva ville de selv ønsket? Hadde de satt pris på å leve videre digitalt, eller ville de ønsket at stemmene deres stilnet ved døden?
Det er et enkelt svar på dette spørsmålet: Vi kan ikke vite fordi vi ikke kan spørre dem. Men usikkerhet i denne sammenhengen burde likevel føre oss til et klart og tydelig nei.
Hovedårsaken til dette er at vi ikke kan akseptere en normalisering av at de som har gått bort skal kunne gjenskapes digitalt. Digitale versjoner av mennesker kan misbrukes, og dette er en form for misbruk som kan skje absolutt alle. Det er enkelt å se for seg festlige «deepfake» lydopptak med kjente mennesker som har forlatt denne verden.
Et lydopptak der Einar Gerhardsen og Kåre Willoch har en samtale om noe de aldri ville ha diskutert på ordentlig, kan utvilsomt være morsomt. Men det blir direkte farlig hvis personene kommer med kontroversielle og usanne synspunkt. Det kan forfalske historien på måter vi aldri har opplevd tidligere.
Åpner vi bare litt for en normalisering av slik teknologi, vil det plutselig være helt alminnelig. Er det alminnelig, vil det også kunne påvirke alle. Ingen vil være trygge for en slik digital gjenskaping. Dør du gammel eller ung, vil din stemme kunne brukes videre til alle mulige formål.
Sett deg litt inn i situasjonen til Knut Hamsun og Frank Sinatra. Din stemme kan, uten ditt samtykke, brukes til å hevde meninger du ikke har og du vil per definisjon kunne «eksistere» for alltid, digitalt. Er det noe du ønsker?
La fortiden være
Blant de største advarslene mot kunstig intelligens er at KI kan manipulere vår forståelse av virkeligheten i nåtid. Det kan ikke være slik at vi heller ikke kan stole på fortiden fordi KI brukes til å rekonstruere mennesker som har gått bort.
En normalisering av digital gjenskaping vil bare bidra til å skape usikkerhet samtidig som at det åpner opp for massiv digital misbruk av mennesker som har gått bort. Norske myndigheter må komme på banen og ta denne problematikken alvorlig. Gjør de ikke det kan vi om kort tid være i en situasjon der utallige døde mennesker er gitt et nytt, digitalt liv. Da «lever» de kanskje på nytt, men vi kan ikke vite om de snakker sant.
Kunstig intelligens kan brukes til mye positivt, men fristelsen for å gi mennesker et evig, digitalt liv, må vi styre unna.