Kunstig intelligens som kan skrive falske tekster anses for for farlig

Dyp falske for tekster: maskinen skreddersydd for tiden etter sannhet

De siste tre årene på Internett har blitt dominert av den nye bevisstheten om faren for falske nyheter og overtalelse av velgere eller forbrukere gjennom algoritmer som lever i sanntid på informasjonen deres for å manipulere deres online oppførsel. Denne risikoen, som noen anser for å være et forsøk på demokrati og autonomi, vil kunne ha en ny aktør med utvikling av programmer som klarer å skrive artikler som lett kan skrives av mennesker, til et ikke skille eller nesten ikke skille ut.

For et par uker siden kunngjorde OpenAI-plattformen at den var bekymret for den potensielle skadelige bruken av GPT2-modellen, som har blitt kalt " dyp falske for tekster." Selskapet, som har Elon Musk blant sine investorer, sa at det ikke vil offentliggjøre informasjonen om sin etterforskning i frykt for at denne teknologien har negative konsekvenser. GPT2-modellen er i stand til å generere plausibel tekst når den er matet med en tekst, noe som en idé å utvikle som kobles til annen informasjon.

Systemet skiller seg fra andre programmer ved at det opprettholder samme tema og syntaks og lager standardpassasjer som ser ut til å være skrevet av en person. Denne plattformen ble trent med mer enn 10 millioner artikler. På den ene siden er dette svært interessant, siden denne modellen kan utføre oppgaver som å oversette og oppsummere tekster. Men på den annen side har den et potensial at selv om vi kan forestille oss hvor det kan føre, så er det nesten ubegrenset i bruksmulighetene som kan gis for å lure og manipulere. For eksempel kan systemet generere utallige positive eller negative produktanmeldelser. Det kan produsere utallige spammeldinger, og til og med studere databaser for å generere e-postmeldinger som søker å svindle folk. Eller konspirasjonsteorier, eller tekster rettet mot å provosere visse sosiale eller politiske grupper. Den kan produsere falske nyhets- eller informasjonssider for propagandamål.

Selv om denne forsiktigheten er velkommen, er det derimot klart at i noen år vil denne teknologien bli utviklet av andre mennesker og kan sannsynligvis brukes til skadelige formål. Så det er viktig å forberede oss og utdanne oss. Det som virker uten tvil er at vi når et punkt der teknologien vi skaper er i stand til å utnytte noen av våre mentale sårbarheter og vårt moralske og intellektuelle nivå på en voldsom måte, da sivilisasjonen ikke er på høyde med å ivareta bruken av denne teknologien. Noe som er bekymringsfullt. Det ser ut til at vi lever i de tider som Philip K. Dick forestilte seg:

Falske realiteter vil skape falske mennesker. Eller vil falske mennesker generere falske realiteter og deretter selge dem til andre mennesker, og til slutt gjøre dem om forfalskninger av seg selv. Så vi ender opp med at falske mennesker oppfinner falske realiteter og deretter selger dem til andre falske mennesker.