Denne artikkelen er over ett år gammel og kan derfor inneholde utdatert informasjon.
Annonse
Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.
Før vi slipper teknologien
helt løs bør vi snakke litt om journalistenes samfunnsoppdrag. Journalisten veier
daglig ulike hensyn mot hverandre basert på nyhetskriteriene vesentlighet,
identifikasjon, sensasjon, aktualitet og konflikt. Det er en komplisert øvelse.
Her kommer ChatGPT til kort.
Roboten har verken kritisk sans eller nese for god
journalistikk. Den greier ikke å utvikle et pålitelig kildenettverk i den politiske maktsirkelen. I
motsetning til journalisten kan ikke ChatGPT grave frem nyheter som vi aldri
før har hørt om. Derfor må den ha hjelp.
Chat
Generative Pre-trained Transformer (ChatGPT) besvarer spørsmål, lager dikt, taler og rapporter
i en fei. Den selvlærende
roboten har trent på all tilgjengelig tekst på internett, og fortsetter å
basere leveransene på den og ny selvlaget tekst.
Den trener hele tiden. Fantastisk, men før vi blir
sjarmert i senk må vi huske at det er mye den ikke kan. Når vurderinger,
utvelgelse og analyse kreves må vi være på vakt.
Er ChatGPT egentlig egnet til å lage
journalistikk der det stilles strenge krav til sannhet, kildekritikk og
saklighet? Det spennende svaret er «ja». Men det er en ønskedrøm for roboten. Den
får ha noe å strekke seg etter.
Lemfeldig forhold til sannheten
Noen
utfordringer ved ChatGPT må vi likevel ta tak i. Hvordan kan vi være sikre på at det ChatGPT
skriver er sant?
Den kan skrive et
overbevisende velformulert budskap basert på et forvrengt bilde av
virkeligheten. Hvis det kommer en merkelig tekst ut er det fristende å si at
roboten har misforstått.
Sannheten er at den skjønner ingenting. Den setter
sammen. Den har ingen interesse av å snakke sant. Den lyver uten å vite det. Den
ordlegger seg slik at vi skal tro at den er smart. Den har verken samvittighet
eller vilje. Den bare skriver.
Det betyr at vi må være smartere. Vi må forstå
hva vi mater den med. Vi har alle bidratt til
informasjonsbasen som internett er og som ChatGPT er trent opp på.
Ingenting av det en ChatGPT-robot
skriver vil være overlatt til tilfeldighetene. Den er ikke programmert til å
finne på noe selv. Den er kun trent opp til å beregne hva det neste ordet må være.
Selv om det er løgn. Den er ekspert på å levere hva som forventes. Problemet er at dersom man bruker ChatGPT ukritisk
vil det bli mye «bullshit».
Jo mer feil tekst som skapes dess mer «bullshit» vil
det bli fordi systemet lærer av tekst som den har laget selv. Resultatet kan
bli galopperende forsterkning av bias og usannheter i treningsmaterialet. Dette
blir det ikke god journalistikk av
Annonse
Pressens samfunnsoppdrag
Sannhetskravet
er en grunnleggende forutsetning for all journalistikk. I journalistisk arbeid
er det ikke rom for å finne på eller vri på sannheten. Løsrevet fra bindinger beskriver
journalisten virkeligheten og stiller kritiske spørsmål der det er makt.
Når en
viktig nyhet graves frem gir journalistens eget kildenett, faglige forankring,
uavhengighet og integritet sluttresultatet. En typisk god nyhetsreportasje har vært
gjenstand for grundige diskusjoner, et utvalg kilder er blitt vurdert, kommersielle
bindinger er håndtert og skjulte agendaer avdekket, journalistene har veid sine
ord og tatt stilling til hvilken konflikt som skal prege saken.
Etter
publisering dekkes oppfølgingssakene med den samme kritiske innfallsvinkel. Godt
journalistisk håndverk skaper samfunnsdebatt og setter dagsorden. Viktige
nyhetssaker driver frem politiske beslutninger, endringer i forvaltningspraksis
eller på sikt ny lovgivning.
Ved riktig bruk av ChatGPT kan redaksjonen frigjøre
verdifull tid til å øke den menneskeskapte journalistiske produksjonen.
PFU
«frifant» robot
Den 21.
desember behandlet Pressens Faglige Utvalg (PFU) en sak der spørsmålet var om innholdet
i en artikkel skrevet av en redaksjonsstyrt bedriftsrobot brøt med god
presseskikk.
Avisen og roboten gikk fri. Utvalget presiserte: «Pressens Faglige Utvalg (PFU) minner om
at Vær Varsom-plakaten gjelder for alle typer redaksjonelt innhold, og at
innhold skapt av roboter og kunstig intelligens er underlagt det samme
redaktøransvar som annet innhold.»
Saken
viser at enkelte medier allerede har kommet imponerende langt i å inkludere
robotjournalistikk i redaksjonelt arbeid, med rutiner for kvalitetssikring og
kontroll. Dette kan flere redaksjoner lære av.
Annonse
Fremtidens
nyhetsredaksjon
Nyhetsredaksjonene
er selvsagt klar over at vilkårene for det journalistiske samfunnsoppdraget
ikke er endret bare fordi teknologien byr på nye muligheter.
Ingen redaktør med
respekt for seg selv vil sette ChatGPT til å lage redaksjonens hovedoppslag
uten å samtidig sette kloke hoder til å gå stoffet nærmere etter i sømmene før
publisering.
En utfordring er likevel det opphavsrettslige vernet.
Mater en
journalist ChatGPT med fakta uten å skrive selv er ikke artikkelen en
konsekvens av menneskelig skapende innsats. Artikkelen vil derfor fritt kunne
kopieres, også for kommersielle formål.
Det er noe å tenke på. Hvis
redaksjonene benytter mulighetene som finnes kan man oppnå et godt lagspill med
teknologien. Fordelene med automatisert journalistikk er for eksempel at fakta
enklere og raskere kan sammenfattes, med nøyaktige stedsangivelser og på flere
språk. Dessuten kan forskjellige skrivestiler og sjangere kombineres.
Teknologi
kan hjelpe redaksjonen med å finne relevant informasjon i en tekstmengde som
vokser eksponentielt, men også bistå journalisten med å forstå teknisk
kompliserte sammenhenger. En viktig utnyttelse av ChatGPT fremover vil derfor
være å anvende roboten som en hjelper i produksjonen av datadrevet
journalistikk.
De
redaksjonene som vil ta teknologien i bruk bør i første omgang etablere solide rutiner
og systemer for å kvalitetssikre og supplere robotskrevet innhold. På den måten
kan galt faktum og skjulte, innholdsmessige feil lukes ut.
Inntil videre må ChatGPT altså ha
hjelp fra journalistene for å kunne fungere redaksjonelt. Det blir spennende å
se hva den underliggende teknologien får til når den blir utviklet enda et par «generasjoner».
Journalistene har enn så lenge det akademiske overtaket på roboten, med sin solide
verktøykasse bestående av etikk, jus og sunn fornuft som anvendes på konkrete problemstillinger.
Dette gir velfunderte analyser og vurderinger.
ChatGPT vil uansett suse inn i
2023 for å trene enda mer.
***
Ida Brabrand
Advokat og assosiert partner, Brækhus Advokatfirma Spesialisering i arbeidsrett og medierett
Christian Bendiksen
Advokat og partner, Brækhus Advokatfirma DA Spesialisering innen kunstig intelligens og store datastrømmer