«Roboten har verken kritisk sans eller nese for god journalistikk», påpeker artikkelforfatterne.

DEBATT:

Tekstproduserende roboter kan ikke erstatte journalistene

Med stadig nye oppslag om ChatGPT og andre KI-baserte språkmodeller spør mange seg om nyhetene nå skal skrives av selvlærende roboter.

Publisert Sist oppdatert

Denne artikkelen er over ett år gammel og kan derfor inneholde utdatert informasjon.

  • Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.

Før vi slipper teknologien helt løs bør vi snakke litt om journalistenes samfunnsoppdrag. Journalisten veier daglig ulike hensyn mot hverandre basert på nyhetskriteriene vesentlighet, identifikasjon, sensasjon, aktualitet og konflikt. Det er en komplisert øvelse. Her kommer ChatGPT til kort.

Roboten har verken kritisk sans eller nese for god journalistikk. Den greier ikke å utvikle et pålitelig kildenettverk i den politiske maktsirkelen. I motsetning til journalisten kan ikke ChatGPT grave frem nyheter som vi aldri før har hørt om. Derfor må den ha hjelp.

Chat Generative Pre-trained Transformer (ChatGPT) besvarer spørsmål, lager dikt, taler og rapporter i en fei. Den selvlærende roboten har trent på all tilgjengelig tekst på internett, og fortsetter å basere leveransene på den og ny selvlaget tekst.

Den trener hele tiden. Fantastisk, men før vi blir sjarmert i senk må vi huske at det er mye den ikke kan. Når vurderinger, utvelgelse og analyse kreves må vi være på vakt.

Er ChatGPT egentlig egnet til å lage journalistikk der det stilles strenge krav til sannhet, kildekritikk og saklighet? Det spennende svaret er «ja». Men det er en ønskedrøm for roboten. Den får ha noe å strekke seg etter.

Roboten skjønner ingenting. Den har verken samvittighet eller vilje. Den bare skriver.

Lemfeldig forhold til sannheten

Noen utfordringer ved ChatGPT må vi likevel ta tak i. Hvordan kan vi være sikre på at det ChatGPT skriver er sant?

Den kan skrive et overbevisende velformulert budskap basert på et forvrengt bilde av virkeligheten. Hvis det kommer en merkelig tekst ut er det fristende å si at roboten har misforstått.

Sannheten er at den skjønner ingenting. Den setter sammen. Den har ingen interesse av å snakke sant. Den lyver uten å vite det. Den ordlegger seg slik at vi skal tro at den er smart. Den har verken samvittighet eller vilje. Den bare skriver.

Det betyr at vi må være smartere. Vi må forstå hva vi mater den med. Vi har alle bidratt til informasjonsbasen som internett er og som ChatGPT er trent opp på.

Ingenting av det en ChatGPT-robot skriver vil være overlatt til tilfeldighetene. Den er ikke programmert til å finne på noe selv. Den er kun trent opp til å beregne hva det neste ordet må være. Selv om det er løgn. Den er ekspert på å levere hva som forventes. Problemet er at dersom man bruker ChatGPT ukritisk vil det bli mye «bullshit».

Jo mer feil tekst som skapes dess mer «bullshit» vil det bli fordi systemet lærer av tekst som den har laget selv. Resultatet kan bli galopperende forsterkning av bias og usannheter i treningsmaterialet. Dette blir det ikke god journalistikk av

Pressens samfunnsoppdrag

Sannhetskravet er en grunnleggende forutsetning for all journalistikk. I journalistisk arbeid er det ikke rom for å finne på eller vri på sannheten. Løsrevet fra bindinger beskriver journalisten virkeligheten og stiller kritiske spørsmål der det er makt.

Når en viktig nyhet graves frem gir journalistens eget kildenett, faglige forankring, uavhengighet og integritet sluttresultatet. En typisk god nyhetsreportasje har vært gjenstand for grundige diskusjoner, et utvalg kilder er blitt vurdert, kommersielle bindinger er håndtert og skjulte agendaer avdekket, journalistene har veid sine ord og tatt stilling til hvilken konflikt som skal prege saken.

Etter publisering dekkes oppfølgingssakene med den samme kritiske innfallsvinkel. Godt journalistisk håndverk skaper samfunnsdebatt og setter dagsorden. Viktige nyhetssaker driver frem politiske beslutninger, endringer i forvaltningspraksis eller på sikt ny lovgivning.

Ved riktig bruk av ChatGPT kan redaksjonen frigjøre verdifull tid til å øke den menneskeskapte journalistiske produksjonen.

PFU «frifant» robot

Den 21. desember behandlet Pressens Faglige Utvalg (PFU) en sak der spørsmålet var om innholdet i en artikkel skrevet av en redaksjonsstyrt bedriftsrobot brøt med god presseskikk.

Avisen og roboten gikk fri. Utvalget presiserte: «Pressens Faglige Utvalg (PFU) minner om at Vær Varsom-plakaten gjelder for alle typer redaksjonelt innhold, og at innhold skapt av roboter og kunstig intelligens er underlagt det samme redaktøransvar som annet innhold.»

Saken viser at enkelte medier allerede har kommet imponerende langt i å inkludere robotjournalistikk i redaksjonelt arbeid, med rutiner for kvalitetssikring og kontroll. Dette kan flere redaksjoner lære av.

Fremtidens nyhetsredaksjon

Nyhetsredaksjonene er selvsagt klar over at vilkårene for det journalistiske samfunnsoppdraget ikke er endret bare fordi teknologien byr på nye muligheter.

Ingen redaktør med respekt for seg selv vil sette ChatGPT til å lage redaksjonens hovedoppslag uten å samtidig sette kloke hoder til å gå stoffet nærmere etter i sømmene før publisering.

Inntil videre må tekstroboer ha hjelp fra journalistene for å kunne fungere redaksjonelt.

En utfordring er likevel det opphavsrettslige vernet.

Mater en journalist ChatGPT med fakta uten å skrive selv er ikke artikkelen en konsekvens av menneskelig skapende innsats. Artikkelen vil derfor fritt kunne kopieres, også for kommersielle formål.

Det er noe å tenke på. Hvis redaksjonene benytter mulighetene som finnes kan man oppnå et godt lagspill med teknologien. Fordelene med automatisert journalistikk er for eksempel at fakta enklere og raskere kan sammenfattes, med nøyaktige stedsangivelser og på flere språk. Dessuten kan forskjellige skrivestiler og sjangere kombineres.

Teknologi kan hjelpe redaksjonen med å finne relevant informasjon i en tekstmengde som vokser eksponentielt, men også bistå journalisten med å forstå teknisk kompliserte sammenhenger. En viktig utnyttelse av ChatGPT fremover vil derfor være å anvende roboten som en hjelper i produksjonen av datadrevet journalistikk.

De redaksjonene som vil ta teknologien i bruk bør i første omgang etablere solide rutiner og systemer for å kvalitetssikre og supplere robotskrevet innhold. På den måten kan galt faktum og skjulte, innholdsmessige feil lukes ut.

Inntil videre må ChatGPT altså ha hjelp fra journalistene for å kunne fungere redaksjonelt. Det blir spennende å se hva den underliggende teknologien får til når den blir utviklet enda et par «generasjoner».

Journalistene har enn så lenge det akademiske overtaket på roboten, med sin solide verktøykasse bestående av etikk, jus og sunn fornuft som anvendes på konkrete problemstillinger. Dette gir velfunderte analyser og vurderinger.

ChatGPT vil uansett suse inn i 2023 for å trene enda mer.

***

Ida Brabrand

Advokat og assosiert partner, Brækhus Advokatfirma
Spesialisering i arbeidsrett og medierett

Christian Bendiksen

Advokat og partner, Brækhus Advokatfirma DA
Spesialisering innen kunstig intelligens og store datastrømmer

Powered by Labrador CMS