Debatt:

Fredag 31. august er jeg antakelig verdens mest produktive redaktør, skriver utviklingsredaktør Ole Petter Pedersen i Kommunal Rapport. Foto: Roger Aarli-Grøndalen

Automatisering – genialt for små redaksjoner

Kommunal Rapport lanserer automatiseringsprosjekt.

Publisert Sist oppdatert

Denne artikkelen er over seks år gammel og kan derfor inneholde utdatert informasjon.

Den største feilen vi kan gjøre når vi tar i bruk automatisering og kunstig intelligens, er å tro at det handler om datakode. Det handler om journalistikk, og kan være små redaksjoners beste venn.

Fredag 31. august er jeg antakelig verdens mest produktive redaktør, og Kommunal Rapport verdens mestproduserende nyhetsmedium. Da publiserer vi etter planen om lag 500.000 analytiske artikler om noen titalls tusen leverandører til Kommune-Norge. Den dagen blir vår produksjon på ca 50 millioner ord. Hvis automatiseringen går som den skal.

Det ligger viktig manuelt arbeid og journalistiske vurderinger bak formuleringer om det lille bakeriet i Stranda eller bensinstasjonen i Sarpsborg. Men i stedet for å skrive ut teksten om hvert enkelt selskap 500.000 ganger - noe som selvsagt er umulig - bruker vi en felles logikk for alle vurderinger som gjøres i teksten. Teksten er skrevet journalistisk, men den er satt sammen av et automatisert system.

For å publisere løsningen bruker vi selvsagt utviklere som lager det vi tror er en brukervennlig løsning. Men når teksten - journalistikken - skal bygges opp, er det nettopp journalister og redaktører som må brukes, og det er den jobben som er den aller viktigste.

Mitt inntrykk, etter både å ha drevet mye med automatisering de siste fire-fem årene, lest om andres erfaringer og observert andre løsninger, er at for mange prosjekter involverer for mye kode og for lite journalistikk. Jeg tror det er en viktig årsak til at for eksempel bare 3 prosent av spurte innbyggere i Tyskland synes robotjournalistikk gir mening (se HamburgNews), og 45 prosent er angivelig skeptiske til automatiserte nyheter.

Ingen av dem har antakelig lest boka Autostory av Magne Soundjock Otterdal og Geir Terje Ruud, som er en god innføring i hvordan vi kan bruke datateknologien til å finne fakta – og til robotjournalistikk. «Dataprogrammer er overlegent mennesket til å behandle store mengder data og konkludere om hva som skjer. Men det er journalister som må spesifisere nøyaktig hva det skal letes etter, som må tolke dataene, sette dem inn i en sammenheng og formidle historien», oppsummerer Bård Borch Michalsen i omtalen av boka.

Sluttproduktet må altså bli mye, mye bedre før i alle fall tyske lesere er overbevist, og antakelig også norske. Ikke minst virker det foreløpig også som om det er for få rammeverk laget med tanke på gjenbruk. Det vil i alle fall jeg gjøre noe med, i vår lille redaksjon.

For at journalisten skal være den som har kontrollen i et automatiseringsprosjekt, må verktøyene være praktiske. Etter mitt skjønn er regneark det optimale verktøyet. De er strukturerte, og samtidig så mye i bruk at man ikke er fremmedgjort. Vis en journalist Python eller Javascript, og de fleste gir opp. Strukturert informasjon til bruk i en strukturert, men generell kode, gir deg muligheten til å skrive mange automatiserte artikler med akkurat samme rammeverk hver gang.

For å få til dette, må journalisten og redaktøren akseptere noen begrensninger i det journalistiske sluttproduktet. Det er ikke praktisk mulig å gjøre automatiserte artikler til featuresaker (BBC lekte med tanken i denne artikkelen), med malende beskrivelser eller observasjoner. Teksten må være ekstremt strukturert. Et hvert avsnitt må følge en mal, men om du lager 10-20 ulike avsnittsmaler vil du antakelig allerede ha nok maler til å kunne bygge varierte nyhetsartikler til bruk i mange ulike situasjoner.

Jeg tror ikke de begrensningene er til skade. Tvertimot. Svært mange leser redaksjonelle medier for faktisk å få nyheter, gjerne i knapp form, uten at journalisten prøver å overforklare for leseren hva fakta egentlig betyr.

Dessuten kan du, hver gang SSB publiserer folketall for eksempel, kjøre den samme jobben om igjen og få ferske artikler rettet mot hver enkelt kommune ditt lille eller store mediehus dekker. Så kan journalisten konsentrere seg som den aller beste historien.

En utfordring ved automatisering er å lage systemer som både gjør det mulig å drive journalistikk på svært store datasett - altså å komplettere den journalistikken som best fullføres av mennesker - og det å la journalisten være i førersetet når logikken skal lages. Algoritmene eller denne koden som må være med, er journalistiske «produkter» like mye som de tradisjonelle nyhetsartiklene vi skriver hver for seg - de er bare blitt til ved hjelp av andre metoder.

Hva krever dette av en journalist? Kunnskap om datastøttet journalistikk er en stor fordel, og alle utdanningsinstitusjoner bør helst ha langt og dyptgående opplæring i bruk av regneark og statistikkprogrammer. Blant nye journalister bør antakelig minst tre firedeler kunne beherske flere ulike metoder innen datastøttet journalistikk – og alle må kunne minst én skikkelig. Men i et yrke som i liten grad har rekruttert fra realfag gjennom historien, er det åpenbart en alvorlig utfordring.

Har det så noen hensikt å publisere 50 millioner ord og 500.000 artikler på samme dag? Selvsagt. Endelig kan enhver leverandør av en viss størrelse faktisk lese en analyse av deres posisjon i kommunemarkedet. Alle som lurer på hvorfor et firma fikk oppdraget fra kommunen, kan lese om dets øvrige posisjon i kommunesektoren. Kanskje har et firma i fotobransjen et helseoppdrag i en liten kommune (et ekte eksempel fra Lenvik, se Kommunal Rapport). Slik journalistikk har aldri vært gjort i en slik skala før. Jeg håper ikke noen prøver å lese alt, samtidig, men at mange leser litt hver for seg.B

Powered by Labrador CMS