Debatt:

«Min frustrasjon er at vi kaster bort tid og penger på å bruke algoritmene til å bli gode på noe vi ikke bør være gode på», skriver Anders Lie Brenna, ansvarlig redaktør i enerWe.no.
«Min frustrasjon er at vi kaster bort tid og penger på å bruke algoritmene til å bli gode på noe vi ikke bør være gode på», skriver Anders Lie Brenna, ansvarlig redaktør i enerWe.no.

Algoritmen er en god tjener, men en farlig herre

Advarer mot robotredaktører og ukritisk bruk av algoritmer.

Published   Updated

Maskinlæring er på full fart inn i journalistikken, men jeg er redd for at vi begynner i feil ende.

For noen uker siden var jeg en av flere fra den norske mediebransjen som ble intervjuet på radioprogrammet Kurer på NRK P2. Temaet var algoritmer, og hvordan nettaviser bruker de til å velge ut hvilke artikler som skal vises til hvem på nettavisenes forsider.

På tross av at jeg trolig er den største teknologientusiasten av de som ble intervjuet, så var jeg den som var mest skeptisk til bruken av algoritmer for å velge ut hvilke artikler som skal vises på forsidene. Det er jeg fordi det er flere problemer knyttet til å bruke algoritmer til dette.

For det første undergraver det nettavisenes autoritet, og dermed gjennomslagskraft. Hvis man har gjort noe bra og ender på forsiden til en avis er det noe man er stolt av, og som man gjerne vil dele med familie, venner, ansatte eller kunder.

Tilsvarende er det viktig at når en politiker eller næringslivstopp blir tatt for å gjøre noe alvorlig galt så bør alle få se oppslaget på samme måte. Det har blitt et begrep blant mange samfunnstopper om at man spør seg selv om det man er i ferd med å gjøre tåler «et oppslag på VGs forside». Dette forsvinner hvis vi overlater til algoritmene å avgjøre hvem som skal få se hva.

Advarer mot utviklingen

Så skal det sies at norske nettaviser ikke har gått så langt at de lar algoritmene styre hele forsiden, og jeg kjenner heller ikke til at noen har planer om å gjøre det. Jeg vil likevel advare mot utviklingen som er på vei i den retningen, og jeg vil påstå at vi allerede ser konturene av problemene som kommer som en følge av det.

Mange mener at algoritmer som personifiserer innholdet slik at leseren får det de vil ha er en god ting for en nettavis, og de viser gjerne til at det er mange som vil slippe å lese den overdrevne dekningen av fotball, langrenn og annen sport, eller det evinnelige fokuset på the Kardashians og andre kjendiser.

Problemet med denne overdrevne dekningen av klikkvinnende sportsartikler og kjendiseri er et resultat av en algoritmetankegang.

Det er å snu hele problemstillingen på hodet. For problemet med denne overdrevne dekningen av klikkvinnende sportsartikler og kjendiseri er et resultat av en algoritmetankegang.

Når nettavisene desker forsidene sine for å gjøre den engasjerende bruker de journalister som har bygd opp erfaringer og kunnskap om hva som skal til for å skape trafikk og engasjement. For alle praktiske formål kan vi si at de desker forsiden som om de var en menneskelig algoritme.

Forskjellen på å la et menneske og en datamaskin med maskinlæring deske forsiden ligger i at en datamaskin er uendelig ganger flinkere til å optimalisere innsatsen mot et best mulig resultat.

På kort sikt vil derfor økt bruk av algoritmer til å velge ut hvilke artikler som vises gi en forbedring av resultatet. Det vil gi mer trafikk og mer engasjement.

På litt lengre sikt vil problemene bli veldig synlige, og da vil forhåpentligvis pressen begynne å tråkke på bremsene. Det så vi konturene av i «du vil ikke tro»-epoken da mange nettaviser kjørte veldig tabloide vinklinger basert på lærdom fra hva som fungerte best i sosiale medier.

Ensporet og effektiv

Algoritmer og maskinlæring er ikke magi. De er en kombinasjon av veldig ensporet tankegang og en effektiv prosess for å finne de optimale løsningene gitt parameterne de settes opp etter. Mens en tabloid desker kan strekke strikken litt langt av og til, vil en algoritme fortsette å strekke strikken så lenge den ser at resultatet blir bedre.

Mens en tabloid desker kan strekke strikken litt langt av og til, vil en algoritme fortsette å strekke strikken så lenge den ser at resultatet blir bedre.

Dette er ikke noe som kan programmeres bort. I motsetning til «gammeldags» programmering der vi skriver reglene for hvordan datamaskinen skal gjøre jobben, så trenes maskinlæring opp ved å mate den med data for så å gi tilbakemelding på hvor godt resultatet ble. Så lenge resultatet måles i klikk, engasjement, utløsende betalingsvilje eller lignende så vil algoritmen optimalisere for å oppnå nettopp det.

Så kan selvsagt en redaktør trykke på nødbremsen når det skjer, og det er jo fint. Pressen gikk jo som nevnt bort fra «du vil ikke tro»-vinklingen når man så hva det gjorde med troverdigheten til det redaksjonelle innholdet.

Utfordringen er at vi allerede er der. De første konsekvensene av en slik tilnærming ser vi konturene av allerede, og det er til og med før algoritmene har fått ordentlig fotfeste på forsidene og på utvelgelsen av hva pressen skriver om, samt hvordan vi skriver det.

Problemet er at jo mer ensidig en sak er vinklet og skrevet, desto mer blir den likt og delt.

Vil ha artikler som støtter eget syn

Vi ser det hos oss i enerWE der vi som en fagpressepublikasjon skriver om noe så «faglig, tørt og kjedelig» som energispørsmål.

Hvis vi for eksempel skriver om utbygging av vindkraft med en ensidig vinkling om problemene det skaper som følge av naturinngrepene, så vil trafikken gå i været takket være likes og delinger. Hvis vi derimot gjør jobben vår ordentlig, og skriver en balansert artikkel der vi forteller om hvordan det må bygges flere kilometer med nye veier for å frakte de 67 meter lange bladene, men samtidig forklarer hvor små disse skogsveiene er og hvor lite det er sammenlignet med andre skogsveier, så blir artikkelen knapt delt.

I vår lille andedam er debattene veldig polariserte når vi skriver om temaer som olje og gass, vannkraft, vindkraft, solenergi og strømmarkedet. Leserne vil helst ha ensidige artikler som støtter deres eget syn.

Jeg sitter dessverre ikke med inntrykk av at vi er de eneste som sliter med dette problemet. Tvert imot tror jeg det er mange ganger større for nettavisene som skriver om for eksempel innvandring, ulv, abort, klimaendringene, Brexit og Trump.

En av vår tids store samfunnsproblem er at alle debattene har blitt veldig polariserte, og at stadig flere tilsynelatende ser verden gjennom en sort/hvit TV. Her burde sosiale medier som Facebook og Twitter ta på seg ansvaret og gjøre noe med det, men det skjer neppe.

Problemet, ikke løsningen

Det blir dermed opp til andre å ta det ansvaret, og her er pressen en klar kandidat. Da kan ikke vi gi etter og bruke vår tid, innovasjonskraft og våre penger på å utnytte disse tendensene maksimalt gjennom å bruke tid på å utvikle algoritmer som skal optimalisere forsidene og sakene vi skriver for å skape størst mulig engasjement. I så fall er ikke pressen det vi utgir oss for å være når vi holder våre festtaler. Da er er vi ikke løsningen, men en del av problemet.

Når jeg fremmer dette synet får jeg høre at jeg er bakstreversk, og at jeg er for pessimistisk med tanke på alle mulighetene som teknologien gir.

Det er så feil som det får blitt. Jeg er ikke negativ til algoritmer eller maskinlæring. Jeg bruker tvert i mot så mye tid jeg kan på å sette meg inn i det, og på å utforske redaksjonell bruk av denne typen teknologier.

Min frustrasjon er at vi kaster bort tid og penger på å bruke algoritmene til å bli gode på noe vi ikke bør være gode på.

Min frustrasjon er at vi kaster bort tid og penger på å bruke algoritmene til å bli gode på noe vi ikke bør være gode på.

La meg gi noen få eksempler på hvordan vi kanskje kan bruke algoritmene redaksjonelt:

Hva med å utforske mulighetene som Google Duplex åpner for til å gjøre redaksjonelle intervjuer? Med Duplex demonstrerte Google hvordan de har lært datamaskiner å ringe en restaurant for å bestille et bord. Tenk så interessant det hadde vært å utvikle noe tilsvarende der vi kunne intervjuet alle politikerne som stemte i kommunestyret eller stortinget eller alle spillerne på laget som vant istedenfor bare de mest kjente som alltid spørres? Noe av det spenende med denne teknologien er at den også åpner for at systemet ville klart å stille oppfølgerspørsmål.

Eller hva med å bruke Project Debater fra IBM Watson til å samle inn de reelle og gode argumentene fra hver side i ulvedebatten til en artikkel der folk flest blir hørt uten at vi gir de hatske trollene en plattform til å spre sin eder og galle? Demonstrasjonen av Speech by Crowd viser hvordan systemet kan plukke frem de beste saklige argumentene fra hver side, og presentere de i en tale. En redaksjonell videreutvikling av dette ville kunne løst det største problemet med kommentarfeltet.

Det er mange andre redaksjonelle muligheter innen bruk av algoritmer og maskinlæring, men de vies ikke mye oppmerksomhet. Mediebransjen er dessverre alt for opptatt med å bruke denne teknologien til å lage bleke kopier av annonsesystemet til Google og utvelgelsessystemet til Facebook.

Ikke undergrave samfunnsoppdraget

Silicon Valley er full av små og store IT-selskaper som jobber på spreng for å utnytte maskinlæring til å optimalisere trafikk og annonsetjenester. Det er ingen grunn til å tro at mediebransjen har noen som helst konkurransefortrinn i kampen mot de når det gjelder optimalisering av en forside eller hva det skal skrives om. IT-selskapene vil vinne den konkurransen, og det er fordi de ikke trenger å holde algoritmene igjen på samme måte som vi i pressen må.

Pressen burde heller bruke tid og penger på å utnytte algoritmer og maskinlæring i det redaksjonelle arbeidet. Der har vi konkurransefortrinn, og det undergraver ikke samfunnsoppdraget vi så stolt forteller at vi jobber med.

Det snakkes mye om at robotene kommer og tar jobbene våre. Problemstillingen er reell, men brukt riktig vil de kunne bidra til at vi slipper kjedelig rutinearbeid og kan legge innsatsen vår i det som faktisk betyr noe, og som er givende å jobbe med.

Vi bør ikke frykte robotjournalister. De har potensiale til å bli gode kolleger.

Vi bør ikke frykte robotjournalister. De har potensiale til å bli gode kolleger. Det vi bør frykte er robotredaktører, algoritmer som etter hvert bestemmer hva vi skriver og hvordan vi skal skrive det. En satsing på algoritmer som skal styre forsiden, samt velge ut hva vi skal skrive om er et lite, men farlig skritt på veien dit.

Det var tidligere statsminister Jens Stoltenberg som sa noe sånt som at markedet er en god tjener, men en farlig herre.

Det samme kan og bør vi si om bruken av algoritmer i journalistikken.