«De som lager modeller og prinsipper for KI-verktøy, tenker ofte bare på om teknikken fungerer, og bruker sjelden tid på å forstå hva det betyr for brukerne», skriver Christoph Trattner, senterleder ved MediaFutures.
Illustrasjon: geralt / Pixabay
DEBATT:
Vi trenger en Vær varsom-plakat for utvikling av KI
Foreslår etisk regelverk for kunstig intelligens-utvikling inspirert av Vær varsom-plakaten.
- Dette er et debattinnlegg. Innlegget uttrykker skribentens egne synspunkter.
Alle er opptatt av etisk bruk av
kunstig intelligens (KI). Du kan snakke med flere mennesker fra forskjellige
bransjer, og alle har en mening om hva som er viktig for å skape ansvarlig KI.
Så hvordan kan vi utvikle KI-verktøy som er til fordel for samfunnet og som
opprettholder våre verdier?
Det lønner seg å se nærmere på
journalistikken. Journalistikken har tilpasset seg til teknologiske endringer,
samtidig som den har beholdt etiske prinsipper som kommer samfunnet til gode.
I
Norge har journalister et etablert etisk rammeverk i form av Vær varsom-plakaten,
som legger grunnlaget for ansvarlig samfunnsarbeid. En tilsvarende standard
eksisterer ikke for de som utvikler KI-modeller. Ved å innføre lignende etiske
retningslinjer i KI-utvikling, kan vi sikre at teknologien vi skaper er til det
beste for samfunnet.
De som lager modeller og
prinsipper for KI-verktøy, tenker ofte bare på om teknikken fungerer, og bruker
sjelden tid på å forstå hva det betyr for brukerne. Istedenfor å lage en
blackbox, må informatikere også forstå effekten av de enkle prosessene. De har
verktøy for så mange ting, men det er nødvendig med retningslinjer som
beskriver hva det betyr for samfunnet.
Løsningen er bransjespesifikke
retningslinjer som er basert på felles verdier innenfor den aktuelle bransjen.
Informatikere, ingeniører og alle som lager KI-modeller kan ta sine
bransjespesifiske verdiene som et utgangspunkt for design, ingeniørarbeid og
evaluering av ansvarlige KI-systemer.
Det er tre trinn for å jobbe
etisk med KI. Først design, hvor nøkkelverdien i bransjen må brukes som
grunnlag for å lage noe nytt. Deretter må prinsippene implementeres i
lagingsprosessen som for eksempel i treningsdata for KIen. Til slutt må
produktet evalueres ved å bruke etikkbasert revisjon som en metode for å sjekke
at verdiene er brukt.
Retningslinjer som overholdes
under lagingsprosessen i enhver bransje, kan hjelpe oss med å ha etisk KI.
Derfor anbefaler forskere ved SFI MediaFutures å lage etiske koder for å
finjustere eksisterende generative KI-modeller, som ChatGPT, slik at de er mindre
skadelige for samfunnet. Bransjespesifikke profesjonelle atferdskoder gir oss
en forståelse av viktige verdier som vil veilede oss mot mer ansvarlige valg i
praksis for bruk av KI.
Denne meningsartikkelen om
forklarbarhet i KI er publisert i Communication of the ACM, fagmagasinet til et
av verdens største vitenskapelige og pedagogiske selskap for informatikk.