KOMMENTAR
I denne kommentaren tar Christoffer Nøkleby, daglig leder og rådgiver i design- og merkevarebyrået Bleed, opp farene ved ukritisk bruk av KI som research-assistener.
- Gud bedre så mye feil, unøyaktigheter og tullball
- Hva skjer når assistenten din lyver, spør Christoffer Nøkleby fra Bleed i denne kommentaren.
En av Bleeds i dag største kunder tok først kontakt fordi
ChatGPT fortalte dem at vi hadde laget Snøhettas nye nettsider. Flaut første
møte: Vi måtte starte med å forklare at det er feil. Riktignok designet vi
profilen deres for mange år siden, men siden har Snøhetta har startet egen
designavdeling, og de er en av våre gode konkurrenter. Vi fikk heldigvis
oppdraget likevel.
Dette er ikke et enslig eksempel. Financial Times skrev
tirsdag at research og beslutningsstøtte er den raskest voksende bruken
av ChatGPT blant 800 millioner ukentlige brukere. Folk overlater nettsøk,
lesing og analyse til sin stadig mer betrodde KI-assistent. Jeg opplever
eksempler på dette ukentlig: Folk som deler på LinkedIn at «KI har analysert og
landet på at [vårt produkt] er best» eller «allerede går research på sekunder.
Next up: Agentene!».
Man sparer tid, føler seg opplyst – men gud bedre så mye
feil, unøyaktigheter og tullball man ofte sitter igjen med.
Forrige uke ba jeg ChatGPTs «research mode» om å anbefale og
rangere de ti beste brand designbyråene i Norge. Få minutter senere gav den meg
en tilsynelatende gjennomarbeidet og godt begrunnet liste. Men: Tre av byråene
er lagt ned eller kjøpt opp. Og vinneren er et selskap jeg aldri har hørt om,
men hvis nettside inneholder en seksjon som heter «Top Creative Agencies in
Norway». Der lister de ti byråer, med seg selv på topp. Listen var identisk med
den ChatGPT genererte, det vil si – kopierte.
Vi snakker altså om en uendelig kraftig, men akk så naiv
språkmodell, koblet til en søkemotor like manipulerbar som det onde tunger
mente Google var i 2005. I en tid preget av desinformasjon og polarisering, er
ukritisk bruk av språkmodeller som substitutt for nettsøk – på jobb og privat –
det siste vi trenger.
Jeg er selv en aktiv bruker av KI-baserte verktøy, og
abonnerer på både Claude, Perplexity og ChatGPT. Disse verktøyene føles på
samme tid som «Selve Fremtiden» og som juks og fanteri. Fasit blir nok et sted
imellom. Foreløpig vurdering: De er fantastiske hvis man behandler dem som
svært effektive, men også svært naive assistenter. Jobben er ikke lenger å
skrive, men å lage presise briefer – og være en grundig redaktør noen sekunder
senere.
Spørsmålet vi burde stille hverandre er ikke «skrev du dette
med KI», men «går du som ansvarlig fagperson god for dette» ? Vi må unngå
fristelsen til å ta de raske resultatene for god fisk. Når research tar
sekunder, er det mentalt krevende å sette av tid til kvalitetssikring.
Ukritisk bruk av KI-basert research per oktober 2025, er som
tenåringens skråsikre «jeg får alle nyheter fra TikTok». Naivt, fordummende og
potensielt farlig.