KOMMENTAR

Svarer Bleed-sjef: - Christoffer Nøkleby har åpenbart rett i at man skal være kritisk til egen bruk av store språkmodeller, men det holder ikke å bare advare mot dårlige svar, skriver Martin Jensen i Try.

- Gud bedre så mye flinkere KI blir med litt hjelp

- Et KI-verktøy med riktig kontekst kan produsere kampanjetekster som faktisk treffer merkevaren

Publisert

For noen måneder siden ba vi alle i en intern kanal hos oss i Try om følgende: «Velg et tilfeldig tall mellom 1 og 25.» Vi ba dem spørre sin KI-modell. De fleste fikk 17. Hvorfor? Fordi 17 for modellen virker tilfeldig, et primtall midt i skalaen, verken for lavt eller for høyt. Den velger det mest sannsynlige svaret basert på mønstre - ikke ekte tilfeldigheter som mennesker har en tendens til å sette pris på.

Christoffer Nøkleby har åpenbart rett i at man skal være kritisk til egen bruk av store språkmodeller, men det holder ikke å bare advare mot dårlige svar. Vi må heller vise folk hvordan de får ut de beste resultatene av det som bare er et verktøy.

FRA BYRÅGUIDEN

TRY-huset

Betalt innhold

I Try og hos kundene vi har mye opplæring hos om dagen, ser vi at en av de største barrierene for å komme i gang med KI er nettopp alle de negative historiene om hvor dårlig det blir. Folk har hørt om hallusinerte fakta og generisk tullball, så de gidder ikke engang å prøve. Det de egentlig har hørt om er jo dårlig bruk av verktøyet. Det vi må møte dette med er opplæring og kunnskap, så vi ikke får et gap mellom de som blir gode og de som ikke tør eller orker sette i gang.

Vi har brukt det siste året på å tenke gjennom hvordan vi gir KI-systemer det de trenger for å levere. Vi kaller det kontekstdesign, det som tidligere gikk under navnet ‘prompt engineering’. Men dette handler om mye mer enn bare å skrive gode instruksjoner til din valgte robot. Det handler om å forstå hvilke dokumentstrukturer språkmodellene er flinkest til å lese og forstå, hvordan informasjon må organiseres for å gi stabile resultater, og ikke minst hvordan vi tvinger frem faktasjekking og kildebruk.

Heldigvis jobber OpenAI, Google, Anthropic og alle andre som lager språkmodeller nå selv hardt for å bygge mekanismer som henter faktisk ekte informasjon, enten via nettsøk eller via dokumenter du kobler på. Vi har fortsatt mye å lære om hvordan man best skal gi språkmodeller kontekst, siden de har et begrenset korttidsminne. Men bare det enkle ved å peke en modell mot riktig kildegrunnlag, enten det er relevante nettsider eller intern kunnskap, gjør en stor forskjell.

Vi bygger nå KI-verktøy for våre kunder som kommer lastet med merkevarestrategier, tonalitetsguider og faktadokumenter. Når en kunde bruker disse verktøyene får de ikke generisk tullball, de får innhold som er forankret i deres egen virkelighet, deres egne dokumenter, deres egen strategi. Og det funker. Et KI-verktøy med riktig kontekst kan produsere kampanjetekster som faktisk treffer merkevaren. Et verktøy uten kontekst dikter opp nedlagte byråer og fiktive rangeringer.

Som Nøkleby sier: Spørsmålet er ikke «skrev du dette med KI?», eller «går du faglig god for det?», men kanskje «hva ga du KI å jobbe med?».

Så ja, ukritisk bruk av KI-basert research i oktober 2025 kan være naivt og fordummende. Men kritisk bruk, med gjennomtenkt kontekstdesign og skikkelige kvalitetssikringsrutiner? Det er ikke bare fremtiden, det er hvordan de beste allerede jobber i dag.

Powered by Labrador CMS