Annonser i ChatGPT? Nei takk.
Da OpenAI nylig fortalte at selskapet vil bygge annonser inn i ChatGPT-samtaler, sa jeg opp abonnementet samme dag.
Jeg sa opp abonnementet på ChatGPT dels av nyttebetraktning, men mest av prinsipp: Et råd du ikke kan stole på, er ikke et råd – det er støy.
Beslutningen tvang meg til å tenke gjennom hva som egentlig skjer når de største KI-aktørene nå velger fundamentalt ulike måter å fange verdier på. Det handler ikke bare om reklame. Det handler om hvem som eier tilliten i fremtidens beslutningsstøtte, og hva det koster å miste den.
Vareprat er råd mellom mennesker, gitt uten egeninteresse og i beste mening. Nettopp fordi avsenderen ikke forventes å tjene på rådet, er det en av de mest troverdige formene for påvirkning vi kjenner.
Med sosiale medier fikk vi en industrialisering av vareprat: plattformer som solgte innsikt i brukerdialoger til annonsører for presist målrettet påvirkning.
Kunstig intelligens (KI) og chatboter representerer en tredje fase. Den er mer inngripende enn de to foregående.
For mange brukere oppleves en KI-chatbot som en tillitsfull samtalepartner. Forskning på parasosiale relasjoner viser at mennesker utvikler emosjonelle bånd til slike systemer, særlig når de opplever forståelse og støtte. Dette inviterer til personlige samtaler i den tro at «det blir mellom oss». Når denne kunnskapen brukes kommersielt i den samme dialogen, viskes skillet mellom nøytralt råd og betalt påvirkning gradvis ut.
Et «forslag» kan i praksis være annonseplassering – uten at brukeren merker overgangen.
Hvorfor ikke bare bytte bare til en leverandør uten reklame, for eksempel Gemini eller Grok?
I praksis er dette vanskeligere enn det høres ut. Moderne KI-tjenester lagrer kunnskap om deg og innholdet i tidligere samtaler og bruker det til å skreddersy svar over tid. For brukeren fremstår det som at «den kjenner meg». Et bytte har derfor reelle kostnader: All kunnskap må bygges opp på nytt.
Kombinasjonen av minne og emosjonell tilknytning skaper innelåsing, et naturlig monopol i miniatyr, som kan utnyttes kommersielt.
Unge gründere gir opp etter ett «nei»
OpenAI presenterer annonser som en innovasjon. Det er i realiteten et forsøk på å lappe en uferdig forretningsmodell og setter inntektsmodellen i direkte konflikt med produktets viktigste ressurs: tillit til at svaret er uavhengig og brukerorientert.
At to betydelige aktører velger bort denne inntektskilden er ikke tilfeldig: Markedet har allerede oppfattet at annonser i KI-samtaler er et strategisk feilspor.
Erfaringene fra sosiale medier er ikke oppmuntrende: Annonseoptimalisering driver tjenester mot adferdsdesign og utnyttelse av oppmerksomhet. Når det samme skjer i et grensesnitt som selges inn som beslutningsstøtte, øker omdømmerisikoen dramatisk.
For virksomheter som selv bruker KI i kundedialog, er implikasjonen enkel: Ville en informert og kritisk kunde oppleve hvordan dere tjener penger som rettferdig?
Hvis svaret er «tja», har dere et strategisk problem, ikke et kommunikasjonsproblem.
Den viktigste lærdommen er denne: Et verdiforslag uten en rettferdig modell for verdiskaping og verdifangst er ikke en forretningsmodell – det er en midlertidig pengeflyt. Selskaper som kommersialiserer det brukeren opplever som tillitsfull dialog, og som bygger inn høye byttekostnader gjennom minne og emosjonell binding, undergraver sin egen inntektsstrøm.
Profesjonelle investorer vil prise det inn.
Ingen går fortere konkurs enn virksomheter som mister kundenes tillit. Jeg har gjort mitt.
Innlegget var først publisert i DN 22 februar 2026.