Examining Users' Behavioural Intention to Use OpenClaw Through the Cognition--Affect--Conation Framework

Deze studie analyseert met behulp van het CAC-kader hoe cognitieve waarnemingen en affectieve reacties, beïnvloed door zowel bevorderende als remmende factoren, de gedragsintentie van gebruikers om OpenClaw te gebruiken vormgeven.

Yiran Du

Gepubliceerd 2026-03-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🤖 De "Digitale Hulp" die echt werk doet: Wat maakt dat we OpenClaw vertrouwen?

Stel je voor dat je een nieuwe digitale assistent hebt, laten we hem OpenClaw noemen. In tegenstelling tot een gewone chatbot die alleen maar tekstjes schrijft, is OpenClaw als een robot-butler die écht werk voor je doet. Hij kan bestanden openen, e-mails sturen, data zoeken en zelfs complexe taken in één keer afhandelen.

Maar hier is het probleem: omdat deze robot-butler echt dingen doet op je computer, durven veel mensen hem niet direct aan te sturen. De vraag die de onderzoeker Yiran Du van de Universiteit van Cambridge wilde beantwoorden is: "Waarom besluiten mensen wel of niet om zo'n robot-butler te gebruiken?"

Om dit uit te leggen, gebruikte ze een slimme denkwijze die ze het C-A-C-model noemen. Laten we dat vergelijken met het proces van een nieuwe auto kopen.

1. Het C-A-C Model: Denken, Voelen, Doen

Het onderzoek kijkt naar drie stappen die in je hoofd afspelen voordat je een beslissing neemt:

  • Cognitie (Denken): Dit is je verstand. Je kijkt naar de specificaties van de auto. "Is hij snel? Is hij zuinig? Kost hij te veel geld?"
    • Bij OpenClaw: Denk je: "Kan hij mijn taken slim aanpakken? Is hij persoonlijk voor mij? Is hij beter dan mijn oude methoden?"
  • Affect (Voelen): Dit is je hart. Na het nadenken krijg je een gevoel. "Ik vind deze auto leuk!" of "Ik heb een onveilig gevoel bij die auto."
    • Bij OpenClaw: Je krijgt een positief gevoel (ik vind het een goed idee) of een negatief gevoel (ik vertrouw het niet, ik ben bang).
  • Conatie (Doen): Dit is je actie. Op basis van je gevoel besluit je of je de auto koopt of niet.
    • Bij OpenClaw: Je besluit: "Ja, ik ga OpenClaw gebruiken" of "Nee, ik laat het maar."

2. De "Goede" Factoren (De Brandstof voor je vertrouwen)

Het onderzoek toont aan dat drie dingen je verstand positief maken, wat leidt tot een goed gevoel en uiteindelijk gebruik:

  • Persoonlijke maatwerk (Personalisation): Stel je voor dat je robot-butler precies weet dat je koffie houdt met suiker en dat je altijd op dinsdag je rapporten moet maken. Hij doet dit automatisch.
    • Effect: Je denkt: "Hij is op mij ingesteld!" -> Je voelt je begrepen -> Je wilt hem gebruiken.
  • Slimheid (Intelligence): Je robot-butler maakt geen domme fouten en begrijpt wat je bedoelt, zelfs als je het niet duidelijk zegt.
    • Effect: Je denkt: "Hij is echt slim." -> Je voelt je veilig -> Je wilt hem gebruiken.
  • Het grote voordeel (Relative Advantage): De robot-butler doet werk in 5 minuten dat jij uren zou doen.
    • Effect: Je denkt: "Dit scheelt me enorm veel tijd." -> Je voelt je productief -> Je wilt hem gebruiken.

3. De "Slechte" Factoren (De rem op je vertrouwen)

Aan de andere kant zijn er drie dingen die je verstand negatief maken, wat leidt tot wantrouwen en geen gebruik:

  • Privacy-zorgen: Je robot-butler heeft toegang tot al je bestanden. "Wat doet hij met mijn privé-gegevens?"
    • Effect: Je denkt: "Hij leest mijn post." -> Je voelt je onveilig -> Je wilt hem niet gebruiken.
  • De "Zwarte Doos" (Algorithmic Opacity): Je ziet niet hoe de robot-butler tot een beslissing komt. Het is een raadsel.
    • Effect: Je denkt: "Ik snap niet wat hij doet." -> Je voelt je onzeker -> Je wilt hem niet gebruiken.
  • Risico: "Wat als hij per ongeluk mijn hele agenda verwijdert?"
    • Effect: Je denkt: "Het kan misgaan." -> Je voelt je angstig -> Je wilt hem niet gebruiken.

4. Wat leerden ze uit de enquête?

De onderzoeker vroeg aan 436 mensen die OpenClaw al hadden gebruikt, wat zij dachten en voelden. De resultaten waren heel duidelijk:

  1. Positieve gedachten leiden tot actie: Als mensen dachten dat OpenClaw slim, persoonlijk en nuttig was, kregen ze een goed gevoel. Dit goede gevoel was de belangrijkste reden waarom ze het wilden blijven gebruiken.
  2. Negatieve gedachten leiden tot wantrouwen: Als mensen bang waren voor privacy, niet snapten hoe het werkte of risico's zagen, ontstond er wantrouwen. Dit wantrouwen was een enorme rem: zelfs als de tool slim was, durfden mensen het niet te gebruiken als ze het niet vertrouwden.

🎯 De Conclusie in het kort

Om mensen te laten werken met een slimme robot-butler zoals OpenClaw, moet je twee dingen doen:

  1. Maak het nuttig en slim: Zorg dat de robot echt helpt en op maat gemaakt is (dit geeft een goed gevoel).
  2. Maak het veilig en transparant: Zorg dat mensen weten wat de robot doet en dat hun gegevens veilig zijn (dit wekt wantrouwen op).

De les voor ontwikkelaars: Je kunt de slimste robot ter wereld bouwen, maar als mensen bang zijn dat hij hun privacy schendt of als ze niet snappen hoe hij werkt, zullen ze de "startknop" nooit indrukken. Vertrouwen is de sleutel.