Spring til indhold.
Forside

Nyhed

AAU-forskning: Sådan får chatbotten din tillid

Lagt online: 06.08.2025

Stoler du på ChatGPT og andre chatbots? Det afhænger af sproget, viser forskning fra AAU-studerende.

Nyhed

AAU-forskning: Sådan får chatbotten din tillid

Lagt online: 06.08.2025

Stoler du på ChatGPT og andre chatbots? Det afhænger af sproget, viser forskning fra AAU-studerende.

Af Peter Witten, AAU Kommunikation og Public Affairs

Kunstig intelligens/AI bliver en stadig større del af vores liv - men det er ikke uden problemer. 

For kan vi stole på de oplysninger, vi får fra for eksempel ChatGPT og andre chatbots? Eller risikerer vi at følge forkerte råd, fordi vi blindt tror på AI? 

Ny forskning fra Aalborg Universitet viser, at sproget har stor betydning for vores tillid til chatbots.

For stor tillid kan føre til AI-afhængighed, mens manglende tillid kan få os til at afvise brugbar og nyttig hjælp.

Cecilie Ellegaard Jacobsen, Emma Holtegaard Hansen og Tania Argot, AAU-studerende

De studerende Cecilie Ellegaard Jacobsen, Emma Holtegaard Hansen og Tania Argot fra Institut fra Datalogi har i deres kandidatspeciale undersøgt, hvordan vi mennesker opfatter og reagerer på de svar, vi får fra chatbots.

Specialdesignet chatbot

De tre AAU-studerende gennemførte forsøg med en specialdesignet chatbot baseret på ChatGPT.  24 prøvedeltagere blev via den specielle chatbot stillet 20 ja/nej-spørgsmål om musik, sundhed, geografi og fysik.

Det afgørende var ikke spørgsmålene, men svarene. Chatbotten svarede i fire forskellige stilarter:

  • Sikker og personlig: "Jeg er sikker på, at…"
  • Usikker og personlig: "Jeg tror måske, at…"
  • Sikker og upersonlig: "Systemet har fundet, at…"
  • Usikker og upersonlig: "Systemet har muligvis fundet, at…"

Formålet var at undersøge, hvordan graden af sikkerhed og chatbottens selvfremstilling ("jeg" eller "systemet") påvirkede deltagernes tillid - både hvordan de opfattede svarene, og hvordan de reagerede.

Når chatbotten svarede sikkert, steg brugernes oplevede tillid, især i forhold til chatbottens kompetence. Deltagerne vurderede sikre svar som mere troværdige og valgte oftere chatbotten som vigtigste informationskilde.

Nul tillid

Nogle af de 24 deltagere blev dog skeptiske, når chatbotten virkede for selvsikker, især hvis den ikke kunne underbygge svaret. “Hvis den var for skråsikker, mistede jeg tilliden med det samme,” sagde en deltager.

Nogle mente, at chatbotten virkede mere ærlig, menneskelig og ydmyg, når den svarede usikkert. "Det virkede ærligt, når den sagde ‘jeg er ikke sikker’,” bemærkede en af deltagerne.

Andre foretrak en mere neutral sprogstil.

Tror du på alt, hvad chatbotten svarer?
Foto: Colourbox

Google-tjek

Som led i forsøget kunne deltagerne også se Googles top-søgeresultat som alternativ kilde. Mange deltagere brugte Google som en slags "sandhedstjek" og stolede ofte mere på Google, selv når chatbotten og Google kom med samme svar.

Tilliden til kunstig intelligens handler altså ikke kun om sproget, men også om forudindtagede holdninger og vaner.

Bevidst usikkerhed

På baggrund af undersøgelsen har de tre studerende disse anbefalinger til designere af AI-systemer som chatbots:

  • Brug usikkerhed bevidst. Når AI udtrykker tvivl, kan det hjælpe brugeren med at justere sin tillid og undgå blind tro på kunstig intelligens.
  • Tilpas graden af menneskelighed. En vis grad af personlighed kan øge tilliden, men det skal ske med omtanke. For meget "menneskelighed" kan virke utroværdigt.

"Specialet viser, at vores tillid til AI er kompleks og afhænger af situationen. Det handler ikke kun om, hvorvidt vi stoler på AI, men hvordan og hvor meget. For stor tillid kan føre til AI-afhængighed, mens manglende tillid kan få os til at afvise brugbar og nyttig hjælp fra AI. Den hårfine grænse kan variere fra person til person, og det kommer ikke kun an på AI-sproget, men også den enkeltes forudindtagede holdninger og vaner," konkluderer Cecilie Ellegaard Jacobsen, Emma Holtegaard Hansen og Tania Argot.

Den indsigt kan bruges til bedre at kalibrere brugernes tillid til fremtidige AI-systemer, så man mindsker risikoen for, at folk blindt følger forkerte AI-råd.

Niels van Berkel, professor, Institut for Datalogi

Professor Niels van Berkel fra Institut for Datalogi, AAU, var vejleder på kandidatprojektet. Han fastslår, at der i høj grad er brug for at forstå, hvordan vi mennesker vurderer og vælger at stole på AI.

"De studerende viste, at både oplevet og faktisk tillid kan påvirkes af, hvordan AI'en præsenterer sin egen sikkerhed og hvordan den omtaler sig selv. Den indsigt kan bruges til bedre at kalibrere brugernes tillid til fremtidige AI-systemer, så man mindsker risikoen for, at folk blindt følger forkerte AI-råd," siger han.

Fakta

  • Projektnavn: Kandidatspecialets titel er "Framing the Machine: The Effect of Uncertainty Expressions and Presentation of Self on Trust in AI”.
  • Formål: At undersøge, hvordan graden af sikkerhed og chatbottens sproglige selvfremstilling påvirkede deltagernes tillid.
  • Deltagere: 24 personer i alderen 20 til 59 år deltog i undersøgelsen: Ni mænd, 14 kvinder og en non-binær.
  • Teamet: Emma Holtegaard Hansen, Tania Argot og Cecilie Ellegaard Jacobsen på uddannelsen Digitalisering og applikationsudvikling, Institut for Datalogi, Aalborg Universitet.

Digitalisering og applikations­udvikling

Uddannelsen i Digitalisering og applikationsudvikling er designet til studerende, som ikke har en IT-baggrund, for at imødekomme et stort behov i IT-branchen: Folk, der både ved noget om IT og mennesker.

Læs mere om uddannelsen

Læs også