Nyhed
Fornem hæder til AAU-forsker: Vil afsløre "AI-forgiftning"
Lagt online: 24.06.2025

Nyhed
Fornem hæder til AAU-forsker: Vil afsløre "AI-forgiftning"
Lagt online: 24.06.2025

Fornem hæder til professor Johannes Bjerva
Nyhed
Lagt online: 24.06.2025
Nyhed
Lagt online: 24.06.2025
Af Peter Witten, AAU Kommunikation og Public Affairs
Foto: DFF
"Jeg er stolt. En kæmpe anerkendelse af min forskning," siger professor Johannes Bjerva fra Institut for Datalogi, AAU.
Han er blevet tildelt Sapere Aude, en af de mest prestigefulde forskningsbevillinger i Danmark. Forskningsleder-bevillingen er på knap 6,2 millioner kroner og uddeles af Danmarks Frie Forskningsfond.
Millionerne skal bruges til at dykke ned i, hvad der potentielt kan koste menneskeliv.
Johannes Bjervas forskningsprojekt TRUST tager udgangspunkt i, at det bliver sværere og sværere at se, om det vi læser på computerskærmen, er skrevet af et menneske eller en sprogmodel, LLM (Large Language Model) - kunstig intelligens.
Når vi bruger for eksempel ChatGPT, ved mange godt, at vi i nogle tilfælde kan få forkerte svar på vores spørgsmål.
Mange ved dog ikke, at den underliggende AI-teknologi er sårbar og kan manipuleres eller "forgiftes" via hackerangreb. Det kan føre til misinformation - eller det, der er værre.
Kunstig intelligens og sprogmodeller bruges i dag til langt mere end at skrive en hurtig stil med hjælp fra ChatGPT.
I dag er sprogmodeller integreret i kritiske funktioner i for eksempel sundhedsvæsenet. Det betyder, at hackerangreb kan få alvorlige konsekvenser for behandlingen af patienter og i yderste konsekvens koste liv.
Bekymringen om systemers pålidelighed og sikkerhed gælder ikke kun kritisk udstyr i sundhedsvæsenet, men også hos uddannelser og mange andre steder i samfundet.
Og bekymringen bliver ikke mindre af, at de inficerede systemer, sprogmodeller, måske først begynder at manipulere og misinformere senere. Som en slags "sleeper agent", der pludselig vågner og går i aktion, nævner Johannes Bjerva.
Det skal TRUST-projektet forsøge at forhindre. Forskningsprojektet vil bidrage med grundforskning med det mål at afdække skjulte mønstre i AI-skabt tekst ved at studere sproglige strukturer. Blandt andet sætningsstruktur, ordformer og betydningen af ordene.
Ved at finde frem til variationer i teksten skal projektet udvikle metoder til at opdage både kunstigt skabt tekst og tilfælde, hvor sprogmodeller er blevet manipuleret af folk med onde hensigter.
"Vi kan blive påvirket på subtile måder. Kerneproblemet er, hvis nogen er i stand til at indsætte en struktureret bias, der kan påvirke os over længere tid, uden at vi er klar over det," siger Johannes Bjerva.
TRUST-projektet varer fire år og vil undersøge problemet på tværs af flere sprog og uafhængigt af bestemte sprogmodeller.
Ifølge Johannes Bjerva findes der ikke lignende forskningsprojekter i Europa, og i TRUST-projektet vil man samarbejde med institut for lingvistik på Stockholms Universitet.
Fakta