Nyhed
Effektiv retshåndhævelse kan beskytte børn og unge mod skadelige virkninger af kunstig intelligens

Nyhed
Effektiv retshåndhævelse kan beskytte børn og unge mod skadelige virkninger af kunstig intelligens

Effektiv retshåndhævelse kan beskytte børn og unge mod skadelige virkninger af kunstig intelligens
Nyhed
Nyhed
Af Nelly Sander, AAU Kommunikation og Public Affairs
Foto: Svenn Hjartarson, Studio 03
Når børn og unge i stadigt større omfang eksponeres for AI, risikerer vi at udfordre deres kritiske og kreative evner i en grad, vi har svært ved at forestille os. Og ganske vist har vi lovgivning, herunder databeskyttelsesforordningen (GDPR) og markedsføringsloven, som sætter grænser for, hvad virksomheder og andre lovligt kan foretage sig i den retning, men ifølge juraprofessor Jan Trzaskowski står det sløjt til med den effektive håndhævelse
Markedsføringsloven forbyder aggressiv handelspraksis, og GDPR sætter grænser for, indsamling og anvendelse af personoplysninger. Begge regelsæt indeholder en særlig høj beskyttelse, når det kommer til børn og unge.
Der er primært to udfordringer, når det kommer til retshåndhævelse i forbindelse med nye former for informationsteknologi. Myndigheder og domstole skal først og fremmest finde ud af, hvordan teknologien kan kvalificeres i den juridiske verden; altså hvordan kan reglerne anvendes, og derudover har vi i stigende grad med store og magtfulde internationale virksomheder at gøre, hvilket ofte gør håndhævelsen besværlig, dyr og langsom.
Juraprofessoren advarer mod den eksisterende laissez-faire-holdning til brugen af kunstig intelligens. Bl.a. på grund af den negative effekt, AI-teknologier kan have på børn og unges trivsel. Han minder om de udfordringer, vi efterhånden har fået øjnene op for i forhold til de sociale medier, som kan siges at være en forløber for AI:
"Vi risikerer at begå samme fejl igen. Virksomhedernes mål med chatbotterne er at fastholde brugerne og indsamle personoplysninger, og vores fokus bør ikke være på teknologien, men på de underliggende incitamentsstrukturer og de medfølgende risici, hvoraf underminering af kritisk og kreativ tænkning er en af dem. Vi ser det med My AI og ikke mindst Character AI, som har ført til selvmord blandt unge,” siger han.
My AI og Character AI er avancerede chatfunktioner, der anvender kunstig intelligens til at efterligne menneskelig samtale. Begge teknologier har potentiale til at påvirke den mentale trivsel hos unge, især når teknologien skaber afhængighed, som trækker børn væk fra de menneskelige relationer.
Generativ AI er et nyt og brugbart redskab, men det er ifølge professoren vigtigt at være bevidst om, hvor dominerende en plads det får i børn og unges opdragelse og uddannelse. At de forstår teknologien, er vigtigt for deres demokratiske dannelse, og vi skal være særligt opmærksomme på ikke at give yngre generationer indtryk af, at mestring af AI er kernen i uddannelse og fremtidig succes.
"Det er lidt ligesom med lommeregneren, om end de mulige konsekvenser med den er knap så alvorlige. Med lommeregneren risikerer vi at blive dårligere til hovedregning, hvorimod AI risikerer at underminere vores evne til at tænke. AI er meget hypet i øjeblikket, og mange overser risiciene ved det, herunder at det ikke nødvendigvis er hele fremtiden,'" siger Jan Trzaskowski
Mens vi venter på den effektive håndhævelse, opfordrer Jan Trzaskowski virksomheder og andre organisationer, herunder uddannelsesinstitutioner, til også at overveje de langsigtede konsekvenser af brugen af AI.
”De demokratiske grundrettigheder kan bruges som kompas. Ved at prioritere menneskelig værdighed og ansvarlig brug af AI kan vi sikre, at børn og unge bedre kan trives i en verden, hvor teknologien tjener menneskeheden og måske i mindre omfang skader det klima, de og deres børn skal leve i,” siger han
Noter