Det, der ligner modstand mod AI, er ofte en klog og etisk tilpasningsproces. Her er, hvad forskning fra danske hospitaler fortæller os, og hvad det betyder for din organisation.
AI er ikke bare et nyt digitalt værktøj. Det er en teknologi, der forandrer måden, vi forstår ansvar, faglig ekspertise og vores rolle i organisationen. Det ved jeg noget om, ikke kun fra teorien, men fra etnografiske studier på danske hospitaler, hvor jeg har fulgt sundhedsprofessionelle, der arbejder med AI i klinisk billeddiagnostik.
Mine studier viser noget, der er relevant for andre sektorer og fagområder end sundhedsvæsenet: Det, der ofte fejltolkes som tøven eller modstand mod AI, er i virkeligheden en klog, etisk og nødvendig tilpasningsproces.
Inden synlige forandringer i arbejdsgange opstår, sætter AI fire psykologiske dynamikker i bevægelse, der omformer oplevelsen af faglig dømmekraft.
Identitet. Professionelle henter mening i at kunne fortolke, vurdere og tage stilling. Kapaciteter, der konstituerer den enkelte professionelles identitet. I kraft at sin position som ’ekspert’ følger en række privilegier såsom magt, agtelse og ansvar, og man anerkendes som én der kan analysere og træffe beslutninger. Man har agens. Når AI begynder at tilbyde sine egne fortolkninger, vurderinger og forslag til konklusioner, rokkes denne konstitution af identiteten. Ikke fordi den professionelle er territorial, men fordi identitet er så tæt forbundet med det vi gør - vores praksisser. Så når vi skal løse opgaverne på en ny måde - med en teknologi, som vi ikke helt kan gennemskue, så udfordres vores professionelle identitet. Vores position som dén, der kan, opløses og skal sættes sammen på ny.
Ansvar. I mange fag er ansvaret både etisk og relationelt, og ikke blot en formel konstruktion, noget juridisk. Hvis AI bidrager til eller overskriver en faglig vurdering, opstår spørgsmålet: Hvem er egentlig ansvarlig? Svaret kan ikke forblive abstrakt. Omvendt kan AI heller ikke indgå i en etisk relation sådan som et menneske kan det.
Sandhed. AI-systemer producerer det, man kan kalde sandhedspåstande: de fremhæver mønstre, klassificerer og giver ’confidence scores’ (sandsyndigheder for udsagn). Når disse divergerer fra den faglige vurdering, er spørgsmålet ikke blot "hvem har ret?" men "hvordan integrerer vi to forskellige måder at vurdere ud fra?"
Tillid. Det kan handler ikke om, hvorvidt man kan lide teknologien, men om man forstår systemets adfærd godt nok til at træffe en fornuftig beslutning i et afgørende øjeblik. Tillid til AI’ens præcision, It-udbyderne, Ledelsen der har valgt netop denne AI-model, ens kollegaers brug af AI, og så tillid til sig selv: ”Kan jeg stadig stole på min egen faglighed?”
Disse fire dynamikker giver anledning til tre konkrete spændinger.
Spændingen mellem tillid og ekspertise opstår, når AI ”opdager” noget og markerer det (som i min forsknings tilfælde; på et røntgenbillede) – noget, en erfaren professionel enten ikke finder relevant eller helt overser. Så opstår et behov for forhandling mellem to "ekspertkilder" om ekspertpositioner og valid viden, og hvad ’faglig forpligtelse’ egentlig indebærer.
Spændingen om ansvar opstår, når en beslutning træffes i fællesskab af menneske og AI. De professionelle reagerer typisk ved at lave deres egen vurdering først og dernæst konsultere AI (som kan trykkes frem på computerskærmen). På den måde søger den professionelle at bevare det, man i den social-kognitive psykologi kalder sense of agency: en oplevelse af, at "det stadig er mig, der sidder i førersædet når det kommer til at træffe beslutninger og tage ansvar." Men de professionelle erfarer, at deres ekspert-beslutning præges af AI’s vurdering, da AI’s blotte tilstedeværelse i proceduren afslører vigtig information om sagen, og dét påvirker de professionelles beslutningsproces. Dette foruroliger dem, da hele deres autoritet beror på deres ekspertise som valideres i en uafhængig beslutningsproces. Denne risikeret at blive kompromitteret ved implementering af AI.
Spændingen om prioritering opstår, fordi potentielt modstridende interesser og formål med AI opstår. Hvor organisationen eller arbejdspladsen typisk har et formål med AI, at teknologien skal optimere processer, speede tempoet op og derved spare ressourcer. Imens kan de professionelle (på gulvet, i front eller hvor de nu opererer) have som interesse at prioritere at blive dygtigere til deres fag, gøre en bedre indsat for modtageren (patienten, borgeren, kunden). Det, der kan ligne ineffektivitet i den professionelles adfærd med AI som fx forbehold og indledende modstand, er ofte en bevidst sikkerhedsforanstaltning. Og så er der en tredje gruppe; modtageren, som kan have nogle helt andre formål som igen kan stikke i forskellige retninger: nogle ønsker hurtigere behandling og afklaring, mens andre ønsker en mere udførlig og omfattende behandling. Alle disse gruppers prioriteringer kan være så modstridende, at det kalder på ledelsesmæssig intervention for håndtering – i hvert fald hvis man ønsker at komme i mål med AI-implementeringen.
På baggrund af min forskning på danske hospitaler har jeg desuden formuleret en typologi, der dækker over fire måder, hvorpå professionelle samarbejder med AI (se Figur 1).
Parallel ekspertise: Den professionelle og AI analyserer uafhængigt, og fortolkningerne eksisterer side om side. Begge aktører er altså i stand til at løse opgaven alene, og AI kan på sin vis erstatte den professionelle. Omvendt kan man ved denne måde at arbejde med AI på, også få mulighed for at bevare sin agensfølelse fuldt ud idet fagpersonen kan forblive den egentlig ekspert – hvis altså man ikke er blevet totalt erstattet og derved totalt mistet sin agensfølelse. I denne samarbejdsmåde er spændingen vedr. tillid og ekspertise, særligt relevant.
Videregivet ekspertise: AI vurderes i denne samarbejdsmåde til at være eksperten kapabel til at løse opgaven alene og uafhængigt at den professionelle. Sidstnævnte får da til opgave at videregive AI’s analyse til omverdenen (patienten, kunden, borgeren, kollegaen). Da jeg startede min forskning, var denne samarbejdsmåde sjælden en realitet, men med udviklingen af LLM og GenAI antager jeg, at det er markant forandret. At lade AI være eksperten og svinge taktstokken i fht at hvad der er valid viden, kan være ressourcebesparende, men ganske risikabelt. Spændingen vedr. ansvar bliver højaktuel her både for organisationen, men også for den enkelte professionelle såfremt denne holdes ansvarlige for beslutninger, de ikke har formet endsige, kan gennemskue.
Augmenteret ekspertise: Den professionelle forbliver i denne samarbejdsmåde eksperten og ansvaret for beslutningen ligger derfor uden store problemer hos denne. AI bliver inddraget ved behov til at udvide perspektivet og undgå mulige blinde vinkler. Her bevarer den professionelle sin agensfølelse samtidigt med at AI's kapacitet udnyttes. Dog vil AI’s påvirkning af den professionelles analyse også virke ind på dennes ekspertise hvorved deres ekspertiser smeltes sammen. Ansvarsfølelsen for beslutningen der træffes, kan derfor blive tilsvarende udflydende.
Kollektiv ekspertise: Den professionelle og AI bidrager begge med de analyser, der skal til for at den samlede opgave kan løses. Der er stor grad af afhængighed og en form for gensidig augmentering. Ingen kan løse opgaven alene. Fordelingen kan være således: AI spotter mønstre, mens fagpersonen integrerer kontekst og erfaring. Denne samarbejdsform er den mest krævende, men også den med mest potentential for håndtering af store komplekse opgaver. Denne måde at arbejde med AI på fordrer alle tre spændinger jf. ovenfor – spændinger, som skal håndteres.
Figur 1 Fagperson-AI samarbejde - En typologi over ekspertise praksis med AI (Galsgaard et al., 2022)
Min forskning viser ikke, at folk er bange for AI. De har faktisk tidligt en forståelse af hvordan de skal bruge det ansvarligt: de udvikler strategier til at bevare deres agens og løse deres opgaver ordentligt dvs. fagetisk forsvarligt. De udvikler nye arbejdspraksisser: pauserer og forhandler valid viden på med AI og med kollegaer. De stiller spørgsmål. De udvikler ny fagfaglig viden og teknologisk viden. De taler med hinanden om hvad der skal bevares af deres faglige praksisser og hvad AI ”må få”. Alt sammen noget de gør for at beskytte integriteten i deres faglige rolle.
Bestræbelserne for HR og ledere bør ikke være ikke adoption, men design. Det handler om at skabe arbejdsgange, ansvarsstrukturer og beslutnings-mandat, der giver de professionelle mulighed for at arbejde professionelt, trygt og selvsikkert med AI.
I de sager, der lykkedes godt, skabte man rum til, at professionelle kunne teste systemet, sammenligne fortolkninger og rejse usikkerheder. De udviklede hvad jeg kalder ’interstitiel ekspertise’ dækkende en afklaring af alle de små processuelle mellemregninger – ofte usynlige – som deres faglige dømmekraft bestod af. For så at tage stilling til AI’s bidrag undervejs i denne proces.
Over tid og på baggrund af de professionelles erfaringer fik AI (både af ledelsen og den professionelle selv), andre positioner i samarbejdsrelationen. Den gik fx fra blot at skulle Augmentere den professionelle til at være bidragende i en Kollektiv ekspertise. Og i et andet tilfælde, fra at være eksperten i Videregivet ekspertise til først at være en Parallelle ekspertise, som den professionelle arbejdede side-om-side med, til så at blive en del af en Kollektive ekspertise-praksis.
Når ledere bygger de rette betingelser for at de professionelle kan gøre deres fag ’ordentligt’, så behøver AI ikke at svække fagligheden. Den kan styrke dem.
Astrid Galsgaard er klinisk psykolog og ph.d. i teknopsykologi fra Københavns Universitet. Astrid Galsgaards forskning i menneskelig-AI-samarbejde foregik under ansættelse ved Radiologisk AI Test Center (RAIT), Region Hovedstaden samt i samarbejde med Københavns Universitet, Institut for Psykologi. Artiklen bygger på hendes studier publiceret i European Journal of Radiology, Journal of Applied Behavioral Science og Nordic Journal of Working Life Studies, samt INSEAD Knowledge.
Galsgaard, A., Doorschodt, T., Holten, A-L., Müller, F., Boesen, M., & Maas, M. (2022). Artificial intelligence and multidisciplinary team meetings; a communication challenge for radiologists' sense of agency and position as spider in a web? European Journal of Radiology, 155, 110231. https://doi.org/10.1016/j.ejrad.2022.110231
Galsgaard, A., & Buch, A. (2025). Sorting out agencies in AI-supported radiological work practices. Nordic Journal of Working Life Studies. https://tidsskrift.dk/njwls/article/view/158107
Galsgaard, A., Holten, A-L., Boesen, M., & Müller, F. (2025). Professional expertise practice adaptation and sense of agency during AI implementation in radiology. Journal of Applied Behavioral Science. https://doi.org/10.1177/00218863251397562
Galsgaard, A., & Meyer, J. F. (2026). Unravelling the deep tensions of human–AI collaboration. INSEAD Knowledge. https://knowledge.insead.edu/leadership-organisations/unravelling-deep-tensions-human-ai-collaboration