Kunstig intelligens spiller en stadig større rolle i sundheds- og velfærdssektoren. AI anvendes allerede til at støtte faglige vurderinger, effektivisere arbejdsgange og påvirke relationen til patienter og borgere. Men med de teknologiske muligheder følger også nye dataetiske dilemmaer og spørgsmål om ansvar, gennemsigtighed og værdier. I første halvår af 2025 har Dataetisk Råd gennemført et projekt om brugen af AI i sundheds- og velfærdsteknologier – med særligt fokus på de dataetiske perspektiver. Gennem samtaler med fagfolk, besøg hos AI-projekter og et bredt symposium har vi indsamlet erfaringer fra praksis og sat dem i en større etisk og samfundsmæssig kontekst. Projektet munder ud i fire anbefalinger til, hvordan AI kan anvendes ansvarligt og værdibaseret – med respekt for de grundprincipper, sundhedsvæsenet hviler på.
Dataetisk Råds formål er at skabe et forum, som dels kan skabe en dataetisk debat, dels løbende kan understøtte en ansvarlig og bæredygtig dataanvendelse i erhvervslivet og i den offentlige sektor. Dataetisk Råd skal opnå formålet ved bl.a. rådgivning, anbefalinger, redegørelser og udtalelser om almene og principielle dataetiske spørgsmål samt anden debatskabende aktivitet. En del af dette arbejde består i at udarbejde høringssvar. Nedenfor ses rådets afgivne høringssvar.
De offentlige myndigheder har følsom information om os alle sammen og kan træffe beslutninger, der har stor betydning for vores liv. Så der er mange dataetiske spørgsmål at være opmærksom på, når det kommer til brugen af kunstig intelligens, skriver otte medlemmer af Dataetisk Råd.
Sagen om, at Google er blevet inviteret ind i klasseværelset, understreger konsekvenserne af digitaliseringen, når de dataetiske refleksioner er fraværende, skriver Johan Busse.
Den kommende regering bør have fokus på ikke at ekskludere store dele af befolkningen i digitaliseringen, og så bør vi arbejde mod at blive uafhængige af techgiganterne, skriver Johan Busse.
I skolen lærer man at læse, skrive og regne. Og nu også at chatte med kunstig intelligens. Det kan i sig selv virke uproblematisk, men vi bliver nødt til at diskutere, hvornår interaktion med kunstig intelligens kan siges at være læring, skriver Johan Busse.
Det er ikke for sent at komme i gang med at udvikle løsninger, der sikrer privatlivet på internettet og sørger for, at mindreårige ikke får adgang til uegnet indhold. Men det kræver vilje til at prioritere dataetik, skriver Johan Busse.
Der er behov for stærkere rammer for dataetikken og den ansvarlige anvendelse af data i Danmark. Politikerne bør rådføre sig blandt danske initiativer på området og etablere digitaliseringsudvalg i både Folketinget, kommunerne og regionerne, skriver Johan Busse og Lisbeth Knudsen.
HR-tech kan spare virksomheder for mange penge, når der skal rekrutteres. Men selv hvis 'briller' og det 'ikke at blive ansat' korrelerer statistisk, så ønsker vi ikke, at vores HR-tech sorterer bebrillede kandidater fra. Derfor har vi brug for højere kvalitetskrav, skriver Johan Busse.