Vurderingsskemaet hjælper dig med at få styr på dataetikken, når du samkører data. Formålet med vurderingsskemaet er ikke at frembringe en éntydig dataetisk konklusion i forhold til det givne projekt, som du står med. Vurderingsskemaet skal i stedet øge dit kendskab til og bevidsthed om dataetik og give anledning til at du gør dig bredere, dataetiske overvejelser og træffer beslutninger, der er dataetisk forsvarlige.
Med det dataetiske vurderingsskema har du nu skabt et overblik over, om der er dataetiske risici forbundet med den planlagte samkøring. Viser vurderingsskemaet, at samkøring har risici eller høj risici, anbefaler Dataetisk Råd at, myndigheden nu går i gang med konsekvensanalysen. Analysen kan dog også anvendes, selvom resultatet af vurderingsskemaet viser, at der er en mindre dataetisk risiko.
Dataetik er vigtigt, men etiske vurderinger kan være svære at sætte i system og indarbejde i hverdagen. Derfor har Dataetisk Råd udviklet et praktisk værktøj, som kan hjælpe dig med at skabe mere bevidste og velovervejede valg. Dataetisk Råd har udviklet et bud på en metode, som er let at anvende og kan bruges til både hverdagens beslutninger og til de større strategiske valg.
Efter en balanceret afvejning af gevinster og skadevirkninger er det i et dataetisk perspektiv positivt, at politiet får adgang til digitale værktøjer, der kan sikre bekæmpelse af børnemisbrugsindhold, skriver Johan Busse.
Elon Musks overtagelse af Twitter kan vise sig positiv for så vidt angår den åbenhed om algoritmerne, som han har bebudet, skriver Johan Busse.
En ny lov giver Skat ekstremt vide rammer til at indsamle oplysninger og bruge dem til maskinelt at vurdere risikoen for, om du snyder i skat. Er Folketingets medlemmer mon klar over, hvor alvorlige etiske og retssikkerhedsmæssige risici, det medfører? spørger formand for Dataetisk Råd, Johan Busse.
Tilsynet med anvendelsen af kunstig intelligens bør bygge på uafhængighed, erfaring og ekspertise. Hvis erhvervsliv, kommunerne eller andre mener, at der er for mange juridiske forhindringer for at udnytte ny teknologi, er det lovgivningen der skal kritiseres – ikke tilsynets håndhævelse af gældende regler, skriver Johan Busse, formand for Dataetisk Råd.
Den kommende regering bør have fokus på ikke at ekskludere store dele af befolkningen i digitaliseringen, og så bør vi arbejde mod at blive uafhængige af techgiganterne, skriver Johan Busse.
De offentlige myndigheder har følsom information om os alle sammen og kan træffe beslutninger, der har stor betydning for vores liv. Så der er mange dataetiske spørgsmål at være opmærksom på, når det kommer til brugen af kunstig intelligens, skriver otte medlemmer af Dataetisk Råd.
Sagen om, at Google er blevet inviteret ind i klasseværelset, understreger konsekvenserne af digitaliseringen, når de dataetiske refleksioner er fraværende, skriver Johan Busse.
I skolen lærer man at læse, skrive og regne. Og nu også at chatte med kunstig intelligens. Det kan i sig selv virke uproblematisk, men vi bliver nødt til at diskutere, hvornår interaktion med kunstig intelligens kan siges at være læring, skriver Johan Busse.
Det er ikke for sent at komme i gang med at udvikle løsninger, der sikrer privatlivet på internettet og sørger for, at mindreårige ikke får adgang til uegnet indhold. Men det kræver vilje til at prioritere dataetik, skriver Johan Busse.
Der er behov for stærkere rammer for dataetikken og den ansvarlige anvendelse af data i Danmark. Politikerne bør rådføre sig blandt danske initiativer på området og etablere digitaliseringsudvalg i både Folketinget, kommunerne og regionerne, skriver Johan Busse og Lisbeth Knudsen.
HR-tech kan spare virksomheder for mange penge, når der skal rekrutteres. Men selv hvis 'briller' og det 'ikke at blive ansat' korrelerer statistisk, så ønsker vi ikke, at vores HR-tech sorterer bebrillede kandidater fra. Derfor har vi brug for højere kvalitetskrav, skriver Johan Busse.