I kunstig intelligens-verdenen er en af de største udfordringer at udvikle AI-systemer, der ikke kun er intelligente, men også handler i overensstemmelse med etiske normer og værdier, som stemmer overens med menneskers. En tilgang hertil er at træne AI ved hjælp af lovtekster og retspraksis som grundlag. Denne artikel undersøger denne metode og ser på supplerende strategier for at skabe en AI med menneskelignende normer og værdier. Jeg har også fremsat dette forslag på vegne af den hollandske AI-koalition til Justits- og Sikkerhedsministeriet i et strategioplæg, som vi udarbejdede på ministeriets vegne.
Brug af GAN'er til at identificere huller
Generative Adversarial Networks (GAN'er) kan fungere som et værktøj til at opdage mangler i lovgivningen. Ved at generere scenarier, der falder uden for de eksisterende love, kan GAN'er afdække potentielle etiske dilemmaer eller uadresserede situationer. Dette gør det muligt for udviklere at identificere og adressere disse huller, så AI får et mere fuldstændigt etisk datasæt at lære af. Selvfølgelig har vi også brug for jurister, dommere, politikere og etikere for at finjustere modellen.
Selvom træning på lovgivning er et solidt udgangspunkt, er der nogle vigtige overvejelser:

For at udvikle en AI, der virkelig resonerer med menneskelig etik, er en mere holistisk tilgang nødvendig.
1. Integration af kulturelle og sociale data
Ved at udsætte AI'en for litteratur, filosofi, kunst og historie kan systemet opnå en dybere indsigt i den menneskelige tilstand og kompleksiteten af etiske problemstillinger.
2. Menneskelig interaktion og feedback
Involvering af eksperter inden for etik, psykologi og sociologi i træningsprocessen kan hjælpe med at finjustere AI'en. Menneskelig feedback kan tilføre nuancer og rette op, hvor systemet mangler.
3. Kontinuerlig læring og tilpasning
AI-systemer bør designes til at lære af ny information og tilpasse sig skiftende normer og værdier. Det kræver en infrastruktur, der muliggør løbende opdateringer og gen-træning.
4. Transparens og forklarlighed
Det er afgørende, at AI-beslutninger er transparente og forklarlige. Det fremmer ikke blot brugernes tillid, men giver også udviklere mulighed for at evaluere etiske overvejelser og justere systemet efter behov.
At træne en AI på baggrund af lovtekster og retspraksis er et værdifuldt skridt mod at udvikle systemer med forståelse for menneskelige normer og værdier. For at skabe en AI, der virkelig handler etisk på en måde, der ligner menneskers, er der dog behov for en tværfaglig tilgang. Ved at kombinere lovgivning med kulturelle, sociale og etiske indsigter og ved at integrere menneskelig ekspertise i træningsprocessen kan vi udvikle AI-systemer, der ikke kun er intelligente, men også vise og empatiske. Lad os se nærmere på hvad de fremtid kan bringe
Yderligere kilder: