Kunstig intelligens kan give dig flere ?r i f?ngsel
Jesper Ryberg, professor i etik og retsfilosofi ved 兴发娱乐官网手机版客户端 Universitet, er aktuel med antologien ”Sentencing and Artificial Intelligence”, hvor f?rende eksperter p? omr?det ser n?rmere p? de problematikker, som opst?r, n?r domstolene bruger kunstig intelligens (AI) til at udm?le straf.
”Noget af det, der g?r bogens emne h?jaktuelt er, at brugen af AI i strafudm?ling allerede bliver anvendt flere steder i verden. Man er p? vej med systemer i ?sten, og i USA benytter domstolene AI i s?kaldte risikovurderinger – det vil sige, om en lovovertr?der er en h?jrisiko eller lavrisiko forbryder. Din risikoprofil kan dermed have indflydelse p? straffens l?ngde, selvom tilsvarende forbrydelser er blevet straffet mildere,” fort?ller Jesper Ryberg.
If?lge professoren er en af fordelene ved at bruge AI til strafudm?ling, at man hurtigt bliver i stand til at foretage en vurdering p? baggrund af en stor m?ngde data. Problemet er dog, understreger han, at der ikke altid er gennemsigtighed i processen. Og AI-l?sninger er ikke bedre end de informationer, man fodrer dem med.
”Hvis man anvender machine learning, s? l?rer programmet l?bende ud fra de informationer, der er til r?dighed. Men det kan ogs? betyde, at det vil gentage bias. I den forbindelse er det derfor vigtigt at diskutere, hvorn?r forskelsbehandling er et problem, og hvorn?r det er berettiget,” forklarer Jesper Ryberg.
Og han forts?tter:
”Det handler om etik og retssikkerhed. Hvis man bruger for komplicerede algoritmer, s? kan det blive sv?rere af f? retlige begrundelser for en afg?relse. Hvilke faktorer tager man med i vurderingen? Og hvordan skal vi reagere og udm?le straffen, hvis fx risikovurderingen viser, at en person med en vis sandsynlighed vil beg? ny kriminalitet?” sp?rger han.
Computeren siger, du er h?jrisiko
Et eksempel fra USA viser, hvor problematisk det kan v?re at anvende AI ved domstolene. I 2013 i Wisconsin blev Eric Loomis d?mt seks ?rs f?ngsel for sin deltagelse i et drive-by shooting. Under sagen blev der lavet en risikovurdering, hvor man benyttede en algoritme (kaldet COMPAS), som viste, at Loomis havde h?j risiko for at falde tilbage i ny kriminalitet.
Loomis ville dog vide, hvordan algoritmen var n?et frem til den vurdering. Sagen endte i Wisconsins h?jesteret, som fastslog, at Loomis ikke kunne f? en pr?cis redeg?relse for, hvorfor han blev vurderet som h?jrisikoforbryder. Begrundelsen var, at COMPAS-algoritmen er udviklet af et privat firma, og at designet derfor udg?r en forretningshemmelighed.
Sagen har v?ret med til at s?tte fokus p? den manglende retssikkerhed p? omr?det, og hvilken grad af transparens, der b?r v?re, med hensyn til hvordan en algoritme n?r frem til sine svar.
If?lge Jesper Ryberg kan det meget vel v?re et sp?rgsm?l om tid, f?r vi bliver stillet over for lignede problemstillinger i Danmark. Derfor mener han, at det er afg?rende, at vi allerede nu tager debatten om, hvordan kunstig intelligens skal anvendes ved domstolene og i forbindelse med strafudm?ling.
Strafudm?ling og kunstig intelligens
- ”Sentencing and Artificial Intelligence” udgives af Oxford University Press, og er den f?rste publikation, som besk?ftiger sig med AI og strafudm?ling.
- I antologien medvirker filosoffer, kriminologer og jurister fra universiteter i USA, England, Canada, Australien, Israel, Tyskland, Holland, Slovenien og Danmark.
- Forfatternes perspektiver blev samlet p? Jesper Rybergs initiativ i samarbejde med medredakt?r, Julian Roberts, som er professor ved University of Oxford.
For mere information kontakt Jesper Ryberg.