Artificiell Intelligens
— rättsordning och rättstillämpning

 

 

Av docent Ulf Lundqvist

 

Artikeln inventerar möjliga samband och förhållanden mellan Artificiell Intelligens (AI) och valda delar av den svenska rättsordningen och rättstillämpningen, och konstaterar att det föreligger ett starkt behov av forskning för att ingående kartlägga och analysera en komplex problematik bl.a. på områdena straffrätt och processrätt. Inom straffrätten aktualiseras vad som konstituerar en straffbar gärning och hur prövningen av skuld bör ske när AI har varit involverat i händelserna t.ex. ett självkörande fordon. Har AI använts vid rättegången eller förberett förhandlingen t.ex. med utförda rättsutredningar måste det rättsliga området för transparens och partsinsyn definieras och det måste noga övervägas hur skyddade rättigheter ska upprätthållas. AI utgör därtill incitament för att överväga en ny terminologi som är anpassad för AI och den fjärde industriella revolutionen.

 

1  Inledning

Cogito, ergo sum. De berömda orden (latin för ”jag tänker, alltså finns jag”) har sitt upphov hos den franske filosofen René Descartes (1596–1650), som under en kortare tid fram till sin död var lärare och råd­givare till drottning Kristina (1626–1689). I sin rationella utgångspunkt (förnuftet) för att människan ska rätt förstå sin tillvaro avvisade Descartes både metafysik och erfarenhet som säkra källor till att få kunskap, vilket ställningstagande blev en viktig orsak till framväxten av den moderna vetenskapen.

Idag drygt 350 år senare finns teknologin med Artificiell Intelligens (AI) och reinforcement learning. En sådan maskininlärning innebär t.ex. att en AI-bot spelar brädspel mot sig själv, och på så sätt ständigt förbättrar sina prestationer utan att någon mänsklig medverkan sker. Roboten lär sig mycket snabbt och överträffar redan efter några timmar världsmästarens nivå.[1]

Om en sådan självinlärning är att jämställa med tänkande kan då enligt den filosofi som lanserades av Descartes med fog hävdas att AI existerar?[2] Är det möjligt att AI-boten kan ha rättigheter, skyldigheter och ett ”personligt” och ”individuellt” ansvar som vanligen följer med det?[3] Och skulle AI som domare åtnjuta parternas och allmänhetens förtroende?

För att påvisa konturer av möjliga samband mellan AI, rättsordningen och rättstillämpningen relateras AI i det följande översiktligt till några rättsområden. Avsnitten återger situationer där AI synes medföra rättsliga problem och aktualisera nya rättsliga överväganden, men artikeln avser inte att ingående kartlägga, analysera och systematisera sådana problemfall och möjliga lösningar. Exemplen tjänar ändamålet att visa att AI är ett systemskifte i samhället och berör juridiken i dess olika delar.

 

2  AI saknar mänskligt sätt att tänka och sinnen att erfara verkligheten med

I flera av landets kommuner är det numera AI-botar som självständigt och utan mänskligt ingripande handlägger och beslutar i ärenden om försörjningsstöd. Det finns även ett intresse för att tillåta AI att besluta i ärenden om bygglov. Av forskning framgår vidare att AI gör mer säkra bildanalyser och bedömningar av patienter med befarad hudcancer än vad erfarna läkare förmår. AI kan även sköta familjens kalender, läsa sagor för barnen, komponera musik[4] och bygga hus för boende på jorden.[5] AI utvecklas även för att utföra byggnationer på andra planeter i syftet att bereda livsvillkor för människan vid hennes utforskning av och resor i rymden.[6]

Förutom att utföra sådana uppgifter har AI också getts en fysisk ”kropp” eller en modell i stor likhet med en verklig människa, och då fungerat som nyhetsuppläsare med ett uppträdande som inte är helt olikt originalet. Huruvida graden av intelligens eller förmåga att tänka fritt och självständigt här är bättre jämfört med att vara ett sällskapsdjur åt ensamma personer får vara osagt, men relationen mellan den digitala rymden och det av individen upplevda området av verklighet är något klarare. Genom tv-apparaten flyttar AI-människan in i vardagsrummet hos familjen.

Men AI saknar det mänskliga tänkandet.[7] Den kan inte registrera, bearbeta och analysera det okända eller oväntade för att i tid antingen vidta eller avstå från att utföra en handling som en adekvat respons på händelsen. Inte heller kan AI på egen hand sammanställa informa­tion från olika källor och placera den i en kontext och på så sätt få kunskap för ett beslut om rätt förhållningssätt och en eventuell åtgärd. För att kunna skapa förståelse för en situation eller ett förhållande mellan omständigheter är det nämligen direkt avgörande att uppgifter och information placeras i en kontext (kontextualisering). Sedan kan utföras först en stegvis och därpå följande övergripande prövning av uppgifter och relationer där det sker en kontinuerlig analys och utvärdering av olika konsekvenser med ett holistiskt perspektiv.

AI har inte heller några egna sinnen att uppleva och tolka verkligheten med, om än kameror och annan teknisk utrustning förgäves eftersträvar en likhet med människans receptorer och varseblivning. Människor däremot har under sin levnadstid fått erfarenheter av vitt skilda slag, och kan därför associera information fritt, vägledas av känslor och intuition och använda sin fantasi för att välja handlingssätt i olika situationer. AI har med andra ord jämförelsevis en kunskapsmässig begränsning, eftersom roboten inte kan erfara verkligheten som människor gör och då sådan erfarenhet är giltig kunskap vid valet av en handling eller att avstå från den.[8]

AI förefaller inte heller att kunna samverka eller integrera på djup­et med andra stora tekniska system för att bilda komplexa och rörliga mönster av kunskap och därmed digitalt förklara hur människans verklighet är beskaffad. En interaktion mellan AI och människa sker i en rik mängd av olika talade och skrivna språk världen över och de kulturella fenomen och förutsättningar som förbistringen vilar på och formar. AI kan därför knappast bidra i egentlig mening till ett övergripande ändamål eller princip om att säkerställa hennes överlevnad i en snabbt föränderlig omvärld.[9]

Den skuggvärld som AI-boten ska orientera sig i synes genom en kunskapsklyfta således åtskild från individens verklighet där utmaningen är att hitta en nyckel eller kod som överbryggar den ravinen.

Däremot har utvecklingen nått fram till den fjärde industriella revolutionen. Efter ångkraften och det mekaniska industrisamhället, elektriciteten och senare Internet med datorer flätas idag linjer av produkter och säljare-köpare samman genom digitala plattformar verksamma på en global nivå. Kända exempel är Uber och Amazon, och svensk industri följer exemplet för smarta lösningar. Dagligen frigörs resurser av skilda slag för att värderas, placeras och fördelas om och formar sedan nya strukturer och villkor för människan, hennes vardag och samhället i stort.

Den fjärde industriella revolutionens AI når visserligen längre än tidigare vad gäller dess autonomi. Men den tekniska evolutionen besvarar trots det inte centrala frågor, t.ex. om hur AI får säker, relevant, nödvändig och tillräcklig information för att skapa rätt kunskap och fatta rätt beslut i rätt tid. Ett annat är i vad mån AI kan tillgodogöra sig kunskap genom egna erfarenheter, och utveckla ett eget oberoende och självständigt tänkande i en nivå med människan där både ett fragmentariskt-atomistiskt och holistiskt tänkande finns och samverkar med varandra.

Beslut och handling av en tänkande AI måste därtill även förstås i den normativa kontexten[10] och verkligheten av rättsordningen och var och ens skydd mot olaga eller godtyckligt intrång i rättigheter, och hur AI kan relateras till den, dess rättskällor, och olika teorier och metoder för tolkning och tillämpning.[11] Människan är ett subjekt med rättigheter och även hennes värdighet innefattas under konventioner om skydd för mänskliga rättigheter.[12] Hennes unika ställning kan inte utan en stark konflikt med svensk och internationell rätt förenas med den digitala rymden och en objektiv signalmiljö.[13]

Specifikt betraktat kan AI, som i fallet med försörjningsstöd, ha tydliga drag av rättstillämpning, vilket understryker vikten av att den kan vidmakthålla ett effektivt och praktiskt skydd av rättigheter — inte minst rättigheter som är av ett gemensamt intresse för världssamfundets stater att upprätthålla. Särskilt angeläget är det att inte beröva den enskilde hans eller hennes rättigheter utan stöd i lag, godtyckligt eller annars efter ett summariskt förfarande.[14]

AI är trots sin kapacitet till självinlärning givetvis underordnad människan, och algoritmen eller den fysiska roboten är henne behjälplig t.ex. som ett verktyg eller förströelse. AI ska inte kunna inta en hegemonisk maktställning och kontrollera eller härska över andra stora tekniska system eller viktiga samhällsfunktioner. AI ska inte utvecklas i riktningen mot en envåldshärskare utom insyn och kontroll som efter gottfinnande kan påtvinga samhället eller individen förhållanden eller villkor som är oförenliga med rättsordningen och människovärdet.[15] Legalitetsprincipen är i det sammanhanget viktig.

 

3  Straffrätten

3.1  Legalitetsprincipen

I vad mån de vägval som den tänkande AI-boten undersöker och utför i form av en handling eller annan liknande åtgärd i den fysiska verkligheten omfattas av legalitetsprincipen och rekvisitet gärning[16] är oklart. En handling torde i regel efterlämna spår i den fysiska verkligheten t.ex. en skada på egendom, men också vid underlåtenhet t.ex. när det självkörande fordonet inte har bromsat in för en fotgängare som korsar gatan framför bilen och därför har skadats.

Av rättsordningen skyddade värden och rättigheter har i båda fallen blivit kränkta, och påkallar enligt denna såväl reparation för den skadelidande som lagföring med åtföljande bestraffning (sanktioner) för den som är ansvarig för brottet. För placering och fördelning av ansvaret finns olika alternativ.[17] I det sammanhanget bör framhållas att AI med maskininlärning torde vara utom mänsklig kontroll om den gavs möjlighet att fritt utveckla förståelse, minne och en förmåga att handla efter eget gottfinnande. Beroende på omständigheterna och potentialen till okontrollerad och omfattande skadeutveckling indikeras då närmast en princip om strikt ansvar.

Ett personligt intresse och ansvarstagande för att hörsamma rättsnormer och upprätthålla rättigheter och därmed förverkliga den värdegrund som rättsordningen vilar på och formar, kan antas ha samband med att den enskilde erfar sin egen delaktighet i samhället och att det därför är meningsfullt att beakta och följa de imperativ som lagen ger. Rättsordningen bör så långt som möjligt passera igenom den verklighet som den enskilde upplever sig vara i för att rättigheter ska bli effektiva och praktiska, och sörja för social stabilitet och ett växande välstånd.

Men det är högst ovisst om delaktighet och mening skulle ha en preventiv betydelse eller existentiell dimension för en AI-bot som tänker på människans nivå, och den skulle därför sakna den känsla eller moral för ansvarstagande som åtminstone en del individer har. Den skulle så att säga ”leva” i sin alldeles egen ”värld”, om än med inblickar i och förhoppningsvis stor förståelse för människors förutsättningar och valda sätt att leva sina liv.

En etisk plattform och moraliskt grundade beslut och handlingar hos en tänkande AI är möjligen inte helt utesluten, vilket framtiden då får utvisa. Livet är ingen sifferlek där spelteori definierar människans historia och verklighet, något som bl.a. folkmord och andra former av svårt mänskligt lidande påminner om tillsammans med den för människan pågående negativa klimatförändringen.

 

3.2  Brottsbegreppet

Såvitt avser reinforcement learning AI synes tveksamt om det är lämpligt — eller ens möjligt — att uppställa ett villkor på kausalitet och ett kontrollerat handlande för att brott ska kunna ha förövats av en AI-bot. AI innebär att algoritmen successivt prövar sig fram och fattar då beslut om olika vägval, och processen kan knappast anses som en sammanhållen handling och direkt kontrollerbar i sin helhet som då en människa utför den. Således tycks AI beröra de olika beståndsdelar som konstituerar ett brott (brottsbegreppet).

 

3.3  Personlig och individuell skuld

Kravet på uppsåt för att brott ska föreligga[18] framstår som svårt att tillämpa på AI-boten eller t.ex. det självkörande fordonet. Det subjektiva rekvisitet eller skuld (uppsåt eller oaktsamhet) vilar nämligen på antagandet om individens fria vilja och att fritt och självständigt kunna välja mellan handling eller att avstå från den.[19] AI-boten har emellertid algoritmer som styr urvalet av fakta, vilka leder fram till att beslut fattas och olika åtgärder eller handlingar utförs.[20] Därför måste —åtminstone tillsvidare — en fri vilja hos AI-boten bestämt avvisas.

Algoritmen innebär snarare att AI-boten är predestinerad och uttrycker så att säga en deterministisk filosofi och världsbild utan eget val och frihet. Så är fallet även om den efter självinlärning kan nå resultat och utföra en handling som helt eller delvis motsvarar eller erinrar om vad som vore resultatet om en människa hade beslutat och handlat i den situationen. Eventuellt kan det vara fråga om en risk­bedömning av ett matematiskt slag eller kanske något hypotetiskt prov som den tänkande AI-boten utför, vilket i viss mån kanske framstår som en analogi till en mental disposition i hjärnan hos människor och har därför vissa likheter men är inte identiska.

T.ex. ska uppsåtet hos unga lagöverträdare bedömas försiktigare jämfört med vuxna, eftersom hjärnan hos unga ännu inte är fullt utvecklad. Även senare i livet får erfarenhet av likartade situationer —t.ex. rätten till nödvärn för att inom rimliga gränser freda sig själv —och livserfarenhet i allmänhet en betydelse för individens val av handlingar, och även vid en efterföljande prövning av skuld och ansvar.

En sådan nyanserad och av erfarenhet färgad humanistisk bedömning av alternativ för handlande synes hittills omöjlig eller mycket svår för AI-boten att utföra. Dess logik och signalsystem omsluter inte mänskliga erfarenheter, och kan därför inte rätt förhålla sig till den okända eller oväntade händelsen eller förloppet då erfarenhet om det saknas. Informationen, om den ens kan registreras såsom relevant, kan inte placeras i en kontext och blir därför inte kunskap och fakta att kunna fatta beslut på.

Resan för AI fram till dess att den kan lösa komplexa och diffusa problemsituationer andra än att t.ex. vinna i brädspel och bedöma inmatade siffror i ett formulär måste förmodas vara både lång och besvärlig. Att framföra ett fordon på ett trafiksäkert sätt består inte enbart i att slaviskt följa alla trafikmärken. Erfarenhet och yrkesmässigt hantverk har också en betydelse, liksom samarbetet mellan trafikanter t.ex. genom ögonkontakt och enkla tecken vid oklara förhållanden. Detsamma gäller i än högre grad för rättsordningen och rättskipningen.

För en människa bedöms uppsåtet därtill i regel vid en tidpunkt innan utförandet av handlingen har påbörjats där dess resultat kan bli ett bevisfaktum vid prövningen av personlig skuld.[21] Har t.ex. skjutvapen eller gift nyttjats anses det etablera uppsåt hos gärningsmannen.[22]

I fallet med AI-boten är det närmast tvärtom. Här undersöks algoritmens funktion (och möjligen också ett krav på adekvat kausalitet) som förklaring till uppkomna och lidna skador på ett angreppsobjekt eller rättighet, vilket synes innebära en retroaktiv prövning huruvida det initierande beslutet var lagligt eller olagligt med åtföljande förlopp av händelser och brott som resultat. Men det är först när för­loppet har avstannat som det förefaller vara möjligt att dra några slutsatser i vad mån effekterna av den exekverade funktionen omsluts av det kriminaliserade området, och därför skulle aktualisera sanktioner. Det tyder mera på ett strikt ansvar för AI-boten[23] än grundat på fria och självständiga val och en individuell och personlig skuld.

 

 

 

3.4  Algoritm utan handling i den fysiska verkligheten

Huruvida utevaron av en fysisk handling av den tänkande AI-boten och enbart dess algoritm har bidragit till att brott blivit förövat är nödvändiga och tillräckliga skäl för att grunda ansvar för brottet synes vara en öppen fråga. Ett exempel är då en AI-bot har kommunicerat med en annan AI-bot och en människa därefter använder den informationen för att begå brott: algoritmen löser säkerhetskoden till ett bankkonto eller överför pengar från ett konto till ett annat där en människa tömmer kontot i kontanter.

 

3.5  AI och flera gärningsmän

I föregående avsnitt nämnda exemplet att AI-boten har bidragit till brott som blivit förövat av flera aktörer kan varieras att avse bidrag från AI i form av en handling eller liknande åtgärd i den fysiska verkligheten, som direkt eller indirekt har bidragit till att brott har begåtts. Det är ovisst hur straffansvaret för brottet bör placeras och fördelas i fall med flera gärningsmän — har brott alls begåtts när ett fysiskt bidrag till dess fullbordan kommer från en tänkande AI-bot eller kan det vara så att påföljden bortfaller för en, flera eller alla inblandade?[24]

Komplexa situationer är svåra att bedöma, t.ex. vid blandade ägar- och brukarförhållanden där både fysiska och juridiska personer ingår i konglomeratet av aktörer. Än mer osäkert blir det när en tänkande AI lämnar bidrag till den brottsliga handlingen eller att den brottsliga verksamheten i fråga ska fortgå. En rad olika asymmetriska situationer bör sålunda analyseras och utvärderas.

 

3.6  Påföljdssystemet

Valet av påföljd och bedömningen av brottets straffvärde är något som förutsätter en omfattande erfarenhet från domarbänken.[25] Förutom att utföra skönsmässiga överväganden om strafflindring, påföljdseftergift, försvårande och förmildrande omständigheter märks att straffet ska vara anpassat för just den tilltalade i målet. Tabeller med sammanställd rättspraxis eller liknande schabloner ska inte tillämpas. En riktig och rimlig tillämpning av regelverket synes därför även bero av domarens människokännedom, vilket en tänkande AI-bot knappast kan anses ha. Om roboten på egen hand och självständigt skulle besluta om sanktioner fanns därför en risk för att rättsnormer och rättsgrund­satser vägledande för sanktioner mot människor skulle missförstås och tillämpas felaktigt, och således orsaka rättsförluster och i strid med legalitetsprincipen skapa en betydande rättsosäkerhet och destabilisera rättssystemet.

 

4  Processrätten

4.1  Huvudförhandlingen

Om AI användes vid rättegången för att göra urvalet av rättspraxis och annat källmaterial av betydelse för rättsfrågan så kan det förmodas att handläggningen av målet i någon utsträckning påskyndades, vilket vore värdefullt inte minst vid en målanhopning. Det är emellertid inte uteslutet att den av AI genomförda proceduren kan vara färgad av ovidkommande hänsyn och förbiseenden till följd av fel och brister vid utarbetandet av algoritmen och dess funktioner, som då oriktigt inverkar på resultatet av den utförda sekvensen. En felaktig eller annars bristfällig rättsutredning riskerar att vilseleda domaren vid avgörandet av målet, och AI äventyrar därför i det fallet envars rätt till likhet inför lagen och icke-diskriminering och att part utan laga skäl lider rättsförluster.[26]

Granskningen av en sådan invändning förutsätter tillgång till algoritmen, vilken dock kan vara en affärshemlighet och därmed fredad från insyn och kontroll.[27] En sådan begränsning av försvarets rättigheter leder vidare till frågan om rättegången har varit offentlig med partsinsyn i målet, och transparent för att kunna utkräva ansvar för felaktigheter och korrigera dessa.

Ett beroende av AI i rättskipningen aktualiserar även överväganden om domstolens ställning som oberoende och opartisk. En ifrågasatt urvalsprocess av AI t.ex. rörande rättskällorna för att bestämma påföljden indikerar inte enbart jäv utan därtill en rättstillämpning som är uppenbart lagstridig, och utgör grund för resning.

Åtminstone i teorin borde med AI i rättskipningen en rättighet att överklaga dom eller beslut vara överflödig. En sådan robot måste förmodas vara allvetande och allkunnig och därför vore tillämpningen redan i första instans slutlig — en förnyad handläggning av en slags överrobot vore meningslös. Det knyter an till rättsstatens och demokratins krav på maktdelning både utom och inom förfarandet, som skydd mot att den enskilde berövas att fritt och fullt utöva sina rättigheter av en stat som är maktfullkomlig och godtycklig. Tveklöst avtecknar sig då konturerna av en totalitär stat, vars historiska föregångare efterlämnat ohyggliga ärr och förhoppningsvis sörjt för en väl lärd läxa inför framtiden. Därtill väcks frågor om hur domstolens prejudikatskapande verksamhet ska kunna tillgodoses vid en prövning som sker i endast en instans.

Förfarandets skyndsamhet och ett avgörande inom en rimlig tid skulle främjas också om AI under förundersökningen analyserade och bearbetade information som hämtats in av myndigheterna. Part kan med stöd av AI enklare än annars söka efter och få del av relevanta fakta och bevis och före rättegången förhålla sig till dessa. Därmed begränsas utrymmet för överraskningar vid förhandlingen och att denna måste ställas in och skjutas på framtiden.[28]

En seriös kontradik­tion och kritisk granskning av dessa uppgifter vid rättegången får då närmast betydelse som källkontroll där emellertid den tilltalades rätt till processuell likställdhet (equality of arms) kan grunda tvivel och tvekan om bevisets styrka när staten genom åklagaren har tillgång till avancerad AI, men inte försvaret. Saklighet och objektivitet får inte åsidosättas, och vad nyss noterats om AI och ovidkommande hänsyn och vikten av insyn och kontroll rörande rättsfrågor gör sig gällande även under förundersökningen.

Har på så sätt eller annars försvarets rättigheter blivit kränkta ska de återvinnas. Efter att en dom vunnit laga kraft är i det syftet resning möjlig även då villkoren för det extraordinära rättsmedlet inte är uppfyllda,[29] och beroende på omständigheterna kan reglerna om domvilla vara tillämpliga. Sådana synnerliga skäl utgör grund för prövningstillstånd i Högsta domstolen.

 

4.2  Bevisrätten

De skilda alternativ och vägval AI-boten undersöker och handlingar den utför i den fysiska verkligheten leder fram till huruvida ett sådant beslut och åtgärd utgör ett bevisfaktum. En viktig fråga är här om det är kausaliteten mellan en händelse i verkligheten och beviset — t.ex. att vittnets berättelse beror av vad vittnet själv har observerat och erfarit på brottsplatsen vid tiden för brottet — som avgör dess bevisvärde, eller alternativt om det är spårets frekvens givet en referensgrupp —t.ex. hur vanligt är det att vad vittnet berättar om inträffar i verkligheten — för att på så sätt få besked om händelsens sannolikhet?

I det förra exemplet är bevisteorin formad av principen om orsak och verkan och tillämpas med ledning av den specifika situationen, i det senare erhålls besked om en sannolikhet som är byggd på statistik om en potentiell framtida händelse men avser inte direkt den unika och historiska situation som rättegången handlar om. Valet mellan dessa teorier har viss betydelse t.ex. för i vad mån uppsåt och skuld kan bedömas med ledning av avvikelser från det vanliga körmönstret hos ett självkörande fordon (Drivers Intent).

För att en granskning av uppsåtet ska vara rättssäker och den efterföljande domen korrekt är det viktigt att den prövade informationen är relevant, trovärdig och tillförlitlig. Körningen får inte ha övertagits eller annars kontrollerats av någon utomstående som hackat sig in i bilens dator och då påverkat motor, styrning, belysning, bromsar eller annan utrustning, och på så sätt orsakat olycka eller fara för ett tillbud. Manipulerad information, kontrollövertagande åtgärder och deep fakes är numera en realitet att pröva och förhålla sig till.[30]

Den snabba teknikutvecklingen inom AI torde innebära att vetenskap och beprövad erfarenhet får en ökad betydelse i straffprocessen. Så är särskilt fallet när part som bevis för sin sak presenterar biologiska nycklar[31] — t.ex. loggar av utförd ögonscanning — och utredningar från tekniska undersökningar av annat slag. För att undvika en bevisvärdering som är godtycklig eller uppenbart oriktig med åtföljande rättsförluster är det angeläget att tekniska normer och standarder regelbundet utvärderas och uppdateras.

AI kan också innebära att legal bevisteori införs så att säga bakvägen, och undergräver då principen om fri bevisvärdering genom sina algoritmer och matematiska formler. Fri bevisvärdering innebär en avsaknad av rättsliga normer med en i förväg känd legal definition av bevisets styrka, men den fria prövningen av dess värde får inte vara godtycklig utan ska vila på rationella grunder och beprövad erfarenhet och därtill utförligt redovisas i domskälen.

Det kan inte bortses från risken att AI skulle medföra att rättegången mer än nu handlade om siffror och statistik, matematiska formler och ekvationer i stället för en ingående analys och värdering av de bevis som parterna presenterat i syftet att klarlägga vad som faktiskt har hänt.[32] Med en användning av AI i bevisvärderingen krymper domstolens skönsmässiga mandat. Rättskipningen skulle uttrycka ett mekaniskt och mera formellt skeende och inte som nu en levande och muntlig förhandling mellan jämbördiga parter och — åtminstone som en huvudregel —  en dom som givet beviskravet är materiellt riktig.[33]Matematiska bevis importerar också problemet hur sådana hårddata bör vägas samman med muntliga bevis och annan mjukdata. Det först nämnda handlar om siffror och sannolikheter, det sist nämnda om ord, berättelser och subjektiva upplevelser och iakttagelser om den unika situation som rättegången avser. Det kan inte säkert uteslutas att i förundersökningen sådana omständigheter och bevis eftersöks som bäst passar in i ekvationen, och därför kan mjuka fakta och möjliga alternativa förlopp i situationen komma att bli obeaktade. Det framstår som rimligt att anta att riktigheten av åtal och domar då påverkas negativt.

Hur AI som domare skulle värdera bevismaterialet och pröva det mot beviskravet i brottmål är mycket oklart, t.ex. vid en sammanvägning av muntliga utsagor med statistiska bevis.[34] Risken för en godtycklig eller uppenbart oriktig bevisvärdering och åtföljande rättsförluster är därför betydande. Högst ovisst är vidare vilka kriterier AI skulle tillämpa för att dra en gräns mellan notoriska[35] omständigheter, vilka inte kräver bevisföring för sin existens, och sådana som ska ledas i bevis för att ge part framgång i målet.[36] En särskild fråga avser vilka erfarenhetssatser som AI kan antas ha vetskap om, och därmed möjligen föranleda överväganden kring behovet av sakkunnig.

Ett annat exempel är om AI skulle tillåta bevis om karaktären hos den tilltalade[37] och målsäganden[38] och betydelsen av rätten för den misstänkte att anses oskyldig till dess att skuld lagligen blivit fastställd. Risken finns att prövningen förskjuts från gärningens farlighet till en prognos av gärningsmannens farlighet i samhället, och därmed omfamnandet av en härskarprincip om samhällsnytta i stället för den enskildes rättsskydd under författning.[39]

 

 

 

4.3  Förundersökningen

Ett användningsområde för AI vore som antytts i det föregående att låta AI söka bland och bearbeta lagrad digital information för att finna och analysera omständigheter och bevis till för- respektive nackdel för den misstänkte. Nyttan kan förmodas vara påtaglig i brottmål med stora mängder av information beträffande händelser som har ägt rum under en längre tidsperiod och där ett antal tilltalade, målsäganden och vittnen ska höras och har anspråk i skilda konstellationer. Exempel på intressanta måltyper är brott förövade vid väpnade konflikter, terror­ism, olika former av gränsöverskridande grov organiserad kriminalitet, korruption, penningtvätt, bedrägerier mot bidragssystem i Sverige och på EU-nivå och annan grov eller systematisk ekonomisk kriminalitet.[40]

Sådana AI-funktioner skulle även underlätta för parterna att få tillgång till material som har hämtats in under förundersökningen och förenkla deras förberedelser inför rättegången och dess genomför­ande. Huvudförhandlingen kan då slutföras utan onödiga avbrott, som part annars skulle begära i syftet att kontrollera riktigheten av de nya uppgifterna och få möjlighet att bemöta dessa. För den misstänkte som är frihetsberövad medför AI då dessutom att han kan återfå sin personliga frihet efter en jämförelsevis kortare tid.

I syfte att utreda brott kan AI nyttjas för ansiktsigenkänning och möjliggöra frihetsberövande åtgärder eller alternativt ha en brottspreventiv funktion, som båda har påtagliga effekter av en god natur. Men AI kan liksom annan teknik också missbrukas och skapa avsevärda olägenheter för den enskilde, och även ge förståelse för en allmän uppfattning om otrygghet genom att vara övervakad av staten.[41] Möjligen skulle AI med sådan identifiering av personer vara godtagbar vid gränskontroller, fotbollsmatcher och andra tydligt specificerade områden som bedöms valbara för en selektiv inhämtning av information, men exemplet är inte okontroversiellt och utan invändningar.[42] I vad mån sådan AI i nämnvärd grad påverkas och vilseleds t.ex. av plastikkirurgi, designade ansiktsmasker, teatersmink med struk­turer formade av silicon och förklädnad av annat slag är inte bekant, inte heller om det finns en teknisk möjlighet att sända signaler som stör ut AI och dess funktioner.

AI kan vidare användas för att göra bildanalyser i ärenden om böter för hastighetsöverträdelser, vilka som bevis har fotografier tagna av en automatisk kamera. I likhet med försörjningsstöd kanske AI även bör automatisera handläggningen av sådana rättsligt sett enklare ärenden av stor volym.

Kunskap bör vidare sökas huruvida AI kan och bör användas vid husrannsakan i IT-miljö och rörande informationsbärare t.ex. på tidningsredaktioner för att helt eller delvis undanröja risken för en obehörig åtkomst av skyddad information,[43] och hur AI bör få nyttjas i termer av provokationer och förhör[44] inte minst vid händelser som utspelar sig på eller via Internet, sociala medier, telekommunikation och plattformar för information och bildöverföring (automated spear-phishing).[45]

 

4.4  Skyddade rättigheter

Det är ovisst huruvida AI-boten och algoritmen utgör en affärshemlighet i den mening som förstås med reglerna i 36 kap. 6 § och 38 kap. 2 § rättegångsbalken och därför inte får åtkommas vid en utredning om brott. Osäkert är vidare om det råder förbud mot att använda algoritmen eller därav genererad information som bevis när en sådan regel har blivit åsidosatt. En annan oklar mötespunkt mellan AI och rättegångsbalken är om en algoritm kan tas i beslag, och förverkas enligt reglerna i brottsbalken.

Rättsläget är också oklart hur en rättslig konflikt bör lösas mellan algoritmen som en affärshemlighet, och rätten för part till en offentlig rättegång och partsinsyn i handläggningen och hur den genomförs (transparens). Får part ta del av algoritmen för att kunna ifrågasätta en oberoende och opartisk prövning av anspråket eller åtalet — och hur är förhållandet till oskyldighetspresumtionen i det senare avseendet?

Den folkrättsliga specialitetsprincipen och dess samband med AI och därav genererad information i efterföljande led är ett annat exempel där rättsläget synes obearbetat. Den begränsning som givande stat villkorar för mottagande stat för att samarbeta och överlämna uppgifter eller bevis dit skulle möjligen kringgås och äventyra den interna­tionella samfärdseln stater emellan. Så vore förmodligen fallet när mottagande stat låter en tänkande AI med ledning av den mottagna informationen fritt botanisera bland lagrad digital information för att åtkomma uppgifter avseende annat eller mera än vad den ursprungliga begäran avsåg och givande stat ställde som villkor för överlämnandet.

Någonstans slutar området för en tillämpning av bevisanvändarförbud och dess utsträckning i efterföljande led (frukten från det förgiftade trädet). Med tanke på den svindlande hastighet med vilken uppgifter åtkoms, förflyttas mellan olika medier, rättsordningar och stater och åberopas i andra förfaranden bör övervägas hur en risk för en slags bevisrättslig white-wash eller evidence laundry bör hanteras för att säkerställa den enskildes rättigheter och vidmakthållandet av rättsstatens principer.

 

5  AI som bolag eller organisation

Ett aktivt förhållningssätt bör övervägas beträffande AI-botar och om de bör få bilda egna organisationer eller sammanslutningar. En särskild fråga är om en sådan utveckling kan ha betydelse för det juridiska bolagsbegreppet och dess tillämpning i kommersiella och statsrättsliga sammanhang. I grunden handlar det om hur autonom AI-boten bör tillåtas bli — kan den inneha eller förvalta äganderätter och åtnjuta rättsordningens skydd för att oinskränkt behålla förvärvade rättigheter och värden och att fritt utnyttja dessa? Kan AI ha en dominerande ställning på marknaden och ingå i otillåtna karteller? I ett vidare och mera djupgående perspektiv avtecknar sig här konturerna av ett frågekomplex med statsrättsliga implikationer.

 

6  Väpnade konflikter

Såvitt avser tider av konflikt är förekomsten av bestyckade drönare sedan länge känd, och en debatt pågår huruvida förbud borde införas mot forskning kring och konstruktion av AI-botar för uppdrag i väpnade konflikter. Automatiserade vapenplattformar bör förstås i kontexten av statens rätt och förmåga att hävda sin territoriella integritet, självbestämmande och suveränitet, som bl.a. beror av principerna om nödvändighet och proportionalitet. Arbete på dessa besvärliga frågor och annan ny teknologi bedrivs bl.a. av Internationella Röda Korset i Genève (ICRC).

AI-botar och den teknologi som den vilar på kan antas utgöra ett avsevärt värde i ett ekonomiskt, militärt och politiskt avseende och en tillgång jämförbar med guld, diamanter och strategiska mineraler, och utesluter inte på något sätt förekomst i en teokratisk kontext.[46] Beroende på omständigheterna kan AI-teknologin riskera att bidra till att väpnade konflikter inleds, att de underhålls och rent av försvårar fredsansträngningar. Men den kan också övervaka vapenvilan i skyddade zoner, larma om angrepp på flyktingläger och förhindra handel med människor, och rapportera om eventuella trupprörelser och annan trafik i korridorer som är upprättade för humanitär hjälp.

Det kan vidare förmodas att AI ibland har dubbla användningsområden, vilket försvårar bedömningar och gränsdragningar i ett militärt och rättsligt avseende om dess laglighet, lämplighet och legitimitet.[47]

 

7  Behovet av kunskap om AI — forskning och utveckling

7.1  Forskningsbehov om principiella temata

Den föregående översikten visar tydligt ett forskningsbehov beträff­ande AI och teknologins förhållande till några sakområden inom juridiken. Generösa anslag till utveckling och forskning i Sverige kring AI har utdelats av Knut och Alice Wallenbergs Stiftelse till lärosäten runt om i landet och, såvitt känt hittills, avseende den tekniska och naturvetenskapliga förståelsen och tillämpningen av AI.[48] Regeringen har följt näringslivets initiativ och senare antagit en policy om AI i det svenska samhället,[49] och det statligt ägda företaget RISE har i uppdrag att verka för en hållbar tillväxt i Sverige genom att stärka näringslivets konkurrenskraft och förnyelse samt bidra till en innovativ utveckling av samhället.[50]

Internationell forskning har klarlagt flera principiella temata rörande AI:s betydelse på juridikens område som är väl lämpliga för närmare studier. Ett exempel är om ansvaret för att förebygga AI-relaterade säkerhetsproblem bör ligga hos regeringen, marknaden eller någon annan institution, och om redan existerande institutioner räcker till för uppgiften eller nya principer bör antas och institutioner skapas för att svara upp mot den snabba teknikutvecklingen. Ett annat exempel är att främja en kultur av ansvarstagande för att omsluta risken för en ondskefull eller skadebringande användning (malicious use) av AI, t.ex. genom att skydda den personliga integriteten, sörja för en möjlighet till visselblås och även se närmare på problemet med AI-manipulerad information som bevis i rättsliga sammanhang.[51]

En övergripande forskningsstrategi och plattform för att ingående undersöka mötet mellan AI, rättsordningen och rättstillämpningen synes trots ett stort behov av kunskap i det avseendet dock ännu saknas.

 

7.2  AI som stort tekniskt system och kulturellt fenomen i samhället

AI framstår idag närmast som ännu ett stort tekniskt system — inte en avbild av människan som erfar verkligheten subjektivt och har rättigheter.[52] Dess funktion synes som en kunskapsbärare, och samverka med andra stora tekniska system,[53] såväl fysiska som digitala, för att skapa synergier och åstadkomma en effektivare förvaltning av resurser som t.ex. råvaror, tid, arbetskraft och kapital. AI innebär också en successivt växande förtrogenhetskunskap eller know-how och utgör incitament för tillväxt och fortsatta investeringar, forskning och utveckling. De strukturer av AI som formas nationellt och internationellt kommer liksom järnvägen, elnätet, motorvägen och tunnelbanan att finnas kvar för en mycket lång tid.

AI karakteriseras av delvis okända risker och konsekvenser som kan följa på olika scenarion, ovissa relationer till andra stora tekniska system, men också betydande möjligheter och gynnsamma effekter.[54] Människors subjektiva upplevelser och erfarenheter av AI är därför viktiga för en acceptans av teknologin, och beroende på den grupp i samhället som tillfrågas blir det sannolikt en spridning i svaret om för- och nackdelar med AI. Försörjningsstöd beslutat av en AI-bot kanske godtas utan närmare funderingar av någon, en annan tycker det är märkligt att inte kunna tala med en människa och en tredje som är anställd på myndigheten misstror eller alternativt litar blint på vad AI-boten ägnar sig åt. Det handlar om förtroende, och det är något som behöver tid och möjlighet för att växa.

AI kan därutöver rimligen förväntas att aktualisera frågor på teknik­planet och även — och kanske framför allt — övergripande teoretiska och filosofiska frågor som t.ex. förhållandet mellan att veta och tro något[55] (kunskap, sanning,[56] mening, delaktighet, och ansvar för eget handlande), vad medvetande egentligen är,[57] dess gränser och vad det kan och bör användas till, upprätthållandet av människovärdet, rättigheter och den enskildes ställning och styrka i olika (makt)relationer, rättsstat och en inkluderande demokrati.

Det sagda leder till kulturen, och huruvida AI kan vara något acceptabelt i det demokratiska samhället, i det offentliga rummet och som en kulturyttring bland flera andra. AI relaterar inte bara den allmänna opinionen utan knyter också an till undervisningen vid lärosäten för att ge möjlighet att utveckla en förförståelse till AI, och grunda ett självständigt och kritiskt förhållningssätt till den nya teknologin.

Den fjärde industriella revolutionens AI är ett steg på vägen mot ett fullvärdigt system med autonoma AI-system som har en slags intelligens eller kapacitet som liknar människans sätt att tänka och hennes nivå av skilda förmågor. Successivt kommer AI med all sannolikhet att utvecklas och förfinas i tekniskt avseende och då erbjuda fler tjänster, produkter och upplevelser. Över tid finns det goda skäl att tro att AI kommer att omslutas av en bred opinion och införlivas i såväl det privata som offentliga livsområdet, och anses vara en etablerad samhällsföreteelse.

 

7.3  AI — rättsordning och rättstillämpning

Av både svensk och internationell rätt framgår den skyldighet som staten har att genom sina myndigheter och domstolar och deras företrädare avstå från att kränka rättigheter med mindre än att det är tillåtet enligt författning, och villkoren för intrång bevisligen föreligger. Har en rättighet som t.ex. rätten till laga och rättvis rättegång blivit kränkt ska den återvinnas, vilket aktualiserar överväganden bl.a. om en ny rättegång. Oberoende härav och som en självständig prövning ska den felande personen utredas för brott och i förekommande fall lagföras och bestraffas om laga förutsättningar är för handen. Kunskap och lagstöd är således avgörande för att domstolen ska få utöva sitt mandat att helt eller delvis och temporärt eller permanent beröva den enskilde ett fritt och fullt utövande av sina rättigheter.

Följdriktigt råder, enligt såväl nationella rättsordningar som den internationella, ett bestämt förbud mot utomrättsliga, godtyckliga och summariska förfaranden, och där poängteras kraftfullt envars likhet inför lagen och domstolen och rätten till icke-diskriminering.

Det är därför strängt angeläget att från rättskipning särskilja politik, religion, personliga agendor och andra omständigheter ovidkommande för prövningen av anspråket. Givet statens åtals- och våldsmonopol får privatjustis inte förekomma, vilket i flera rättsordningar tagit sig uttryck i att dueller med vapen har blivit kriminaliserade.[58] Utanför rättskipning faller även former av vidskepelse där i flera stater straffbud finns mot gudsdomar, t.ex. att överleva vattenprov (dränkning), tagandet av gift, och attacker av krokodiler eller andra vilda djur.[59]

Historien har med början i andra häften av 1400-talet spektakulära exempel på rättegångar mot grisar, råttor, björnar och andra djur bl.a. för att de har förstört gröda och varit farliga för omgivningen. Under 1500- och 1600-talet pågick en intensiv teologisk debatt huruvida vissa eller möjligen alla djur var besatta av djävlar, och inte tjänade mänsklighetens krona på det sätt som Gud hade avsett med den naturliga ordningen. Sådana processer torde dock aldrig ha förekommit i Sverige.[60] Huruvida AI som en tänkande identitet (cogito, ergo sum) vore att jämställa med ett viljelöst redskap, själlöst kreatur utom räddning eller något som kan uppträda som part med rättigheter överlämnas till läsaren att bestämma. Övervägande skäl talar emellertid för att AI är ett stort tekniskt system där särskilda frågor om insyn, kontroll och ansvarsutkrävande uppträder.

I föregående avsnitt har vidare berörts vad som är giltig kunskap allmänt sett och det som utgör ett bevis i en rättegång. Vad som konstituerar information och kunskap är centrala problemområden att studera närmare i kontexten av AI och de skyldigheter som åvilar staten enligt svensk och internationell rätt om att respektera och tillse respekten för individens rättigheter.

I det sammanhanget är det normativt sett eller givet rättsordningen intressant att jämföra den digitala rymdens strukturer och signal­system med den konstruktion som rättsordningen har: finns det likheter eller enbart skillnader mellan en algoritm och en rättsregel? Har handlingsregelns form någon betydelse för dess innehåll och tillämpning?

AI och dess kapacitet att bedöma, analysera och fatta beslut på grundval av fakta och bevis givet den ram som sätts av gärningspåståendet eller framgår av de yrkanden och grunder som part i tvistemål har framställt kan i någon mån jämföras med människans förutsättningar. Hennes kunskap och förståelse av världen, olika färdigheter och förmågor i ett rättsligt förfarande samt förmågan att då analysera och utvärdera alternativ med en omvärldsanalys och därefter välja ett korrekt och godtagbart förhållningssätt i den specifika situationen är då vad som utmanas. En sådan komparation förefaller möjlig om norm­systemet respektive funktionsordningen tillämpas på en verklig situation där utfallen sedan jämförs: vilken metod har den tänkande AI-boten använt för att samordna och genomföra funktionsordningar med åtföljande resultat, och hur tillämpar domaren rättsregeln för att återvinna rättigheter som har blivit kränkta respektive bestraffa en gärningsman?

Avgörande är här huruvida statens skyldigheter att vidmakthålla rättsskydd och återvinna rättigheter och sörja för kompensation åt den skadelidande tillgodoses fullt ut så att den enskildes rättigheter är och förblir effektiva och praktiska, inte teoretiska och illusoriska. Rätten till effektiva rättsmedel är viktig för att kunna göra anspråk rättsligt gällande och bli prövade inför domstol med en bindande verkan hos avgörandet och möjlighet till verkställighet.

Om föreskriften är detaljerad så är förutsättningarna i de båda fallen förhållandevis klara, och utfallet av tillämpningen lätt att bedöma och jämföra med varandra. Besvärligare blir det emellertid när ett skönsmässigt men inte godtyckligt mandat ska utövas, eftersom ett rättssäkert beslutfattande förutsätter en god erfarenhet av sådana prövningar där både rättsliga och etiska överväganden innefattas. Ett annat exempel rör hur AI respektive domaren drar gränsen mot lagstiftarens kompetensområde, och tillämpningen av principen om maktdelning och en godtagbar rättsutveckling genom rättspraxis.

För acceptans av normsystemet och upprätthållandet av skyddade rättigheter och värden krävs bl.a. insyn,[61] kontroll och utkrävande av ansvar och en fungerande maktdelning, men också förfarandets begriplighet. Hur orden faller, deras innebörd och mening har betydelse för adressatens möjlighet att förstå avgörandet och att underkasta sig kravet att avstå sina rättigheter. Det talade och skrivna språket är centralt för att knyta samman den enskildes handlingar och deras resultat med rättsordningens godkännande eller sanktioner, men dess klarhet lider under bördan av ordens vaghet och mångtydighet.

Domskrivning är inte alltid en enkel uppgift att utföra men mycket viktig ur ett perspektiv av rättssäkerhet och den enskildes rättsskydd mot en godtycklig, summarisk eller uppenbart oriktig prövning av anspråket. Det återstår emellertid att se om AI skulle mäkta det betinget vid en prövning av ett hypotetiskt fall genom sin funktionsordning och en objektiv signalmiljö.

 

8  Nya ord och poesi för att bättre förstå AI?

För att underlätta förståelsen av AI och hur detta stora tekniska system används i skilda sammanhang bör det svenska språket möjligen berikas med nya ord. Någon har skrivit att ord är fönster mot verkligheten, och att det handlar om att flytta in i alfabetet. Den observa­tionen respektive sinnliga relativisering är giltig även avseende den digitala rymden och AI:s signalmiljö. Bokstäver bildar ord som blir meningar där poesi kan alludera till tekniska förhållanden för att skapa både kontur, horisont och en kontext som omsluter tidigare okända omständigheter eller förhållanden, men som det för tillfället saknas ord och referensramar för att fullt ut återge på ett begripligt sätt.

Nina Burton[62] för en insiktsfull och tankeväckande diskussion kring likheter, skillnader och samband mellan det tekniskt-naturveten­skap­liga fackspråket och dess strikta och insnävande begreppsbildning, och den humanistiska, mera målande och konstfullt smyckade orddräkten som kan ha ett oskrivet eller outtalat budskap mellan raderna.[63] Ord nyttjas för att återge vad sinnen har erfarit. Logik och förnuft skapar teorier och system, vilka inte kan beklädas med ett allmänt språkbruk utan har facktermer som vägleds av en princip om skillnader i stället för det som förenar. Bland mycket annat välskrivet synes Burton här överväga huruvida ett holistiskt perspektiv på verkligheten och människan vore möjligt där materia och ande (medvetande) inte hålls åtskilda, och om de naturvetenskapliga pusselbitarna (det atomistiska perspektivet) kan bilda en helhet som uttrycker något annat och mera än summan av delarna. Poesins känslospråk omfattar enligt Burton mer än signalerna i IT-miljön (den digitala rymden). Den bör därför kunna erbjuda möjlighet till förförståelse av AI.

Om poesi och kultur är det kitt som håller naturvetenskapens bitar på plats eller i stället utgör det samlade mervärdet av dessa är ännu något ovisst. Men spänningsförhållandet mellan det atomistiska och holistiska paradigmet har varit och är alltjämt ett återkommande tema inom vetenskap, litteratur, konst och kultur och ger ibland anledning till nya perspektiv på gamla frågor och svar.[64]

Det innefattar även AI som i likhet med mycket annat alltid kommer att bli relaterad till en fond av mångfald och kulturella uttryck i samhället, och därför oundvikligen bli exponerad för kritik av skiftande djup och styrka. Personliga förväntningar och allmänhetens erfarenheter och opinioner kan då tillsammans med AI:s möte med kulturyttringar av skilda slag resultera i framväxten av nya ord och uttryck för att synliggöra subjektiva upplevelser av AI, och medvetandegöra dess tekniska funktionsordning och relationer med andra stora tekniska system.[65] Sådana förhållanden och en lingvistisk evolution i allmänhet kan även komma att influera den juridiska terminologin, och utmana innebörden och tillämpningen av normer i rättssystemet och antagna rättsgrundsatser.[66] Språket och dess bruk får då en inkluderande betydelse i sammanhanget.

 

9  En filosofi för AI: om makt och rätt, rättvisa och billighet i den fjärde industriella revolutionen

Oavsett huruvida en AI-bot är ett stort tekniskt system (vilket det bör anses vara) eller något som tänker och enligt Descartes filosofi därför existerar, så har det samband med individens referensramar för verkligheten sådan den framstår genom perception eller förnuftet (logik). Ett möte däremellan aktualiserar frågor som t.ex. vad som egentligen menas med att tänka och att vara? Och är det ens möjligt att AI-boten kan ha ”känslor” och erfara verkligheten på samma sätt som människor gör? Kan roboten verkligen lagra erfarenheter, analysera och utsätta dessa för en kritisk granskning och själv skapa en egen teori och metodik för att modifiera sin funktionsordning och anpassa dess verkställande efter situationen för att handla rätt och rättvist? Det förutsätter kunskap som är giltig, relevant, nödvändig och tillräcklig.

Enligt den idélära som Platon (427–347 f.Kr.) utvecklade är de saker eller ting människor erfar med sina sinnen enbart en skugga av deras ursprungliga och oföränderliga verklighet. Samtidigt står det klart att hjärnan visserligen består av ett mycket stort antal hjärn­celler — men ändå ett begränsat antal — och man kan förundras över hur och varför en begränsad hjärna kommer på tanken om det obegränsade.[67] Å andra sidan erfar individen inte alla ljud eller färger där djuren ibland är bättre rustade.

Det är därför berättigat att i någon mån tvivla över om det noga räknat är en helt säker kunskap som alltid läggs till grund för vetenskapliga teorier och ska ge pålitliga slutsatser, vägledande principer och handlingsmönster eller, alternativt, om kunskap är något förhållandevis sant: om solen finns förutsätter väntan och tålamod eftersom det tar ljuset 499 sekunder för att nå fram till jorden. I den meningen ser människor bakåt i tiden och inväntar den bakomliggande verkligheten i en tidsfördröjning här, och vad som egentligen mäts och kan mätas är därför något ovisst kunskapsmässigt sett.

Huruvida sådana förhållanden och relativitet i kunskap genom tid kan ha en bäring på AI-botar och hur deras funktionsordningar definieras och handlingsmönster blir avgränsade genom olika nivåer av behörighet[68] är inte bekant, men knappast helt säkert uteslutet. Det är människor som bygger roboten och hon kan då sägas exportera sina fel och brister i kunskapsavseende in i den digitala signalmiljön som blir besmittad: kan roboten ”genomskåda” en dimma av relativitet och kommer den i så fall att göra andra bedömningar och dra andra slutsatser än vad en människa skulle ha gjort under samma förhållanden? Kommer ett nytt språk att finnas mellan AI-botar och kan och vill AI förmedla människan vetskap och förståelse för allt det som hon inte själv kan inhämta genom egna sinnen och logik? Frågorna är intressanta, eftersom definitionen av vad som är kunskap är grunden för makt och därmed sammanhängande frågor om rättigheter, skyldigheter, sanktioner och rättvisa.

AI knyter således an till ett tema som löper som en röd tråd genom historien. I den Nikomachiska etiken gör Aristoteles (384–322 f.Kr.) en skillnad mellan fördelning av nyttigheter i samhället prövat efter en princip om proportionalitet (efter förtjänst och behov) och en korrigerande rättvisa eller att lika ska ges för lika, och som en uppmjukning av den strikta rättsnormen hans lära om billighet (equity).[69]

Spår av denna teori återfinns i 2 kap. 11 § st. 2 regeringsformen om envars rätt till en rättvis rättegång, och en motsvarande rättighet upptas i ett mycket stort antal internationella konventioner på området av mänskliga rättigheter[70] och därtill i krigets lagar[71].

Det är av intresse i sammanhanget av AI och dess samband och relationer med rättsordningen och rättstillämpningen att konventioner om mänskliga rättigheter inte upphör att vara tillämpliga vid en väpnad konflikt[72], vars regler i en specifik situation kan vara särskilt relevanta för tolkningen av en rättighet i konventionen om mänskliga rättigheter. Konventioner om mänskliga rättigheter respektive väpnade konflikter kompletterar således varandra, och ingen av dem utesluter exklusivt det andra.[73]

Rätten till laga och rättvis rättegång är med andra ord alltid tillämplig i ett rättsligt förfarande, och omsluts av en egen rättsregel i den internationella sedvanerätten och är därmed bindande för alla stater i världssamfundet.[74]

Enligt reglerna om derogation i FN:s konvention om medborgerliga och politiska rättigheter får rätten till liv aldrig inskränkas.[75] Vid utdömandet av ansvar för brott och dödsstraff som påföljd för det ska därför samtliga delmoment av rätten till laga och rättvis rättegång bevisligen vara uppfyllda för att rättighetsskyddet inte ska vara åsidosatt.[76] Enligt artikel 14 i konventionen föreskrivs bl.a. att det ska vara en prövning av åtalet inför en kompetent, oberoende och opartisk domstol som ska vara inrättad enligt lag. Artikel 6 förbjuder därtill godtyckligt dödande.[77]

Bestämmelserna är viktiga inte bara vid ett bruk av automatiserade vapenplattformar som kontrolleras av AI utan även om AI kan inrätta sig själv som en domstol med kompetens, oberoende och opartiskhet vilket fredens och krigets lagar kräver (förutom många andra villkor) för att få döma till ansvar för brott och verkställa ett dödsstraff utan att en brottslig handling då blir förövad. Är villkoret om en lagligen inrättad domstol åsidosatt saknar det betydelse för domens giltighet och dess verkställbarhet att andra moment av rätten till laga och rättvis rättegång har blivit tillgodosedda, t.ex. att den tilltalade fått biträde av en försvarare, presenterat egen bevisning, m.m.

Utomrättsliga förfaranden är liksom summariska och godtyckliga sådana och sanktioner ett internationellt brott med universell jurisdiktion, och svarar mot att rätten till laga och rättvis rättegång är en rättighet och rättsregel i den internationella sedvanerätten.[78] Dessa rättigheter och rättsnormer innebär med nödvändighet att parallella ”rätts­system”, ”förfaranden” och ”straff” inte får förekomma, vilket utesluter att en person eller en pluralitet av personer genom avtal sig emellan själva kan konstituera sig som en domstol såsom inrättad enligt lag.[79]

En social konstruktion av en laga domstol i rättslig betydelse är inte möjlig av den anledningen att den misstänkte inte kan frivilligt avstå från den rättigheten, varken i fredstid eller vid en väpnad konflikt. Inte heller torde det vara rättsligt godtagbart att inrätta en domstol genom en sådan ensidig disposition för att en enda gång pröva ett enda mål mot en eller flera misstänkta: konventioner om mänskliga rättigheter reser liksom nationella rättsordningar krav på en författning, bl.a. i ett kvalitativt avseende och att den har en generell karaktär, inte är retroaktiv och är tillämplig för en tid framöver. Ett avtal kan vara formlöst, muntligt och hemligt. En författning däremot tillkommer genom en särskild konstitutionell procedur och utfärdas skriftligen och publikt.

Såvitt avser rätten till en laga och rättvis rättegång i väpnade konflikter antyds ibland att prövningen av rekvisiten för straffansvar beträffande utomrättsligt, summariskt eller godtyckligt dödande av personer som åtnjuter skydd under internationell rätt inte längre omfattar en prövning av varje rekvisit för sig utan att det bör vara en funktionell prövning där en laga inrättad domstol vävs samman med dess oberoende och opartiskhet.

I ett hovrättsavgörande[80] fastställdes tingsrättens dom rörande grovt folkrättsbrott med påföljden livstids fängelse och utvisning med förbud att återvända. Domen stod fast sedan Högsta domstolen beslutat att inte meddela prövningstillstånd.

Omständigheterna var i korthet att den tilltalade X befanns skyldig att tillsammans med annan i rebellgruppen ha avrättat krigsfångar tagna vid strid med regimstyrkor i landet Y där en icke-internationell väpnad konflikt rådde vid tidpunkten för handlingen. Hovrätten underkände X:s invändning att ha verkställt en dom med dödsstraff som påstods vara meddelad av rebellernas på egen hand inrättade domstol.

En utgångspunkt för prövningen var common article 3 i 1949 års Genèvekonventioner om icke-internationella konflikter, eftersom landet Y tillträtt konventionerna. Där föreskrivs i inledningen att konfliktens parter som ett minimum ska vara bundna att tillämpa därpå följande bestämmelser och att alltid behandla bl.a. krigsfångar humant. I det syftet är vissa handlingar förbjudna och ska så förbli vid varje tidpunkt och varje plats avseende berörda skyddade personer. Av särskilt intresse är regeln om förbud mot utomrättsliga, godtyckliga eller summariska förfaranden och avrättningar:

 

(d) the passing of sentences and the carrying out of executions without previous judgment pronounced by a regularly constituted court, affording all the judicial guarantees which are recognized as indispensable by civilized peoples.

 

Den princip som format bestämmelsen är att förhindra tagandet av gisslan och angrepp på skyddade personer som bestraffning (reprisals) för handling utförd av väpnad motståndare. Kollektiv bestraffning får inte förekomma. Det vore enkelt att kringgå reglerna för skyddade personer genom att påstå att t.ex. krigsfånge förövat brott och efter ett slags förfarande inför egenhändigt inrättad domstol därefter verkställa dödsstraff. I kommentaren till common article 3 i Tredje Genèvekonventionen rörande skydd för krigsfångar (ICRC 1960) saknas stöd för att rekvisitet ”regularly constituted” ska prövas sammansatt med rekvisit om oförytterliga försvarets rättigheter. Där uttalas vidare att bestämmelsen ”leaves intact the right of the State to prosecute, sentence and punish according to the law.”.

Visserligen innehåller artikel 6(2) i Andra Tilläggsprotokollet från 1977 en nyansering såtillvida att där talas i termer av att straff inte får meddelas eller sanktion verkställas mot den skyldige med mindre det sker i enlighet med dom meddelad av domstol som tillgodoser grundläggande krav på oberoende och opartiskhet. Därutöver finns en lista med specifika rättigheter för den misstänkte, bl.a. oskyldighetspresumtionen och att den misstänkte mot sin vilja inte får tvingas att berika utredningen. Landet Y har inte tillträtt protokollet eller samtyckt[81] till att det skapar skyldigheter eller rättigheter för Y, och är således inte tillämpligt. Därmed också sagt att kommentarer om artikel 6(2) i Andra Tilläggsprotokollet saknar relevans. Det noteras att 1987 års kommentar till bestämmelsen från tillämpningsområdet utesluter administrativa och disciplinära förseelser och procedurer.

För att leda i bevis en regel i den internationella sedvanerätten ska flera villkor vara tillgodosedda.[82] I en omfattande studie av ICRC konkluderas att det finns en sådan regel:

 

Rule 100. No one may be convicted or sentenced, except pursuant to a fair trial affording all essential judicial guarantees.

 

Den åtföljande kommentaren till sedvaneregeln avser att domstolen är inrättad enligt lag[83], oberoende och opartisk. Därutöver behandlas oskyldighetspresumtionen och försvarets rättigheter.

Varken ordalagen i common article 3 eller dess syfte[84] eller den sedvanerättsliga regeln 100 ger stöd för att bortse från att pröva förhandenvaron av rekvisitet lagligen inrättad. En mera ingående studie och granskning av bevis för en utvecklad och etablerad regel i sedvanerätten redovisas inte i domskälen, som också bort uppmärksamma stadgandet i 2 kap. 11 § st. 1 regeringsformen om förbud mot att inrätta domstol för en redan begången gärning.

Även bortsett från en hovrätts klart begränsade utrymme för prejudikatbildning till vägledning för rättstillämpningen, som ankommer på Högsta domstolen, saknas under i målet förekommande omständigheter säker grund för en slutsats att en rebellgrupp lagligen kan inrätta en egen domstol vid en icke-internationell väpnad konflikt[85], låt vara att en sådan handling och avtal kan uppfattas legitimt.[86]

Sådana rättigheter och rättsnormer som laga och rättvis rättegång  och krigets lagar är resultatet av att filosofer genom årtusenden har utvecklat och transporterat tankegods, principer, värden och kunskapssystem med betydelse för människans förståelse och erfarenhet av verklighet, sanning och rättvisa. Filosofierna har bidragit till att forma nya samhällen där laga och rättvis rättegång idag är ett skydd för svagare part mot att en godtycklig och maktfullkomlig stat berövar individen ett fritt och fullt utövande av rättigheter, oberoende av om det råder fred eller väpnad konflikt.

Men när ideologier kan vara demokratiska är sanningen aldrig det. Givet reinforced learning AI är det därför intressant att ur ett kunskapsperspektiv se närmare på hur AI främjar rättvisa och demokrati respektive sanning — en strävan efter absolut sanning inbjuder möjligen till inkvisitoriska principer både generellt i samhället och i förfarandet och utgör en grogrund för en auktoritär princip där ändamålet helgar medlen, vilket vore helt oacceptabelt i en demokrati och rättsstat.

Det bör därför granskas och övervägas vad som noga räknat händer med billighet och humanism i ett binärt system. Nåd,[87] abolition[88] och åtalsunderlåtelse[89] ingår i rättsordningen som en slags stötdämpare och reglerna utgör viktiga och omistliga delar av rättskulturen. Det förhållandet kan förmodligen inte riktigt förstås eller erfaras och upp­skattas av AI-boten när den genomför sina alltid definitiva och oåterkalleliga val mellan olika alternativ.

En vägledande filosofi för AI bör således även förhålla sig till sambandet mellan kunskapens delar och dess helhet (atomistisk och holistisk världsbild) och ansvarsfrågan med beaktandet av billighet och humanism. Kunskap och hur den tillämpas är viktig för prövningen av ansvar och huruvida en person ska berövas sina rättigheter: den prövningen ska ha stöd i författning och får inte vara godtycklig, summarisk eller uppenbart oriktig.[90]

 

10  En ny horisont

AI framstår som ett stort tekniskt system som i den fjärde industriella revolutionen kan interagera med andra sådana tekniska system, vilket medför en bättre förvaltning av resurser och en förmodat minskad miljöpåverkan i en tid av negativa klimatförändringar.

Typiskt för AI är vidare att teknologin saknar ett mänskligt förnuft och egna sinnen att erfara verkligheten med, vilket förklarar klyftan mellan den digitala rymden och en objektiv signalmiljö och människan som ett subjekt med rättigheter och människovärde. AI och dess funktionsordning kan inte registrera, bearbeta och analysera det okända eller oväntade för att då fatta beslut om att vidta en adekvat åtgärd, vilket en människa däremot kan.

Grund och gräns för AI och dess funktionsordning generellt formar dess kapacitet till inhämtning och förståelse av information och tillämpning av kunskap (kontextualiserad information), vilket kan innebära avvikelser jämfört med vad en människa förmår i dessa avseenden. Oavsett vilketdera som är att föredra — mänskligt beslutsfattande eller AI — så kvarstår faktum t.ex. att automatiserade vapenplattformar som kontrolleras av AI kan exekvera dödlig kraft och ödeläggelse när en människa skulle ha avstått från det. Bedömningen av vad som är tillåtna mål, nödvändigt och proportionellt kan skilja sig åt och medföra olika resultat. AI aktualiserar därför särskilda överväganden bl.a. standarder och normer rörande aktsamhet och ansvar, och sambandet mellan AI och de kontextuella elementen för krigsförbrytelser respektive brott mot mänskligheten

Inom det privata livsområdet förekommer AI hittills huvudsakligen i enklare former t.ex. som ett sällskapsdjur eller för nöjes skull, och endast i en ytterst begränsad omfattning som handläggare och beslutsfattare i den offentliga sektorn. Inom ramen för näringslivet sker emellertid en intensiv forskning och utveckling av AI där fortskridandet går mycket snabbt, och från olika aktörer kommer propåer och varningar om varthän det bär.

Redan i dessa begynnelsefaser av utveckling är det samtidigt tydligt att AI har en betydelse för människans vardag och hennes framtid. Dess algoritmer och funktionsordning knyter nära an till en teknisk och naturvetenskaplig syn på kunskap och verklighet och den ska kontrasteras mot och jämföras med konkurrerande alternativ: det atomistiska paradigmet respektive det holistiska. Denna tudelning återkommer på flera områden, bl.a. inom filosofin, pedagogiken för den högre utbildningen vid universitet och högskolor, och medicinen där den ena hjärnhalvan tänker analytiskt och den andra söker helheter och mening och har ett kontextuellt tänkande.

Såvitt avser rättsordningen är det vid en jämförelse mellan denna och AI en given utgångspunkt att straffprocessens ändamål är fred och rättvisa genom ett normbundet och rättssäkert förfarande där skyddet av grundläggande fri- och rättigheter effektivt upprätthålls. Rätten till laga och rättvis rättegång är i det sammanhanget mycket viktig och av central betydelse. Rättsskyddet består av en serie olika rättigheter, och huruvida rätten till laga och rättvis rättegång blivit kränkt prövas med ledning av varje element för sig utan en funktionell utgångspunkt och metod för bedömningen. Det ska noteras att åsidosättandet av regler t.ex. om frihetsberövanden, intrång i hemmet eller kommunikationerna och förbudet mot tortyr eller omänsklig eller förnedrande behandling, tveklöst påverkar bedömningen.[91]

Det är ännu ovisst hur den digitala rymdens struktur är uppbyggd och förändras vid exekverandet av funktionsordningen. Därför är dess likhet eller skillnad jämfört med en rättsnorm, som ingår i rättssystemet, okänd och i förekommande fall förmodligen också svår att bedöma. Rättsnormen och algoritmen är emellertid båda handlingsnormer med en adressat, och resultatet av handlingen eller underlåtenheten kan jämföras med varandra beträffande huruvida av rättsordningen skyddade rättigheter och värden då har upprätthållits eller blivit skadade.

Praktiskt sett skulle AI och algoritmen närmast fungera som en slags normgivare, vilket utmanar rättsstatens principer och maktdelning med en folkvald lagstiftande församling. Legalitetsprincipen är i grunden ett minoritetsskydd mot en godtycklig och maktfullkomlig stat, och bör få en kontrollerande betydelse för AI och dess funk­tionsordning också i tillämpningen. En funktionsordning får inte begränsa det normativa fältet av den enskildes fri- och rättigheter och inte heller normativt utvidga eller annars ändra villkoren för intrång i dessa, som är en uppgift vilken ankommer på riksdagen att besluta om och domstolarna genom sin rättspraxis att precisera.[92]

AI och dess funktionsordning kan uppträda på skilda sätt, bl.a. som delaktig i brott, biträda åklagaren att i register söka efter förmildrande och försvårande omständigheter av betydelse för valet av påföljd, en innehavare av rättigheter och potentiell målsägare, ha strukturer som erinrar om ett företag, och i rättstillämpningen delta som beslutsfattare i rättsliga sammanhang t.ex. vid ett yrkat försörjningsstöd.[93]

Emellertid stöter AI på avsevärda svårigheter vid bevisvärderingen där muntlig bevisning ska prövas. Ord, upplevelser och berättelser ska granskas rörande trovärdighet och tillförlitlighet, och sedan vägas samman med andra bevis. Tekniska bevis uttalar sig statistiskt om en potentiell framtida händelse och avser inte den unika historiska situa­tion som rättegången handlar om.[94] Det finns teoretiska problem med att hederligt och begripligt överbrygga skillnaden mellan exekverandet av matematiska formler på presumerade men inte bevisade bevisvärden och en erfarenhetsmässig och förnuftig bedömning av en muntlig utsaga inför sittande rätt. Utan betänkligheter torde i regel också kunna antas att AI inte är bekant eller särskilt lämpad att utföra skönsmässiga överväganden som förekommer frekvent i tillämpningen.

Risken för godtycklighet och uppenbara felslut med åtföljande rättsförluster kan inte uteslutas, och torde vara måldrivande i betydelsen av att parterna söker sig till extraordinära rättsmedel för att återvinna rättigheter som har blivit kränkta.

Typiskt för rättsstaten är att utomrättsliga, godtyckliga och summariska förfaranden och sanktioner inte får förekomma för att beröva den enskilde hans eller hennes rättigheter. Grundläggande är här rätten till en domstolsprövning som ska ske inför en oberoende och opartisk domstol inrättad enligt lag, och förhandlingen ska vara offentlig.[95] Om AI och dess funktionsordning skulle döma till ansvar för en gärning som den saknar saklig jurisdiktion för eller som inte är kriminaliserad enligt svensk rätt, så synes villkoret inrättad enligt lag att vara åsidosatt. Rättegången har genomförts i klar konflikt med principerna om utövandet av statens våldsmonopol (utomrättsligt förfarande), och kränkt mänskliga rättigheter som då ska återvinnas. Den enskilde har lidit rättsförluster också vid en rättstillämpning som medfört en påföljd eller straffmätning som inte möter villkoren i författning eller framgår av vägledande rättspraxis.[96] Det är i en rättsstat naturligtvis angeläget att rättigheter är och förblir effektiva och praktiska, bl.a. envars likhet inför lagen och domstolen och rätten till icke-diskriminering.

AI och dess funktionsordning och möjlighet till hemlig övervakning och inhämtning av information för olika syften bör innebära att den misstänktes passiva[97] och aktiva rättigheter[98] får en ökad betydelse och styrka vid genomförandet av förfarandet i brottmål. Rätten för den misstänkte att inte behöva berika utredningen och därvid bl.a. vara tyst utan att lida nackdelar av sitt utövande av rättigheter[99] ska garanteras liksom oskyldighetspresumtionen, vilket knyter an bl.a. till tillåtligheten av bevis om karaktär och rättsverkan av provokationer (automated spear-phishing). Eftersom envar ska anses oskyldig till dess att hans skuld blivit lagligen fastställd etableras ännu ett normativt led för att beröva någon hans rättigheter. Ett normativt villkor är givet AI:s funktionsordning ytterst ovisst, och ger därför näring till farhågor om ett urholkat människovärde och rättsskydd.

Vidare bör AI konfronteras med den kontradiktoriska bevisupptagningen såsom en eventuell affärshemlighet, vars funktionsordning i så fall inte får granskas av part eller domstolen. Därmed avhänds part möjligheten att kritiskt granska och ifrågasätta informationen som är genererad direkt eller indirekt av AI. Risken för oriktiga domslut kan inte uteslutas, och det väcker synnerligen starka betänkligheter att utan ingående och mogna överväganden möjliggöra att AI används för uppgifter i rättskipningen.

En annan sak är att det på goda grunder kan förmodas att AI steg för steg kommer att accepteras av allmänheten som ett kulturellt fenomen i samhället, och möjligen också föranleda en viss utveckling eller nyansering av det svenska språket. Sannolikt kommer AI fortsätta att förmera sig inom både det privata levnadsområdet och den offentliga sektorn. Att så sker inom industrin och därtill samverkande ekonomiska system är inget oväntat utan högst naturligt.

Samtidigt beror de stora tekniska systemen— AI inkluderat — av varandra, och de behöver emellanåt balanseras och samordnas för att i tid hindra olyckliga utvecklingar och situationer. Av stor betydelse är här människans nyfikenhet, intresse för nya utmaningar och överlevnad, som i allt väsentligt beror av hennes frihet och att tankar och idéer inte förbjuds och bestraffas utan tvärtom att mångfald är tillåten och uppmuntrad.

Den nya teknologin med AI och dess betydelse för värderingar och rättigheter och ett inkluderande samhälle utgör en utlösande impuls för att höja blicken och söka en orientering bland olika perspektiv på människan som en unik individ, och mänskligheten som en helhet.[100]

Sebastian Brant (1458–1521) betonar vikten av den saken och knyter då an till historisk kontinuitet:[101]

 

Of the rewarde of wysdome

                      So Plato dyd folysshe company eschewe

And all other folyes procedynge of the same

Walkynge in the way of goodnes and vertue

Whereby he wan, laude and immortall fame

But nowe worldly wysdone hath so corrupt the name

That none it makyth happy vertuous nor wyse

But hym that with hert and mynde doth it despyse.

 

Huruvida kunskap och verklighet har sin början eller slut i ett atomistiskt eller holistiskt paradigm må vara osagt, och likaså vilket förhållandet noga räknat är mellan förnuft och erfarenhet. Men det är hög tid att reflektera över och ta ställning till vad AI betyder och kommer att betyda för rättsordningen och rättstillämpningen,[102] och inte minst för mänskliga rättigheter, rättsstatens principer och demokrati.[103]

 

 


[1]  DeepMind AlphaZero, se https://robotnyheter.se/2017/12/30/deepminds-alphazero-besegrade-varldsledande-schack-ai-efter-bara-fyra-timmars-traning/ (besökt 2019-11-25).

[2]  För drygt fyra år sedan blev AI-boten Sophia medborgare i staten Saudiarabien, se https://www.idg.se/2.1085/1.691558/robot-far-medborgarskap (besökt 2019-12-26). Robo-t­en har därefter sagt sig att vilja ha barn, se https://www.nyteknik.se/popularteknik/ roboten-sophia-fick-medborgarskap-nu-oppnar-hon-for-att-skaffa-barn-6886401 (besökt 2019-12-26).

[3]  Om invändningar mot att ge AI-botar medborgarskap, se https://www.nyteknik.se/popu-larteknik/ai-professorn-tre-problem-med-att... (besökt 2019-12-26).

[4]  Osäkert är emellertid huruvida en AI-bot kan framföra ett konsertstycke lika njutningsfullt och med samma inlevelse som vad en pianist, violinist eller vokalist med mångårig övning och praktiserande kan. Även ett tekniskt sett fulländat framförande av musikstycket eller sången kan utan tvivel upplevas som utan ett tilltal och dystert opersonligt, med saknad av temperament och livfullhet. Även om en AI-bot förmodligen kan framföra Beethovens violinkonsert enligt alla notvärden kan emotses att en erfaren violinist på gott instrument ger lyssnaren något annat och mera än just en uppvisning av strikt lydnad mot not­systemets värden, och det gäller nog även sopranens och tenorens variationer i en opera av Verdi. Vetenskap och dess egentliga relation till konst, musik, litteratur och kultur i allmänhet är en mänsklighetens eviga fråga, som sträcker sig bortom gränserna för det hittills kända. Se härtill avsnitt 8 om nya ord och poesi för att bättre förstå AI.

[5]  Se https://dfabhouse.ch (besökt 2020-01-02).

[6]  https://www.aispacefactory.com (besökt 2020-01-02).

[7]  Artificial General Intelligence (AGI) är ännu outvecklad men forskning pågår.

[8]  Ett självkörande fordon kan inte förutse att faror plötsligt dyker upp, t.ex. kringflygande föremål vid storm, obevakade markarbeten, hastigt uppkomna slukhål vid störtregn och annan sådan klimatpåverkan, terrorism och andra brott, blixtnedslag, skogsbränder, jordbävningar, m.m.

[9]  Se allmänt Max Tegmark, Liv 3.0, Att vara människa i den artificiella intelligensens tid, Volante (2019).

[10]  Normativ kontext används här utan ställningstagande till alternativen rättspositivism eller naturrätt.

[11]  Ett exempel är huruvida beslut av AI rörande försörjningsstöd utgör myndighetspraxis och därför är en rättskälla enligt svensk rätt, och om grunderna för prejudikatläran bör ses över t.ex. avseende huruvida avgöranden från Högsta domstolen ska vara bindande för underinstanserna. En sådan sträng och ovillkorlig skyldighet att följa ställningstaganden av högsta instans saknas idag och skulle om den blev verklighet förmodligen påverka domstolens arbete att vägleda rättstillämpningen, men också teorier om tolkningen av prejudikat. I ett vidare sammanhang kan det bli aktuellt att överväga kriterierna för att fastslå en regel i den internationella sedvanerätten som bindande för världssamfundets alla stater med undantag för persistent-objector-rule.

[12]  Det framgår redan av Europakonventionen, se Ulf Lundqvist, Laga och rättvis rättegång i praxis (2017), s. 50–56 med hänvisningar till rättspraxis från Europadomstolen. Ett sådant rättsskydd finns även i Afrikanska Rättighetskatalogen med anslutande instrument, FN:s konvention om skydd för medborgerliga och politiska rättigheter och den Inter-Amerikanska konventionen om skydd för mänskliga rättigheter. Detsamma gäller för krigsfångar enligt artikel 13 och 14 i Tredje Genèvekonventionen (1949).

[13]  Det vore närmast att återinföra inkvisition där den utpekade var ett objekt och utan rättigheter och en legal bevisteori med i förväg kända formler för bevisets värde som medeltida skiljedomare.

[14]  Se vidare avsnitt 7.3.

[15]  Om AI som ett stort tekniskt system och kulturellt fenomen i samhället, se avsnitt 7.2.

[16]  1 kap. 1 § brottsbalken. Om förbud mot retroaktiv strafflag, se bl.a. 2 kap. 10 § regeringsformen och artikel 7 i Europeiska konventionen den 4 november 1950 angående skydd för de mänskliga rättigheterna och de grundläggande friheterna.

[17]  Se vidare härpå följande avsnitt.

[18]  Kravet på uppsåt framgår bl.a. av 1 kap. 2 § brottsbalken.

[19]  Fri vilja hävdades bl.a. av filosofen Immanuel Kant (1724–1804).

[20]  Förmodligen är algoritmer hos en fredlig AI-bot en annan än hos den som är designad för strid och väpnad konflikt.

[21]  NJA 2009 s. 447.

[22]  NJA 1998 s. 86.

[23]  Andra alternativ är t.ex. dess ägare eller brukare. Ansvarsfrågan är komplicerad, se Lundqvist, Laga och rättvis rättegång i praxis, s. 637 f. som bl.a. noterar frågan om strikt ansvar och ansvarets utsträckning uppströms och nedströms och densamme, Om prövningstillstånd i Högsta domstolen vid godtycklig eller uppenbart oriktig bevisvärdering i brottmål (2019), s. 136–138.

[24]  Jämför konstruktionen av reglerna för nöd m.m. i 24 kap. brottsbalken om allmänna grunder för ansvarsfrihet.

[25]  Inom pedagogiken benämns sådan erfarenhet förtrogenhetskunskap. Vid utvecklingen av ett yrkeskunnande handlar en nybörjare ofta enligt regler medan en mästare handlar mer intuitivt, med en helhetssyn på problemet och dess kontext och har därmed en koppling till know-how. Mästarens kunnande är större än delarna och ofta sådant att det inte låter sig verbaliseras så lätt. Först efter många års yrkesutövning kommer förtrogenheten där förmågan att se, lyssna och känna är viktig, likaså känslor och uttryck. Det tar tid att få den rätta känslan, som kräver medveten och kritisk reflektion och ofta interaktion med andra för att undvika kunskap byggd på fördomar, se Maja Elmgren och Ann-Sofie Henriksson, Universitetspedagogik, Studentlitteratur (2016), s. 25–28. I den dömande verksamheten ska naturligtvis därtill beaktas tillämplig författning och vägledande rättspraxis.

[26]  Om risk för en inbyggd diskriminering i AI, se Lars Lindberg, Diskriminerad av en Artificiell Intelligens, https://www.funktionshinderpolitik.se/diskriminerad-av-en-artificiell-intelligens/ (besökt 2019-12-10). Se även Diskrimineringsombudsmannens årsredovisning 2018 s. 38.

[27]  Se härtill avsnitt 4.4 om skyddade rättigheter.

[28]  Se vidare avsnitt 4.3 om förundersökningen.

[29]  NJA 2013 s. 746.

[30]  Se härtill NJA 1998 s. 204 och NJA 1996 C 74, och Lundqvist, Laga och rättvis rättegång i praxis, s. 375 f., 379.

[31]  Om biologiska nycklar och tekniska bevis, se Lundqvist, a.a.s. 370–385.

[32]  Om kritik mot en logisk modell för bevisvärdering utan intuition, se Per Henrik Lindblom, Bevisvärde. I: Studier i processrätt, Norstedts juridik (1993), s. 275–290. Kritisk därtill också Ulf Zeidner, Något om bevisföring vid tillämpning av sam- och motverkansformlen, SvJT 1992 s. 276.

[33]  De formella regler om bevisets värde, inte dess tillåtlighet, som gavs i äldre rättegångsbalken innebar att domaren ibland var tvungen att frikänna den tilltalade trots stark övertygelse om att personen var skyldig till brottet, och omvänt fälla till ansvar trots goda skäl för att personen var oskyldig. Reglerna bakband domarens möjlighet och utrymme att döma materiellt riktigt. Genom nya rättegångsbalken och den fria bevisvärderingen (utan sådana fasta värderingsregler i balken) där även indicier har bevisvärde kan prövningen av bevisets styrka och dess relation till beviskravet bli mera exakt än tidigare, och utgången i målet mera rättvist materiellt sett. Med andra ord upprätthålls rättigheter och värden bättre med fri bevisvärdering än legal bevisteori, vilket även främjar normsystemets stabilitet och dess förutsebarhet. Bevisvärderingen äger rum vid överläggningen, och dessför­innan har under rättegången bevisupptagning skett där relevanta, trovärdiga och tillförlitliga bevis lagts fram av parterna och granskats i enlighet med den kontradiktoriska principen. I det sammanhanget ska observeras att ett bevisanvändarförbud inte har till syfte att säkerställa utfinnandet av sanningen och en materiellt riktig dom. Bevisförbudet har en skyddsfunktion och tillgodoser statens skyldighet under konventioner om skydd för mänskliga rättigheter att återvinna kränkta rättigheter och upprätthålla rätten till en laga och rättvis rättegång. Därtill kommer dess normstabiliserande funktion. Oberoende och självständigt från bevisanvändarförbudet, som medför att beviset ska gallras bort från förfarandet och avvisas, ska prövas huruvida den som t.ex. misshandlat den misstänkte för att tvinga fram ett erkännande ska lagföras för bestraffning. Det ena utesluter inte det andra, men det är två skilda test att utföra.

[34]  Om domaren borde ersättas av tärningskast berörs av Eric Bylander, Den datoriserade domaren, SvJT 2019 s. 1, på s. 3.

[35]  35 kap. 2 § st. 1 rättegångsbalken.

[36]  35 kap. 6 § rättegångsbalken.

[37]  T.ex. tidigare fällande eller friande domar och påföljder.

[38]  T.ex. målsägandens sexuella preferenser och handlande i tiden före och efter den åtalade händelsen.

[39]  Om karaktärsbevis, se allmänt Lundqvist, Laga och rättvis rättegång i praxis, s. 280–298.

[40]  Se härtill International Telecommunication Union (ITU), United Nations activities on artificial intelligence (AI) 2019 där 38 stycken FN-organisationer berör AI ur sina skilda roller och uppgifter bl.a. rörande brottsbekämpningen.

[41]  AI med ansiktsigenkänning kan såvitt bekant användas även på Internet och med hjälp av kameran på användarens dator och via en databas med lagrad grunddata av individer bestämma vem den personen är som sitter vid datorn, hans eller hennes ålder och andra personuppgifter som eventuellt har hämtats av AI från andra register med digital informa­tion. Databasen måste inte nödvändigtvis bestå enbart av tidigare för brott misstänkta personer eller dömda förövare. I några länder där ett sådant lagförslag arbetats fram har det emellertid avvisats som alltför kränkande och en fara för den personliga integriteten, och därför inte lett till någon lagstiftning.

[42]  Europadomstolen har sedan flera år tillbaka varnat för framväxten av en polisstat i takt med att tekniken för hemlig övervakning blivit alltmer sofistikerad. I anledning av det har domstolen i sin praxis antagit dubbla krav på nödvändighet för att godta intrång i rättigheter under artikel 8 i Europakonventionen, se Case of Szabó and Vissy v. Hungary, Judgment, Strasbourg 12 January 2016. Som bekant reser domstolen även krav på normens kvalitet, varom bl.a. Case of Zakharov v. Russia, Judgment, Strasbourg 4 December 2015. Domstolen har vidare en lagprövningsrätt även i mål där det inte finns en klagande som lidit skada under konventionen som följd av att av lagstiftningen har tillämpats. Se härtill Lundqvist, Laga och rättvis rättegång i praxis, s. 479–492 med hänvisningar till praxis, som bl.a. avser betydelsen av raderade uppgifter för försvarets rättigheter, och godtyckliga eller annars mycket allvarliga situationer av rättighetskränkningar vid hemlig övervakning (flagrant non-observance).

[43]  Se NJA 2015 s. 631 om husrannsakan på tidningsredaktion och beslagsförbud.

[44]  NJA 2007 s. 1034, vartill Lundqvist, Laga och rättvis rättegång i praxis, s. 188–215 där övrig praxis från Högsta domstolen behandlas liksom från Europadomstolen. Om provoka­tion som förtäckt förhör utan försvarare, se NJA 2011 s. 638 med Lundqvist a.a.s. 78, 233–239, 264 f., 576.

[45]  En person får t.ex. mail som förleder denne att besöka en hemsida som försätter honom eller henne i en prekär eller rent av en brottslig situation eller vilseleds att öppna en bilaga till mailen som är aktiverad för att åstadkomma skada. Av stor betydelse för att mottagaren ska provoceras och förmås till handling är kunskap om hans eller hennes vanor, preferenser och andra personliga karaktärsdrag. Det är inte uteslutet att den metodik som förekommer vid fysiska provokationer där med stöd av psykologer personen bearbetas över en längre tid för att bygga upp en brottslig profil och kriminell benägenhet för att slutligen begå brott flyttas över till den digitala rymden och kontrolleras av AI-botar. Gränsen mellan spel och verklighet blir då än mer oklar, och skapar betydande olägenheter för myndigheter och domstolar att upprätthålla effektiva och praktiska rättigheter för den enskilde och rättsstatens principer. Se härtill JO:s beslut 2011-11-28, dnr 0731-2010 och 3652-2010.

[46]  Några intressanta diskussioner på temat politiska och religiösa ledare som har en religiös agenda men eftersträvar politisk makt och betydelsen av det förhållandet för konflikter och fredsinitiativ finns i Kjell-Åke Nordquist (red.), Gods and arms. On religion and armed conflict. Church of Sweden research series, Volume 6, Pickwick publications (2013). Där finns läsvärda bidrag om fundamentalism, internationell terrorism och religion och deras möjliga samband med konflikter och den s.k. left behind-doktrinen (war of armageddon).

[47]  Entreprenören Elon Musk anser att AI är farligare än kärnvapen, se https://www.youtube.com/watch?v=B-Osn1gMNtw (besökt 2019-11-22). Tar man varningen på allvar vore redan existensen av reinforced learning AI sannolikt ett vapen, eftersom det inte kan kontrolleras av människan utan tar egna beslut och verkställer dem på egen hand. Stephen Hawkins varnar år 2014 för att AI kan bli slutet på mänskligheten, se https://www.youtube.com/watch?v=Ps6CyXHWz_k (besökt 2019-11-22). Se härtill The malicious use of Artificial Intelligence: Forecasting, prevention and mitigation, Miles Brudage m.fl., Future of humanity institute/University of Oxford/Centre for the study of existential risk/University of Cambridge/Center for a New American security/Electronic frontier foundation/OpenAI, February 2018, https://maliciousaireport.com/ (besökt 2019-11-23).

[48]  4,2 miljarder kronor fram till år 2029 och med tillskott från universitet och näringsliv sammanlagt 5,2 miljarder kronor.

[49]  Nationell inriktning för artificiell intelligens, Näringsdepartementet N 2018:14.

[50]  För mer information, se https://www.ri.se (besökt 2020-01-04). RISE har fem divisioner gränsöverskridande affärs- och innovationsområden: bioekonomi och hälsa, digitala system, material och produktion, samhällsbyggnad och säkerhet och transport.

[51]  The malicious use of Artificial Intelligence (not 47).

[52]  Även den bästa av algoritmer kan förmodas ha betydande och kanske oöverstigliga svårigheter med att intellektuellt ”förstå” möten mellan människor som sker under starka emotionella förutsättningar som t.ex. lidande, ömhet, kärlek, längtan, rädsla och en känsla av samhörighet. Skön musik och vacker konst är en fråga om (god)tycke, och AI-boten stöter antagligen på problem vid ett försök att förnimma och uppleva smakerna av en utsökt middag med gott vin därtill (t.ex. salt, sött, surt och beskt).

[53]  Som exempel på stora tekniska system kan nämnas bl.a. produktion, distribution och förbrukning av energi, transporter på land, till sjöss och i luften, system för vattenförsörjning och avlopp, tekniska cykler för att återvinna råvaror och, inte minst, Internet och plattformar för sociala medier. För stora tekniska system, se vidare Pär Blomkvist & Arne Kaijser (red.), Den konstruerade världen. Tekniska system i historiskt perspektiv, Brutus Östlings Bokförlag Symposion (1998) och Kenneth T. Jackson, Crabgrass frontier. The suburbanization of the United States, Oxford University Press (1985). Där framgår tydligt hur teknikutveckling och stora tekniska system genom historien har påverkat vardagen för människor och samhället i en rad olika avseenden. — I OECD:s rekommendationer rörande en ansvarsfull förvaltning och tillförlitlig AI betecknas AI som en teknologi: ”Artificial Intelligence (AI) is a general-purpose technology that has the potential to improve the welfare and well-being of people, to contribute to positive sustainable global economic activity, to increase innovation and productivity, and to help respond to key global challenges. It is deployed in many sectors ranging from production, finance and transport to healthcare and security.”, se OECD, Recommendation of the Council on Artificial Intelligence, OECD/Legal/0449, adopted on 22 May 2019, s. 2.

[54]  Rättsordningen är inget stort tekniskt system, men som har framgått i föregående avsnitt aktualiserar AI-teknologin helt nya forskningsfält, som rör grunderna för rättsstaten, demokrati och mänskliga rättigheter. Utan dessa kunde inte de stora tekniska systemen konstrueras och drivas, som därför i någon mening är beroende av frihet och fritt tänkande som orsak till uppfinningar och patent som skyddar gjorda investeringar.

[55]  En dikotomi eller två sidor av samma mynt.

[56]  Sanning som överensstämmande med verkligheten (sinnen och empiri), logisk samstämmighet mellan olika idéer och antaganden (förnuft och rationalism) eller som konsensus (socialt konstruerad), se Elmgren & Henriksson, a.a.s. 29.

[57]  Hans Liljenström är professor i biometri vid SLU med inriktning mot teoretisk biologi och biofysik och ägnar sig åt forskning kring fri vilja, och är därtill föreståndare för Agora for biosystems som är ett internationellt center för forskning vid Sigtunastiftelsen. Se härtill www.Agoraforbiosystems.se.

[58]  T.ex. Argentina (artikel 97-artikel 103, även sekonderna bestraffas), Ghana (artikel 38 och artikel 203), Kanada (artikel 71), Mexiko (artikel 297), Tanzania (artikel 88), Uganda (artikel 80) och Zambia (artikel 89), vartill Lundqvist, Laga och rättvis rättegång i praxis, s. 680, 734, 765, 814.

[59]  Sådana brott finns bl.a. i strafflagen för Ghana (artikel 315), Indien (artikel 508), Kina (artikel 300), Pakistan (artikel 300) och Zimbabwe (artikel 100), vartill Lundqvist, a.a.s. 183, 679, 765 och 814. — En särskild regel om att fri bevisvärdering ska vila på de senaste rönen inom vetenskap och erfarenhet finns i straffprocesslagen för Schweiz (artikel 139:1).

[60]  Processer mot djur förekom långt fram i tiden bl.a. i Frankrike, Tyskland och Schweiz, och i USA mot en hund så sent som år 1960 för att den hade angripit folk, se Jan Bondeson, Lärda grisar och falska sjöjungfrur. Essayer av Jan Bondeson, Kiviksgårdens Förlag (1994), s. 110–127.

[61]  Om kritik mot AI-baserad påföljdsbestämning i USA på grund av bristande transparens, se https://www.ted.com/talks/peter_haas_the_real_reason_to_be_afraid_of_art...? utm_source=tedcomshare&utm_medium=email&utm_campaign=tedspread (besökt 2019-12-09).

[62] Nina Burton (Samfundet De Nio, Stol nr 2), Det splittrade alfabetet: tankar om tecken och tystnad mellan naturvetenskap, teknik och poesi, Brutus Östlings Bokförlag Symposion (1999).

[63] Tyst eller underförstådd kunskap.

[64] En sådan tudelning finns även inom pedagogiken. En ytlig inlärning eller faktainlärning innebär att studenten försöker minnas så många detaljer som möjligt, men tar inte ställning till vilka som är väsentliga och sammanfogar inte heller fakta till en helhet (atomistiskt perspektiv). Han eller hon kan inte resonera eller lösa nya problem utan kan enbart reproducera kunskaperna, som snabbt glöms bort. Djupinlärning innebär att studenten söker efter mening och centrala budskap, sammanhang och principer, och kopplar den nya kunskapen till tidigare kunskap och erfarenheter och integrerar till en helhet (holistiskt perspektiv). Kunskaperna kan användas för nyskapande och stannar kvar i minnet en längre tid. Denna tudelning har en grund i kunskapsteorins vägval mellan en atomistisk syn på kunskap och en holistisk. Den förra karakteriseras av att kunskap ses som fragment lätta att bevisa, som sedan används för att bygga komplexa system. På senare tid har den holistiska uppfattningen vunnit terräng och här handlar det om att helheten betyder något mer än delarna, eftersom kunskapen sätts i ett sammanhang (kontextualiseras). Delarna är närmast aspekter av helheten än delar som bygger den, se Elmgren & Henrikson, a.a.s. 18–21. — Taxonomi är ett sätt att systematiskt beskriva hur resultatet av studenternas lärande visar successivt ökande komplexitet (kvantitativt och kvalitativt). Om SOLO-taxonomin (Structure of the Observed Learning Outcome) och skalan från prestrukturell till utvidgat abstrakt, se a.a.s. 158 f., 273.

[65]  Språkförbistringen är en besvärlig tröskel också vid utförandet av komparativa analyser och jämförelser mellan olika rättsordningar.

[66]  En intressant fråga är huruvida AI som en aktör i rättsväsendet skulle på eget initiativ arbeta fram och anta en ny terminologi anpassad för dess funktionsordning och således bryta iväg från och splittra en gängse terminologi. En följd av det vore att förståelsen av rättsordningen och betydelsen av rättspraxis och andra rättskällor skulle grumlas och försvåras. Rättstillämpningen skulle för en överskådlig tid konfronteras med problem huruvida den tillämpade normen är förutsebar och tillgänglig och möter berättigade krav på kvalitet och därtill svårigheter med att kunna upprätthålla rättsstatens principer och ett effektivt rättsskydd för den enskilde.

[67]  Det kan emellertid noteras att vänster hjärnhalva vanligen svarar för tänkande som är logiskt, rationellt, analytiskt och atomistiskt, och höger hjärnhalva för tänkande som är intuitivt, syntetiserande och holistiskt, se Elmgren & Henriksson, a.a.s. 44.

[68]  AI:s behörighet vid självkörande fordon kan t.ex. vara fullständig inom ramen för det definierade mönstret (uppdraget) vid trafik inom ett inhägnat område, begränsad vid körning på lätt trafikerad allmän väg, starkt beskuren i tätbebyggt område och ingen behörighet för trafik på motorväg.

[69]  Se Stig Strömholm och Åke Frändberg, Rättsteoretiska klassiker. En antologi, Bokförlaget Thales (1988), s. 27–43.

[70]  T.ex. artikel 8 i den Inter-Amerikanska konventionen om skydd för mänskliga rättigheter, artikel 14 i FN:s konvention om skydd för medborgerliga och politiska rättigheter, artikel 7 i Afrikanska rättighetskatalogen med tillhörande guidelines, artikel 6 i Europakonventionen och artikel 47–50 i EU:s stadga om de grundläggande rättigheterna, vartill Lundqvist, Laga och rättvis rättegång i praxis, s. 110–176.

[71]  För internationella väpnade konflikter, se bl.a. artikel 7, 17 och 82–108 i Tredje Genèvekonventionen (krigsfångar), och artikel 8, 33 och 64–78 i Fjärde Genèvekonventionen (civila) där artikel 75 i Tilläggsprotokoll I till den konventionen som förlaga haft artikel 14 om rättvis rättegång i FN:s konvention om skydd för medborgerliga och politiska rättigheter och nära nog är identisk med den. Om laga och rättvis rättegång vid väpnad konflikt av en icke-internationell karaktär, se bl.a. artikel 3 i Tredje respektive Fjärde Genèvekonven­tionen (common article 3) och artikel 6 i Tilläggsprotokoll II. Samtliga internationella brottmålsdomstolar har i sina stadgar bestämmelser om rätt för den misstänkte till en laga och rättvis rättegång, t.ex. artikel 66–67 och 69 i stadgan för Internationella brottmålsdomstolen, artikel 20–21 i stadgan för Jugoslavientribunalen och artikel 19–20 i stadgan för Rwandatribunalen. — För krigsfångar gäller enligt artikel 7 i Tredje Genèvekonventionen att konventionens rättigheter aldrig får avstås ifrån, även om fången frivilligt vill det. Enligt kommentaren till bestämmelsen vore det svårt att visa hot och andra påtryckningar samtidigt som fångenskap i sig innebär att fången inte är i ett tillräckligt oberoende och självständigt tillstånd att bedöma den saken: artikel 7 skyddar fångens fria vilja och hans frihet, och skulle undantag ges destabiliserades det rättsskydd som konventionen avser att ge. En motsvarande regel med absolut förbud att avstå från rättigheter finns för civila enligt artikel 8 i Fjärde Genèvekonventionen. Noteras bör även förbuden mot vissa förhörsmetoder enligt artikel 31 och artikel 32 i Fjärde Genèvekonventionen, och bl.a. artikel 13 och artikel 17 i Tredje Genèvekonventionen. Därtill kommer artikel 99 i den senare som enligt kommentaren bl.a. förbjuder tortyr, användningen av kemiska produkter skapade för att övervinna personens bedömningsförmåga, att influera eller begränsa hans fria vilja eller att bygga upp artificiella intryck. Artikel 99 omsluter även långvariga förhör som resulterar i extrem utmattning och nervösa sammanbrott för att förmå den hörde att medge vad som helst. Reglerna bör jämföras med straffprocessen i fredstid där rätten till laga och rättvis rättegång under vissa villkor får inskränkas, men inte beträffande kärnan av rättigheten. Den misstänktes rättsskydd är i det avseendet således starkare vid en väpnad konflikt. Genèvekonventionerna är internationell sedvanerätt och bindande för alla stater i världssamfundet där straffbestämmelserna i slutet av konventionerna innebär universell jurisdik­tion.

[72] Om jurisdiktion enligt artikel 1 i Europakonventionen, se t.ex. Case of Ilaşco and Others v. Moldavia and Russia, Judgment, Strasbourg, 8 July 2004.

[73]  Se bl.a. UN Human Rights Committee (HRC), General comment no. 31 [80], The nature of the general legal obligation imposed on States Parties to the Covenant, paras. 10–11, 26 May 2004, CCPR/C/21/Rev.1/Add.13, available at: https://www.refworld.org/ docid/478b26ae2.html (accessed 11 January 2020) och UN Human Rights Committee (HRC), CCPR General Comment No. 29: Article 4: Derogations during a State of Emergency, para. 3, 31 August 2001, CCPR/C/21/Rev.1/Add.11, available at: https://www.refworld. org/ docid/453883fd1f.html (accessed 11 January 2020), vartill Lundqvist, Laga och rättvis rättegång i praxis, s. 138–140 och Hans Danelius, Mänskliga rättigheter i europeisk praxis. En kommentar till Europakonventionen om de mänskliga rättigheterna, Norstedts Juridik, Uppl 5:2 2018, s. 50.

[74]  T.ex. Prosecutor v. Zlatko Aleksovski, Case No.: IT-95-14/1-A- Judgment, 24 March 2000, para. 104, vartill Lundqvist, Laga och rättvis rättegång i praxis, kapitel 2 och kapitel 10.

[75]  Enligt Europakonventionens artikel 15 finns en reservation för lagliga krigshandlingar (lawful acts of war). Med ledning av ordalagen (krigshandling) indikeras att folkmord och brott mot mänskligheten faller utanför artikelns tillämpningsområde. Dessa brott förutsätter inte krigstillstånd utan har andra kontextuella element än en väpnad konflikt. Rätten till liv synes då inte få inskränkas med stöd av ordalagen i artikel 15. Enligt den Afrikanska rättighetsstadgan får derogation inte ske av någon rättighet, inte heller rätten till liv. Det framgår av artikel 4 respektive artikel 26 i rättighetsstadgan med regel R Non-derogable clause i Principles and guidelines on the right to fair trial and legal assistance in Africa (2003), vartill rättsfallet African Commission on human and peoplés rights, case of civil liberties organization v. Nigeria, case no. 129/94 (1995), para. 13. I den Inter-Amerikanska konventionen om skydd för mänskliga rättigheter är rätten till liv upptagen i artikel 4, och av artikel 27 rörande derogation anges att artikel 4 inte ingår i kretsen av inskränkbara rättigheter. Rätten till liv får således aldrig inskränkas.

[76]  UN Human Rights Committee (HRC), General comment no. 32, Article 14, Right to equality before courts and tribunals and to fair trial, 23 August 2007, CCPR/C/GC/32, available at: https://www.refworld.org/docid/ 478b2b2f2.html [accessed 13 January 2020], para. 6, vartill Lundqvist, Laga och rättvis rättegång i praxis, s. 138–140.

[77]  Bestämmelserna har motsvarigheter i Genèvekonventionerna med förbud mot kollektiv bestraffning och vedergällning (reprisals), se t.ex. artikel 13, 84, 100, 102 och 130 i Tredje Genèvekonventionen och artikel 33, 53, 66, 75 och 147 i Fjärde Genèvekonventionen och artikel 75 i Tilläggsprotokoll I och artikel 4 och artikel 6 i Tilläggsprotokoll II. Tillhörande kommentarer från ICRC visar på artikel 14 i FN:s konvention om skydd för medborgerliga och politiska rättigheter vid tolkningen av dessa bestämmelser.

[78]  En drivkraft till framväxten av Genèvekonventionerna, konventioner om mänskliga rättigheter och inrättandet av den Internationella brottmålsdomstolen i Haag (ICC) var den praxis som etablerades av rättegångar hållna efter slutet av andra världskriget. Såvitt avser utomrättsliga avrättningar kan här nämnas The Essen Lynching case. Trial of Erich Heyrer and Six Others. British Military Court for the Trial of War Criminals, Essen, 18th–19th and 21st–22nd December, 1945, och The Almelo Trial. Trial of Otto Sandrock and Three Others. British Military Court for the Trial of War Criminals, held at the Court House, Almelo, Holland, on 24th–26th November, 1945. — Särskilt bör nämnas The Justice trial. United States of America vs Alstötter et al (”The Justice Case”), 3 T.W.C.1 (1948) 14 Ann. Dig. 278 (1948), som ingående behandlar delar av tyska rikets lagstiftning och rättstillämpning före och under andra världskriget. Rättsfallet är en mycket intressant läsning där fällande domar gavs mot ministrar och tjänstemän på olika nivåer, och åklagare och domare vilka i skilda befattningar hade tillämpat lagstiftningen. Utredningen i målet visar entydigt bl.a. att justitiedepartementet samarbetade med specialdomstolarna, åklagarna och hemliga polisen. På grundval av lagar som var diskriminerande mot vissa grupper i samhället och tillät ett vitt spann av godtycke i tillämpningen var syftet att ge genomslag åt Führerprincipen eller att ändamålet helgar medlen och att alltid böja sig för ledarens vilja, som var högsta rätt. Personer greps för att genomlida en summarisk och godtycklig rättegång innan dödsstraffet eller annan sanktion verkställdes. Rättsfallet, som i delar förklarar varför genomförandet av ett förfarande som visserligen var fotat på författning men hade syftet att förfölja vissa grupper i samhället utgör en straffbar handling, ger också vid handen att höga politiker inom justitiedepartementet instruerade militärledningen att tillse att nedskjutna besättningar från allierat flyg skulle lynchas av civilbefolkningen som inte riskerade repressalier för det. Besättningen ansågs vara terrorister, och en sådan folkets dom anbefalldes varmt av den politiska och militära ledningen. Därutöver gav bevisningen i målet vid handen att domare hade genomfört rättegångar olagligen, godtyckligt och orättvist.

[79]  Se härtill avsnitt 7.3.

[80]  Svea hovrätts dom den 31 maj 2017 i mål nr B 2259/17.

[81]  Artikel 34 i 1969 års Wienkonvention om tolkning av traktater. Konventionen i kraft den 27 januari 1980 även för Sverige.

[82] Se SOU 2010:72 Folkrätt i väpnad konflikt — svensk tolkning och tillämpning. Slutbetänkande av Folkrättskommittén, s. 286–300, vartill Ulf Lundqvist, Om betydelsen av komparativa studier för rättstillämpningen och framväxten av en global rättsordning, SvJT 2019 s. 809.

[83]  I kommentaren sägs följande (fotnoter utelämnade): “Whereas common Article 3 of the Geneva Conventions and Article 75 of Additional Protocol I require a “regularly constituted” court, human rights treaties require a “competent” tribunal, and/or a tribunal “established by law”. A court is regularly constituted if it has been established and organized in accordance with the laws and procedures already in force in a country.”.

[84]  Om tolkning av internationella konventioner, se artikel 31 och artikel 32 1969 års Wienkonvention om traktaträtten.

[85]  Se härtill Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions on her mission to Iraq, United Nations General Assembly, Human Rights Council, A/HRC/38/44/Add.1, 20 June 2018.

[86]  I praxis om mänskliga rättigheter finns exempel där synnerligen allvarliga kränkningar av rättigheter medfört att domen ansetts vara en nullitet och upphävd (flagrant denial of justice). Ett sådant är när tortyr förekommit och därvid åtkommet erkännande presenterats vid rättegången mot den torterade rörande anklagelse för brott, och då även befunnits att rättegången varit olaglig. Se Lundqvist, Laga och rättvis rättegång i praxis, s. 261–263 med hänvisningar till praxis.

[87]   12 kap. 9 § st. 1 regeringsformen.

[88]  12 kap. 9 § st. 2 regeringsformen.

[89]  20 kap. 7 § rättegångsbalken.

[90]  Se härtill Ulf Lundqvist, Om prövningstillstånd i Högsta domstolen vid godtycklig eller uppenbart oriktig bevisvärdering i brottmål, Bokbyrån (2019).

[91]  Lundqvist, Laga och rättvis rättegång i praxis, bl.a. s. 71, 127 f., 143–145, 162, 169, 250 f. och 362 med hänvisningar till praxis från Europadomstolen.

[92]  Här bortses från vad som följer av internationella avtal.

[93]  AI och dess funktionsordning synes därmed både ha en slags normativ betydelse för grund och gräns för rättigheter, och för att pröva villkoren att beröva någon ett fritt och fullt utövande av dessa — helt eller delvis och permanent eller för en tid.

[94]  Tekniska bevis och statistik debatterades i början av 2020 i Dagens Juridik.

[95]  Vid den stora reformen av rättegångsbalken befanns förhandlingens offentlighet som något positivt och naturligt givet den muntliga rättegången, och den gav dessutom en reell möjlighet till insyn och kontroll från allmänhetens sida och journalister. Förutsättningarna för det blev bättre än enligt gamla rättegångsbalken då målet i stor utsträckning avgjordes med ledning av vad som antecknats i protokoll och fanns i domstolens akt.

[96]  Se härtill avsnitt 3.6.

[97]  Om passiva rättigheter och den misstänkte som subjekt med rättigheter och människovärde och anslutande praxis om provokationer, förtäckta förhör, förbjudna metoder vid förhör, karaktärsbevis, m.m., se Lundqvist, Laga och rättvis rättegång i praxis, s. 188–334.

[98]  Om aktiva rättigheter och ett kommunikativt och normerat förfarande, se Lundqvist, a.a.s. 335–436. Där behandlas praxis bl.a. rörande maktdelning i förfarandet, kontradik­tion, processuell likställdhet (equality of arms), att få del av processmaterialet, ändring av talan, egna åtgärder för att åtkomma bevis och tekniska bevis jämte olika tekniska och rättsliga standarder.

[99]  Jämför överklagande av dom och förbudet mot reformatio in peius.

[100]  En läsvärd artikel är Per Henrik Lindblom, En lektion i mörkerseende. I: Studier i processrätt, Norstedts juridik (1993), s. 63–81. — Om vikten av komparativa analyser och jämförelser i olika rättsliga sammanhang, se Ulf Lundqvist, Om betydelsen av komparativa studier för rättstillämpningen och framväxten av en global rättsordning, SvJT 2019 s. 809.

[101]  Citatet är hämtat från den av Alexander Barclay år 1509 gjorda engelska översättningen av originalet Das Narrenschiff (1494) av Sebastian Brant, betitlad Ship of Fools, och nu återgiven i Franklin Classics (2018) med Thomas Hill Jamieson som medarbetare, s. 247.

[102]  Några helt allmänna principer rörande AI och en ansvarsfull förvaltning av ett tillförlitligt system finns i OECD:s rekommendationer på området, varav framgår bl.a. att en AI-aktör är ansvarig för att AI fungerar korrekt och för att den respekterar rättsstatens principer, mänskliga rättigheter, demokratiska värden, envars likhet (equality) och icke-diskrimi-nering, transparens och andra sådana grundläggande värden och rättigheter som där anges. I rekommendationen finns vidare bestämmelser om utformandet av en nationell policy rörande AI och internationellt samarbete för en tillförlitlig AI och särskilt med avseende på små och medelstora företag, se OECD, Recommendation of the Council on Artificial Intelligence, OECD/Legal/0449, adopted on 22 May 2019. Se även Europarådets rapport Unboxing Artificial Intelligence: 10 steps to protect Human Rights (May 2019) och EU-kommissionens anvisningar Ethics Guidelines for Trustworthy AI, High-level Expert Group on Artificial Intelligence (April 2019).— För regulatoriska förslag i Australien, se Standards Australia, Developing standards for Artificial Intelligence: Hearing Australia´s voice, Discussion paper, June 2019. — För svenskt vidkommande har arbete med standardisering påbörjats inom ramen för SIS, se https://www.sis.se/nyheter-och-press/nyheter/ramverk-ger-ai-en-neutral-o... (besökt 2019-12-26).

[103]  Sommaren 2019 visade Tekniska Museet i Stockholm en utställning om AI, och enligt uppgifter på deras hemsida lär en ny utställning planeras till våren 2020 och då om Hyper Humans som bl.a. handlar om gränsen mellan människa och maskin.