Nytt om artificiell intelligens (AI) och ansvar

Nytt om artificiell intelligens (AI) och ansvar

Regeringen välkomnar EU-kommissionens ambition att underlätta för personer som drabbas av skada genom artificiell intelligens (AI) att kunna erhålla ersättning, vilket framgår av en faktapromemoria som publicerades i förra veckan.[1]

I slutet av september föreslog EU-kommissionen ett direktiv om skadeståndsansvar gällande AI.[2] Direktivet skulle innebära nya regler vad gäller edition och bevarande av bevis avseende så kallade högrisk-AI-system, samt nya regler om bevisbördan i samband med en skadeståndsbedömning. Ansvarsfrågor kopplade till användningen av AI har länge betraktats som komplexa och svårbedömda med utgångspunkt från befintliga regler om skadestånd. Komplexiteten beror bland annat på att det genom befintliga skadeståndsregler förekommer svårigheter att härleda skadeståndsansvaret och få klarhet i vem som anses som vållande i en ansvarsbedömning. Förslaget innebär ett första steg i att anpassa regler om skadestånd till användningen av AI, samt underlätta användningen av AI genom att avlägsna osäkerhetsmoment i samband med implementeringen.

Ett AI-system utgör en programvara, vilket innebär att det saknar rättskapacitet. Avsaknaden av rättskapacitet innebär att ett AI-system inte kan hållas ansvarigt för skador som AI-systemet orsakar, i stället måste ansvaret härledas till fysiska eller juridiska personer som står bakom systemet, såsom utvecklare, operatörer eller användare. Det kan både vara svårt att identifiera dessa personer, samt bedöma vem som ska hållas ansvarig i en utomobligatorisk situation. Även om en ansvarig person kan utrönas, krävs det dessutom att personen bakom AI-systemet kan bedömas ha varit i vart fall vårdslös. För att utröna om personen varit vårdslös genomförs en culpabedömning, i vilken hänsyn tas till hur en normalt aktsam person hade handlat i den givna situationen med utgångspunkt från en aktsamhetsnorm, eller aktsamhetsstandard, som pekar på hur en person kan förväntas agera i en specifik situation. För att identifiera en sådan aktsamhetsnorm hämtas normalt vägledning från sedvana, författning och prejudikat, men för det fall vägledning inte kan finnas i dessa källor, blir det upp till domstolen att göra en bedömning i det enskilda fallet, där särskild hänsyn tas till bland annat risken för skada och möjligheten att förhindra skadan. När det gäller AI-system är det idag oklart vilken aktsamhetsnorm som ska tillämpas, och dessutom kan AI-system ge upphov till oförutsägbara skador, vilket gör det svårt att på förhand vidta försiktighetsåtgärder. Av denna anledning kan genomförandet av en culpabedömning när det gäller AI-system betraktas som komplex, och oklar. Vidare krävs det för att ansvar ska kunna utdömas att det föreligger adekvat kausalitet, dvs. ett tillräckligt starkt orsakssamband, mellan den vållandes vårdslösa handling eller underlåtenhet och den uppkomna skadan. När det gäller AI-system är det ofta komplext för en skadelidande att exempelvis bevisa att en viss ”input” från en eventuellt vållande, har orsakat en viss ”output” från AI-systemet, vilken givit upphov till skada. AI-system präglas ofta av en stor oförutsebarhet, vilket gör att det blir svårt att härleda en skada till en viss handling, och dessutom handlingen till en viss aktör.

EU-kommissionens förslag till direktiv kan betraktas som ett första steg till att hantera ovan angiven problematik. För det första ges nationella domstolar behörighet att, på begäran från den som avser föra skadeståndstalan och under särskilda förutsättningar, besluta att särskilda aktörer, exempelvis leverantörer av ett AI-system, ska lämna ut och bevara relevant bevisning om ett högrisk-AI-system som misstänks ha orsakat den skadelidande skada. Om ett sådant beslut inte följs, ska domstolen i sin bedömning presumera att aktören inte uppfyllt det relevanta aktsamhetskravet, vilket innebär att aktören kan betraktas som vårdslös. För det andra föreslås en bevislättnadsregel vad gäller bevisbördan för orsakssambandet mellan vårdslöshet och ett AI-systems output, eller underlåtenhet att producera en output. Bevislättnadsregeln innebär att en nationell domstol under vissa förutsättningar ska presumera att kausalitet föreligger. Detta under förutsättning att vårdslöshet kan bevisas eller presumeras, det anses sannolikt att vårdslösheten påverkat outputen, eller underlåtenhet att producera outputen, och den skadelidande kan visa att outputen eller underlåtenheten att producera outputen orsakade skadan.

De föreslagna reglerna stärker skadelidandes möjligheter att få tillgång till ersättning för skada som orsakas av AI-system, och förväntas bidra till ett ökat förtroende för AI generellt, vilket också förväntas bidra till en positiv inverkan på både användningen och utvecklingen av AI. Även om förslaget skulle antas finns det fortsatt stora juridiska utmaningar med AI, och för att få en överblick över några av dessa hänvisar vi till den checklista som eSam nyligen publicerat: Checklista – Juridik vid användning av AI.[3]

För juridiska frågor relaterade till AI, välkommen att kontakta oss på Wikström & Partners Advokatbyrå!

Christina Wikström, advokat och partner, 070 691 68 00, christina@wikstrompartners.se
Anton Karlsson, biträdande jurist, 070 148 00 09, anton@wikstrompartners.se.

[1] Regeringskansliets Faktapromemoria 2022/23:FPM8 – Direktiv om skadeståndsansvar gällande artificiell intelligens.

[2] Förslag till EUROPAPARLAMENTETS OCH RÅDETS DIREKTIV Om anpassning av reglerna om utomobligatoriskt skadestånd vad gäller artificiell intelligens (direktivet om skadeståndsansvar gällande AI), COM(2022) 496 final.

[3] Checklistan finns att hämta på www.esamverka.se/stod-och-vagledningar.html.