31 aug Deepfakes – en utmaning för digitala möten?
Alltsedan Coronapandemins inträde i början av år 2020 har allt fler möten övergått till att genomföras digitalt. Möjligheten till att genomföra möten digitalt har fört med sig stora fördelar, bland annat avseende tidseffektivitet och positiva miljöaspekter. Även om digitala möten innebär stora fördelar finns det vissa utmaningar att beakta. En sådan är den teknik som möjliggör skapandet av så kallade ”deepfakes”. Tidigare i augusti publicerade kryptobörsen Binance en varning till sitt nätverk för bedragare på internet.[1] Detta efter att bedragare hade skapat deepfakes av kommunikationschefen Patrick Hillmann, och använt i samband med Zoom-möten.
Deepfakes är manipulerade eller konstgjorda ljud- eller bildmedier som framstår som autentiska, och som visar personer som verkar säga något eller göra något som de aldrig har sagt eller gjort. De produceras med hjälp av tekniker för artificiell intelligens (AI), och innebär att det går att skapa snarlika kopior av människors utseende, med utgångspunkt från stora mängder data. I Patrick Hillmanns fall rörde det sig om material som bedragarna hade inhämtat från tidigare nyhetsintervjuer och Tv-framträdanden som han hade deltagit i, och som de sedan använde för att skapa så träffande kopior av Patrick Hillmann att de obemärkt kunde genomföra Zoom-möten med resultaten i hans namn.
För att skapa högkvalitativa deepfakes krävs det i dagsläget ofta en betydande teknisk förmåga, samt avancerad utrustning, men EU beräknar att barriären för att få tillgång till högkvalitativa deepfakes kommer att minska drastiskt under de kommande åren. Redan idag går det att få tillgång till mer eller mindre övertygande deepfakes genom mobilappar. Av denna anledning ser EU stora risker kopplade till deepfakes, eftersom de kan användas för illvilliga ändamål, såsom identitetsstöld.[2]
Skapandet och användningen av deepfakes ger upphov till flertalet rättsliga frågeställningar. En person som olovligen använder en annan persons identitetsuppgifter, exempelvis ett namn eller ett fotografi, skulle kunna göra sig skyldig till olovlig identitetsanvändning enligt 4 kap. 6 b § brottsbalken (1962:700) (BrB) förutsatt att användaren utger sig för att vara den andra personen och förfarandet innebär skada eller olägenhet för den vars identitetsuppgifter olovligen används. Genom att sprida vissa integritetskänsliga uppgifter om andra personer skulle dessutom en person genom användningen av deepfakes kunna göra sig skyldig till olaga integritetsintrång enligt 4 kap. 6 c § BrB. Detta skulle exempelvis kunna vara fallet om den deepfake som skapas innefattar en bild på någons nakna kropp. Användningen av deepfakes skulle även kunna falla under brottsrubriceringen förtal, alternativt grovt förtal, 5 kap. 1 och 2 §§ BrB. Redan år 1994 fastställde Högsta domstolen att fotomontage, där bilder på kända personers ansikte hade fogats samman med andra personers kroppar, kunde utgöra grovt förtal.[3] I rättsfallet rörde det sig om fotomontage med sexuella anspelningar som hade publicerats i tidningen Hustler. I brist på vägledande avgörande avseende deepfakes är det däremot svårt att uttala sig om tillämpningen av ovan brottsrubriceringar, och ett förtydligande genom prejudikat kan betraktas som eftersträvansvärt.
Typiskt sätt förutsätter vidare skapandet av deepfakes tillgång till existerande videor och/eller bilder av personer. Till följd av att det i regel handlar om material genom vilket det går att identifiera en fysisk person, blir dataskyddsförordningen tillämplig, vilket medför att den som har för avsikt att skapa deepfakes måste förhålla sig till de regler som följer av dataskyddsförordningen. Dessutom skulle materialet kunna omfattas av upphovsrätt, eller en till upphovsrätten närstående rättighet, vilket i regel medför att det skulle krävas tillstånd av rättighetsinnehavaren innan en video eller bild används för att skapa deepfakes.
Inom EU genomförs flertalet insatser för att hantera de utmaningar och risker som ny teknik ger upphov till. På senare tid har EU-kommissionen bland annat publicerat ett förslag till reglering av AI[4], samt ett förslag till reglering av digitala tjänster[5]. Båda dessa förslag kan sannolikt, om de antas, få stor betydelse för möjligheterna att skapa och använda deepfakes. Genom att reglera AI påverkas de tekniska förutsättningarna för att både skapa och använda deepfakes, till följd av att dessa är en produkt av AI-användning, medan en reglering om digitala tjänster påverkar onlineplattformars (såsom sociala medier och marknadsplatser) möjligheter att obehindrat förmedla innehåll, vilket skulle kunna utgöras av deepfakes för illvilliga ändamål.
Problematiken med deepfakes belyser de utmaningar som den tekniska utvecklingen och digitaliseringen för med sig. Vi på Wikström & Partners följer noggrant den utveckling som sker på området, och följer med spänning de processer som sker inom EU för att hantera de utmaningar och risker som ny teknik ger upphov till. För frågor om deepfakes, AI eller digitalisering i allmänhet, välkommen att kontakta oss på Wikström & Partners Advokatbyrå!
Christina Wikström, advokat och partner, 070 691 68 00, christina@wikstrompartners.se & Anton Karlsson, biträdande jurist, 070 148 00 09, anton@wikstrompartners.se.
[1] Patrick Hillman, Scammers Created an AI Hologram of Me to Scam Unsuspecting Projects, Binance Blog, 2020-08-17, (https://www.binance.com/en/blog/community/scammers-created-an-ai-hologram-of-me-to-scam-unsuspecting-projects-6406050849026267209).
[2] European Parliamentary Research Service (EPRS), Tackling deepfakes in European policy, 2021, s. 70, (https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf).
[3] NJA 1994 s. 637.
[4] Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter, COM(2021) 206.
[5] Förslag till Europaparlamentets och rådets förordning om en inre marknad för digitala tjänster (rättsakten om digitala tjänster) och om ändring av direktiv 2000/31/EG, COM(2020) 825.