search bubble news heart bars angle-right angle-up angle-down Twitter Facebook linkedin close clock map-marker calendar
  • Fokus

Tekniken skapar möjligheter – men många faror lurar

AI-utvecklingen väcker nya frågor för advokatbyråerna och för rättssystemet. Rätt använd kan tekniken bidra till både effektivitet och kvalitet. Men riskerna är många, och det gäller att skynda långsamt när AI:n plockas in i verksamheten.

”AI-system med människoliknande intelligens kan skapa
betydande risker för samhället och mänskligheten, vilket en stor mängd forskning visat, och ledande AI-labb erkänt.”

Så inleds ett brev från omkring ett tusen forskare och tekniker, publicerat i mars i år. I brevet, som fått mycket medial uppmärksamhet, uppmanar undertecknarna alla världens forskare och utvecklare till sex månaders paus i forskningen kring AI-system mer utvecklade än företaget Open AI:s chattbott ChatGPT4. Bland alla undertecknarna till uppropet reagerade många särskilt på AI-entusiasten Elon Musks namn. Musk var själv med och grundade företaget bakom ChatGPT, ­OpenAI, men lämnade bolaget 2018.

Syftet med pausen ska, enligt brevskrivarna, vara att hinna ta fram och implementera en gemensam uppsättning regler för AI-utvecklingen, så att den är säker, och ett kontrollsystem som ska övervaka att reglerna följs.

Uppropet kom vid en tidpunkt när AI, artificiell intelligens, redan var på allas läppar. Och just ChatGPT är en viktig förklaring till det växande intresset. En gratisversion av chattbotten släpptes i november 2022, och sedan dess har den uppdaterats flera gånger. För varje uppdatering har botten blivit allt ”smartare” och mer människolik i sin förmåga att söka, sammanställa och presentera information.

Intet mänskligt är främmande för den nya digitala superstjärnan, inte heller juridik. I Advokaten nummer 3 berättas att ChatGPT klarat den allmänna advokatexamen i USA, med goda resultat. Bottens förmåga att formulera unika och människoliknande analyser och sammanställningar tvingade universitet och skolor att något yrvaket se över examinationsformer och uppsatsskrivande, då studenter och elever snabbt hittade en ny bästis som kunde skriva både hemtentor och PM, med goda resultat.

ChatGPT är samtidigt bara toppen på ett isberg. Vid sidan av denna språkbaserade modell finns också bildverktyg, musikverktyg och annan teknik som blixtsnabbt kan skapa unika verk utifrån vad som tidigare skapats av människor.

Perspektiven är svindlande. Eller, som ChatGPT:s och Microsofts AI:s chefsingenjör Shital Shah själv uttryckte det på Twitter: ”Det är som att vakna upp och få nyheten om en stor kärnvapenexplosion och inte veta vad man ska tycka om det, men veta att världen aldrig kommer att bli sig lik igen.”

Är ett tveeggat svärd

– Jag har i många år varnat för riskerna med AI. Det finns oerhört många risker. Samtidigt som det finns oerhört positiva saker med AI. Det är verkligen ett tveeggat svärd, säger Stanley Greenstein, docent i rättsinformatik vid Stockholms universitet.

Han tar inte ställning till uppmaningen i sig att pausa AI-utvecklingen eftersom han inte känner till de bakomliggande syftena, men han är positivt inställd till att riskerna med AI får ökat medial uppmärksamhet.

AI-skeptiker lyfter gärna upp de mest drastiska riskerna, som att den artificiella intelligensen så småningom kommer att manövrera ut människan och ta över kontrollen. Där är vi förstås inte än. I stället lyfter Stanley Greenstein, liksom ChatGPT (se artikeln ”ChatGPT tycker till om AI”), fram farorna i att AI tränas på snedvridna data och därmed kommer fram till skeva beslut.

Även människor fattar förstås beslut som är baserade på felaktiga data och fördomar. Problemet är att AI kan göra det i större skala och så mycket snabbare, påpekar Stanley Greenstein.

AI är dessutom mycket bra på att hitta korrelationer mellan datapunkter, men korrelation är inte desamma som orsakssamband. Här blir det lätt en krock med det juridiska sättet att resonera, där just orsakssamband är centrala.

– När man släpper lös en algoritm på ett dataset, som vilka som gjort sig skyldiga till mord, så kan den komma fram till att de som är mest benägna att begå mord är personer med storlek 42 i skor. Det finns absolut inget rationellt i det ur ett juridiskt perspektiv med orsakssamband i fokus. Men det kanske är sant, utifrån de data som använts, säger Stanley Greenstein.

Om det då saknas en misstänkt person i en mordutredning, vore det från ett polisiärt perspektiv logiskt att börja med alla personer med skor i storlek 42, konstaterar Stanley Greenstein. Detta kan i sin tur leda till att rättsliga principer successivt vattnas ur.

Ett annat område där AI:s logik krockar med juridikens krav är avsaknaden av möjligheten att förklara beslut.

– Ju mer komplex AI blir, desto större blir dess effektivitet. Det är just denna effektivitet som ökar vår benägenhet att använda AI för beslutsfattandet i många sammanhang trots riskerna. Där ser jag en fara i att vi blir så besatta av att effektivisera samhället att vi tappar den mänskliga översynen och förklarbarheten, säger Stanley Greenstein.

Vet inte vad som händer

Även Evelina Anttila, tidigare advokat och i dag vd på Wellstreet, ett investeringsbolag med fokus på teknik, tar upp svårigheten att förstå de processer som leder fram till AI-genererade beslut, det som ofta kallas ”den svarta lådans problematik”, eller på engelska ”black box”.

– Vi vet att data går in och vi får data som går ut, men vi vet inte exakt vad som händer där inne. Att vi vet det är ju A och O om vi ska börja använda AI i till exempel myndighetsbeslut. Vi måste förstå hur de här AI-modellerna har byggts upp och vilka data de har tränat på, säger Evelina Anttila, och fortsätter:

– Det är här alla intressanta juridiska knäckfrågorna kommer in. Vi behöver verkligen se till att systemen är tillförlitliga, att de kommer fram till rätt beslut. Det måste också finnas möjlighet att överklaga beslut, och då måste det gå att förstå hur besluten kommit till.

Evelina Anttila är skeptisk till att uppropet från Elon Musk och de andra teknikutvecklarna enbart är grundat på omsorg och oro. Det kan också ligga ett egennyttigt syfte bakom, kanske att få vissa aktörer att backa så att andra kan ta ledningen i kapplöpningen om vem som har den ”smartaste” AI:n, menar hon. Samtidigt är det bra att debatten förs.

– Uppropet har bidragit till debatten om var vi befinner oss i utvecklingen och att det går så väldigt fort, säger hon, och tillägger att uppropet inte borde handla om att pausa utvecklingen utan i stället om att förstå tekniken och uppmana fler till att engagera sig i frågorna.

Elon Musks och de andra teknikernas upprop har i skrivande stund samlat över 30 000 namn på nätet. Juristen och forskaren Charlotta Kronblad, som i flera år studerat digitaliseringens effekter på rättssystemet och advokatbyråerna, är precis som Stanley Greenstein positiv till att riskerna med AI-utvecklingen nu diskuteras.

– I grunden finns det något gott i att vi ska vara ­eftertänksamma och fundera på vad det är vi gör. Men ett ensidigt stopp i västerländska demokratier och företag i väst kommer inte att göra så stor skillnad om ­teknikutvecklingen och den digitala fronten ligger i Kina, ­säger hon, och tillägger att det viktigaste just nu i stället är att se till att rättssystemen kommer ikapp utvecklingen.

Att reglera en så snabbrörlig teknik har naturligtvis svårigheter. Risken är stor att lagstiftaren hela tiden ligger efter i utvecklingen. Charlotta Kronblad förespråkar just därför teknikneutrala regler, inriktade på konsekvenserna i samhället i stället för vilken teknik som används.

Jurister måste bromsa

Även Evelina Anttila efterlyser lagstiftning kring AI. Dagens lagar räcker, enligt henne, inte till för att kontrollera den nya kraftfulla AI som nu presenterats, och som väcker många rättsliga frågor. Och reglering är på gång. Under ledning av Sverige som ordförandeland arbetar EU för fullt med att få en AI-förordning (AI Act) på plats. Förordningen bygger på att olika typer av AI-system ska klassificeras utifrån risker (läs mer i faktarutan). Att göra den klassificeringen kommer inte att bli lätt, konstaterar Evelina Anttila. Men tanken är god.

– Kanske är inte AI Act toppen. Men den skickar ju extremt viktiga signaler, säger hon, och jämför med dataskyddsförordningen GDPR.

En annan positiv följd av lagstiftningsarbetet, enligt Anttila, är att debatten om AI vidgats, så att humanister och tekniker kan mötas på ett annat sätt än tidigare, när humanisterna mest pekat på risker och tekniker på fördelar med tekniken. En av de viktigaste grupperna i debatten om hur AI ska regleras och övervakas är annars juristerna och advokaterna, anser Evelina Anttila, som pekar på juristkårens tradition av eftertanke och värnande om rättssäkerhet.

Stanley Greenstein och Charlotta Kronblad är båda inne på samma resonemang.

– Vi som jurister måste ibland bromsa. Det ligger också lite i juridikens natur, att den utvecklas lite långsammare för att ge samhället en viss stabilitet och förutsägbarhet. Och det finns något gott i att vi inte bara hoppar på det första tåg som kommer. Kanske är det vi som har uppgiften att säga ”det här är inget bra, det krockar med mänskliga rättigheter”, säger Stanley Greenstein.

Själv har han i flera år intagit just den rollen som bromskloss. Det är en inställning som kan vara impopulär. Dessutom finns det starka krafter som driver på framåt, och som inte alls vill bromsa, konstaterar Stanley Greenstein.

Charlotta Kronblad manar också till försiktighet och eftertanke. Samtidigt får inte juristerna bara säga nej, påpekar hon.

– Jag ser det som viktigt att juristerna är med för att främja en bra digital transformation. Vi får inte vara för rädda och restriktiva och hindra utvecklingen, säger Charlotta Kronblad och fortsätter:

– Vi jurister har förmågan att prata om och hantera etik, regelbaserad styrning och ansvarsfrågor. Jurister och advokater är också en grupp som har stort förtroende i samhället. Därför skulle det vara bra för samhälls­nyttan om jurister blir mer engagerade i de här frågorna. Den juridiska kompetensen är helt enkelt extremt viktig för att säkerställa en fortsatt rättssäkerhet i den digitala kontexten.

Botten killgissar

Charlotta Kronblad har i flera år studerat digitalisering och de svårigheter som bland annat så kallat algoritmiskt beslutsfattande skapar. Samtidigt är hon övertygad om att utvecklingen kommer att fortsätta. Att då som advokat eller advokatbyrå ställa sig vid sidan om och vägra ta till sig tekniken är ingen hållbar strategi, anser Charlotta Kronblad. Här har chattbotten ChatGPT fungerat som en ögonöppnare, för samhället i stort och för advokatbyråerna, menar Charlotta Kronblad.

– Tidigare har digitalisering lanserats som någonting som framför allt främjar effektivitet. Nu ser man att det också kan vara kvalitetshöjande. Och då plötsligt finns det en annan möjlighet att integrera verktygen i befintlig verksamhet och affärsmodell, säger hon.

Med det sagt höjer Charlotta Kronblad i nästa stund ett varningens finger mot att lita allt för mycket på verktyg som ChatGPT.

– Svaren är baserade på tillgänglig information på internet. Och mycket av den är felaktig eller starkt fördomsfull, och den kan bära på en egen agenda, säger hon och betonar att källkritik är en nödvändighet.

Charlotta Kronblad fortsätter:

– Jag har en kompis som kallar ChatGPT för killgissning 2.0. Den kommer att uttrycka allting, oavsett om det är rätt eller fel, med samma självsäkerhet. Därför måste man själv vara beredd att kolla upp svaren. Vad är det för källor? Vad är det för fakta?

En killgissning alltså, om än uppdaterad. ChatGPT själv visar också prov på oväntad ödmjukhet. På frågan ”Kan man lita på att dina svar är rätt?” svarar den bland annat att den gör sitt bästa, men att det alltid är ”viktigt att komma ihåg att mina svar är automatiserade och inte nödvändigtvis helt perfekta eller korrekta i alla situationer”.

Människan vid spakarna

Än så länge är troligen rätt få advokatklienter beredda att ersätta advokatens råd med killgissningar. Mer specifika applikationer, som utgår från lagen och rättskällorna, kan förstås öka tillförlitligheten i svaren. Men Charlotta Kronblad tror inte att advokaterna riskerar att bli arbetslösa på grund av den artificiella intelligensen.

– Jag tror snarare att vi behöver mer klassisk juridisk skolning för att överhuvudtaget kunna utvärdera om maskinerna ger oss rätt resultat, säger hon.

AI och digitalisering kan dessutom ge ökat spelrum för de mest mänskliga kvaliteterna, som kreativitet, empati och förmågan att greppa komplexa situationer, menar Charlotta Kronblad.

– När vi låter maskinerna ta över det mekaniska och analytiska arbetet, så är det som blir kvar för människan att vara mer människa, summerar hon.

Även Evelina Anttila resonerar likadant.

– Jag tycker att man ska se AI som en ”co-pilot” till jurister. Det kommer att vara ett verktyg i verktygslådan att göra arbetet mycket mer effektivt, så att man kan fokusera på det högkvalitativa arbetet, säger hon.

Med ökad effektivitet kan fler klienter få service, eller de befintliga klienterna få mer service, konstaterar Evelina Anttila. AI:n kan också bidra till att locka fler unga jurister till advokatbyråerna, tror hon, när de inte längre måste ägna år av arbete åt monotona arbetsuppgifter.

Oavsett vad advokaterna själva tycker om teknikutvecklingen så lär den få konsekvenser för dem, konstaterar Charlotta Kronblad.

– Jag tror att klienterna kommer att bli mindre och mindre villiga att betala för timbaserade tjänster för något som de själva i alla fall tror att de kan fixa väldigt snabbt på egen hand. Sen tror jag att det finns en ganska stor betalningsvilja för just erfarenhet och för rådgivning med mer komplexitet, säger hon.

AI förstärker därmed ytterligare den utveckling som digitaliseringen redan inlett, och som i grunden skakar en affärsmodell baserad på timdebitering.

– Det är en logisk konflikt mellan den affärsmodellen och digitaliseringens logik. Men om vi ser digitalisering som kompetenshöjande eller som en möjlighet att öka kvalitet skulle vi kunna ta betalt på nya sätt, fastslår Charlotta Kronblad.

Evelina Anttila har också funderat över hur advokaterna ska kunna ta till sig och anpassa sig till utvecklingen. Här har både advokatbyråerna och Advokatsamfundet en viktig roll, menar hon.

– Många jurister som jag möter är väldigt intresserade. Det handlar också om att byråerna, och även samfundet i viss mån, måste se till att det finns resurser och möjligheter för att utbilda sig på det här området. Att det ska uppmuntras till det. Om man är fast i ”billable hour” och arbetar med stora projekt, så kan det vara svårt att hinna. Men det måste komma uppifrån.

Stanley Greenstein understryker också vikten av att akademiska institutioner tar ansvar för att utbilda framtidens advokater och jurister, så att de kan bemöta de utmaningar som framväxande teknologier såsom AI skapar.

– Av särskilt vikt är kopplingen mellan forskning och undervisning. Det är mycket glädjande att så många tekniska forskningsprojekt nuförtiden har det juridiska perspektivet som en av de centrala pelarna. Detta innebär att forskare inom juridik får erfarenheter av att arbeta med systemvetare och transformeringen av rättsregler till tekniska miljöer, erfarenheter som i sin tur kan överföras till utbildningen av framtidens advokater och jurister, menar Stanley Greenstein.

Kräver kunskap

Stanley Greenstein ser inte heller han att advokaterna kommer att bli arbetslösa på grund av AI, åtminstone inte under en överblickbar framtid. Däremot kommer deras arbete att förändras. Juridik som problemlösningsmekanism har traditionellt varit ett reaktivt instrument, konstaterar han. Men om juridiken ska behålla denna funktion samt hålla jämna steg med den tekniska utvecklingen i samhället måste den tillämpas på ett mer proaktivt sätt, och ”byggas in i tekniken”.

– AI kommer också att kunna ta de enklare uppgifterna. Med hjälp av AI kommer advokater att kunna erbjuda olika tjänster som man inte har kunnat göra förr, antingen för att de var för enformiga eller för att det tog för mycket tid, säger han. Enbart goda juridiska kunskaper räcker dock inte, när AI får en allt större plats i samhället och på advokatbyråerna.

Framtidens jurister kommer också att behöva viss teknisk kunskap.

– Man behöver inte veta hur en motor till en bil funkar egentligen för att kunna köra en bil. Det är lite samma här. Men du måste kunna tillräckligt för att kunna ställa rätt frågor. Och sen hitta tekniker med oerhört mycket tålamod som är beredda att försöka förklara, fastslår ­Stanley Greenstein, som också vill slå ett slag för sitt eget ämne rättsinformatik.

Även Charlotta Kronblad lyfter fram betydelsen av kunskap för att kunna möta en verklighet där AI sköter delar av arbetet.

– För att kunna prata om de juridiska frågeställningarna på ett vettigt sätt så behöver vi höja den algoritmiska kompetensen bland jurister. Första steget för att kunna prata om eller lösa problem är att använda ett adekvat språk och förstå vad digitalisering innebär. Det märker jag i min forskning är ganska utmanande.

Viktigt värna rättssäkerheten

För advokaterna kan kunskaper om och användning av AI vara en konkurrensfördel, ett sätt att höja kvaliteten och bättre tillgodose klienternas behov. Men med teknikutvecklingen blir också AI-kunskapen och förståelsen bland jurister viktiga av andra skäl.

Charlotta Kronblad har mycket kontakt med domstolarna, och hon ser ett stort behov av kompetenshöjning bland domarna.

– För det här är ingen framtidsvision eller framtidsspaning längre. Det är en samtidsfråga. Då är det väldigt viktigt att domstolarna hänger med och kan hantera både nya digitala frågeställningar och digital bevisning, säger hon.

Det kan exempelvis handla om algoritmer som bevis i förvaltningsrättsliga mål, om kryptovalutor som används för att tvätta pengar, och om bevismaterial i brottmål, i form av film. När nätet svämmar över av så kallad deep fake, verklighetstrogna men falska filmklipp med påven, Donald Trump och Barack Obama, hur ska en domstol då kunna veta säkert att en film verkligen visar det den till synes visar?

– Jag tycker egentligen att det är lite konstigt att vi förväntar oss att alla domare, nämndemän och ordinarie domare, ska kunna hantera digital bevisning och digitala frågeställningar på samma sätt, säger Charlotta Kronblad.

Hon jämför situationen med att åklagaren i ett mål med dna-bevisning skulle lämna över ett blodprov till domaren och säga att ”här är beviset för att den misstänkte var på brottsplatsen” och förvänta sig att domaren skulle göra analysen av blodprovet själv.

– Det är lite så vi hanterar algoritmiska bevis i dag. Det skulle egentligen behövas en oberoende instans som kan hantera och analysera den digitala bevisningen och berätta för domaren vad det faktiskt är som bevisningen visar.

Utan ökad kunskap inom rättsväsendet, och bland advokater, omkring algoritmer och AI kan konsekvenserna för enskilda bli förödande, konstaterar Charlotta Kronblad. Problemen uppstår både i brottmål och i förvaltningsrättsliga mål, där enskilda kan träffas av automatiserade beslut, eller omfattas av digital bevisning, utan att det går att granska och förstå underlaget.

– Det är väldigt svårt för den som omfattas av automatiserat beslutsfattande. Det är en ny maktobalans där individerna inte har tillgång till de algoritmer som tillämpas i offentlig sektor, vilket innebär att individen har svårt att få sin röst hörd och få rättslig upprättelse, summerar Charlotta Kronblad. 

Evelina  Anttilas tips till advokater

  • Omfamna det utforskande som pågår! Det ger verkligen en fingervisning om vart vi är på väg. Hoppa på, bilda dig en uppfattning om hur tekniken funkar, och håll dig uppdaterad på de här frågorna. Och kom ihåg att vi jurister har en jätteviktig roll i debatten om det här.
  • Om du ska köpa upp verktyg: ställ krav på leverantörerna. Och se till att förstå var verktyget kommer ifrån och vilka data det är tränat på. Sedan är det förstås centralt med konfidentialitet och klienternas integritet.

Charlotta Kronblads tips till advokater

  • Våga pröva verktyg som ChatGPT men se det som ett verktyg, och kom ihåg att det är du själv som ansvarar för det som produceras.
  • Oavsett vilket verktyg du använder och vad du använder det till så är ett första steg att bekanta sig med verktyget, och att lära sig vilka brister och risker som finns.
  • Tänk på tystnadsplikten och integritetsfrågor! Lägg inte in känsliga uppgifter och namn.
  • Om du ska köpa in ett verktyg till byrån är nyckelordet behov. Digitalisera inte för digitaliseringens egen skull, utan för att förbättra en specifik process, tjänst eller produkt. Det kan vara effektivitet men också kvalitet som du vill förbättra.
Ulrika Öster
Annons
Annons