- Fokus
AI skapar nya arbetssätt på byrån
ChatGPT har blivit en ögonöppnare även på de affärsjuridiska advokatbyråerna. AI kan både effektivisera arbetet på byrån och innebära nya uppdrag. Men det gäller att skynda långsamt, menar advokaterna.
Det är inte första gången Advokaten skriver om hur AI kan tänkas förändra advokaternas verklighet och arbete. När tidningen tog upp ämnet år 2017 blev rubriken på en av artiklarna ”2020 är AI lika självklart som att det står en laptop på skrivbordet”. Citatet är hämtat från Jan Dernestam, managing partner på Mannheimer Swartling, som också satsat i många år på att främja innovation på området.
Drygt sex år senare, har ChatGPT slagit världen med häpnad. Men fram till det senaste året har utvecklingen inte alls gått så snabbt som många förväntade sig.
Är det nu tekniksprånget kommer? Vissa tecken tyder på det. I mars i år meddelade internationella revisionsjätten PwC, som också erbjuder juridisk rådgivning, att de nu börjar använda AI-lösningen Harvey för att effektivisera sin rådgivning. Harvey bygger på samma teknik som chattbotten ChatGPT och har testats fram med hjälp av Londonbyrån Allen & Overy, som också använder den färdiga produkten i verksamheten.
Även svenska advokatbyråer har börjat använda sig av olika AI-lösningar, som Luminance, Eperoto och specialbyggda Beppe. Samtidigt kännetecknas hela ansatsen till den nya tekniken av en försiktighet, som kanske är naturlig för en kår som arbetar med klientlojalitet och sekretess som grundläggande värden.
Nalkas försiktigt
För ungefär ett år sedan intervjuades advokat Malin Leffler, delägare och ansvarig för advokatfirman Roschiers verksamhet inom privat M&A, av Dagens industri om byråns AI-satsning. Artikeln andas en viss besvikelse, och Malin Leffler pekade på att de satsningar som byrån gjort då inte gett det förväntade resultatet. Intervjun väckte många reaktioner, berättar Malin Leffler.
– Många hörde av sig och höll helt med om att produkterna lovat mer än de kan hålla, att de är ”oversold” men ”underdeliverers”. Men jag fick också kontakt med många småbolag, mindre svenska start-ups, som jobbar med de här frågorna och som ville visa sina produkter. Det har varit väldigt bra att få en inblick i hur fort utvecklingen går, säger hon.
Kontakterna med teknikentreprenörerna ingav Malin Leffler hopp om att det kommer lösningar som passar för advokatbyråerna. Allra bäst skulle det vara om byråerna och techbolagen tillsammans kunde utveckla tekniken, för att passa de behov som advokaterna har, menar hon.
Sådana samarbeten pågår också på många advokatbyråer. Advokatfirman Synch bjuder till exempel varje år in företag till Synch Sandbox, där techentreprenörer får hjälp att utveckla sina produkter. Mannheimer Swartlings MSA Innovation Lab är ett annat liknande samarbetsprojekt.
Även Roschier håller dörren fortsatt öppen och testar olika AI-lösningar. Malin Lefflers kollega advokat Björn Johansson Heigis, ansvarig för byråns dataskydds- och digitaliseringsverksamhet, beskriver strategin som försiktig och nyfiken.
– Ett AI-verktyg får inte på något sätt hota sekretessen eller ställa till andra problem. De system som vi har använt tidigare har inte varit användbara. Men jag vet att alla är väldigt nyfikna på ChatGPT, säger han, och tillägger att chattbotten inte används i formellt klientarbete.
Advokat Mikael Satama Granberg är delägare på MAQS och ansvarig för affärsområdet digital business. Han använder ChatGPT då och då för att till exempel göra sammanfattningar av allmänt tillgängliga nyhetsartiklar. Men precis som kollegerna på Roschier manar han till försiktighet i umgänget med chattbotten.
– Risken är överhängande att medarbetare tycker att det är enkelt att bara kopiera in en text och få någonting utfört. Men då delar man ju också mycket information som vi advokater i synnerhet inte ska dela, säger han och tillägger att allmänt tillgängliga chattfunktioner
av sekretesskäl kan vara knepiga att använda för advokater.
Problemet är förstås att den information som läggs in också blir tillgänglig i chattbottens fortsatta arbete och ”utbildningsprocess”, något som framgår av användarvillkoren. På MAQS testas olika AI-alternativ. Mikael Satama Granberg konstaterar att det finns olika alternativ tillgängliga, men att kostnaderna fortfarande är höga. För att AI-satsningen ska bli lyckad gäller det att göra en noggrann analys av vad byrån vill uppnå, påpekar han.
– Det kan ju vara lockande att ibland bara vara med och hoppa på tekniken. Men man måste också fundera på vad vi vill effektivisera. Vilka moment i vår vardag kan tekniken göra den största nytta i? Svaret kanske inte alltid är det man först tror, säger Mikael Satama Granberg.
Nyckeln till framgång är att driva AI-satsningarna i samklang med verksamhetens samlade strategi, hävdar Mikael Satama Granberg.
– Det kan lätt bli så att byrån har en strategi, och sen ska man helt plötsligt börja jobba med AI också. Det blir ett parallellt spår, eller kanske till och med ett stickspår, säger han, och tillägger att resultatet av en sådan AI-satsning sällan blir lyckat.
– Kortsiktigt kanske det blir en viss effektivisering, men långsiktigt tror jag inte att det blir så bra.
Slutet system krävs
Ett helhetsgrepp på strategi och arbetssätt, där även digitalisering och AI ingår, är alltså Mikael Satama Granbergs rekommendation för advokatbyråer som börjat fundera på att ta tekniken till hjälp i arbetet. Och även om det enligt honom ännu inte finns några riktigt bra generativa AI-verktyg för advokater på den svenska marknaden ser Mikael Satama Granberg framför sig att sådana kommer.
– Jag kan ju absolut tänka mig ett scenario där vi har modeller som är väldigt tränade på just juridisk materia, och som därmed lämnar betydligt mer vederhäftiga sammanfattningar. Det kommer ju inte att undandra vårt ansvar. Men det kommer ju åtminstone att kunna vara ett beslutsstöd, på samma sätt som en juridisk lagkommentar, säger han.
Förutom att advokatverktyg ska ha tränats på just juridiskt material behöver de också garantera att sekretessen kan upprätthållas.
– ChatGPT använder ju all data som kommer in i form av frågor. Ska det vara ett specialverktyg för just advokatbyråer så måste det hålla sig inom ett slutet system, så att datan inte försvinner ut nånstans, fastslår Björn Johansson Heigis.
AI-verktyg skulle förstås kunna vara till användning i olika typer av rådgivningssituationer och verksamheter. Malin Leffler, som arbetar med transaktioner, ser en stor potential för att använda tekniken i riskbedömningar, men också på områden som mer rör byråerna som företag.
– Byråer är ju också stora företag, som genomför personalundersökningar, håller kontroll på hur det går i projekt och skapar system för feedback från klienterna, säger hon.
Björn Johansson Heigis håller med, och lägger till rekrytering, där AI:n till exempel kan hjälpa till med att göra ett första urval av kandidater. Samtidigt krävs en stor varsamhet ur ett bias-perspektiv: På vilka grundvalar ger AI rådgivning?
Pekar i rätt riktning
Utvecklingen av AI och övrig så kallad legal tech går alltså ganska långsamt. Samtidigt är de intervjuade advokaterna överens om att tekniken kommer och att den i någon mån kan komma att förändra advokatbranschen. Däremot tror de inte att tekniken inom överskådlig tid kommer att göra dem arbetslösa.
– Advokatverksamhet bygger ju på att vi medför ett värde för klienterna. Vi måste hitta vägar för att kunna ge det värdet. Det är jag övertygad om att vi kommer att göra på olika sätt, säger Björn Johansson Heigis.
Han tillägger att även sofistikerade system kommer att kräva mänsklig övervakning.
– Jag tror att människan har en förmåga att vara mer kreativ och hoppas att användningen av AI skapar utrymme för den typen av mer kreativt arbete, summerar Björn Johansson Heigis.
Mikael Satama Granberg resonerar likadant, både om AI i allmänhet och juridiska stödsystem.
– De här modellerna är jättebra på att generera programvarukod. Men du måste ju själv i princip vara expert på området för att kunna förstå, att använda och veta om den här koden faktiskt också är vederhäftig och inte innehåller felaktigheter eller skadligheter, säger han, och fortsätter:
– Det är på samma sätt inom juridiken. Du kan pekas i rätt riktning, få bra, tankeväckande reflektioner och använda det som en kontrollstation eller en checklista. Men kan du inte själv bedöma om resultatet är korrekt eller vederhäftigt så blir nyttan begränsad.
Mikael Satama Granberg drar en parallell till läkare, och konstaterar att ganska få patienter förmodligen skulle acceptera invasiva ingrepp enbart baserade på att en AI rekommenderat dem.
Men även om expertisen kommer att behövas framgent är de tre advokaterna eniga om att tekniken kommer att ställa nya krav på advokatbyråerna, och kanske också tvinga fram nya affärsmodeller.
– Våra kunder kommer att förvänta sig en effektivisering och att få del av nyttan av tekniken. De som av olika anledningar inte riktigt hänger med i det här kommer sannolikt att ha problem med att vara konkurrenskraftiga på marknaden, fastslår Mikael Satama Granberg.
Förändrar utbildningen
Också Malin Leffler tror att advokatbyråernas arbetssätt kommer att förändras. Delvis är det en förändring som redan startat, påpekar hon, när enklare och mer repetitiva delar av advokatbyråns verksamhet automatiserats. Med utvecklingen minskar klienternas toleransnivå för att betala dyrt för enkelt arbete.
– Det är rätt bra, egentligen, att vi inte behöver ta betalt för en dyr jurist i de delar som bara är ren administration och som AI kan göra i stället. Vi kan då erbjuda en ännu spetsigare rådgivning, och det innebär bara fördelar för klienten, säger hon.
Om tekniken tar över enklare uppgifter, kanske med stöd av assistenter, krävs också en dialog med klienterna om priset på advokattjänster, anser Malin Leffler.
– Klienterna är vana vid att vår rådgivning kostar mycket pengar och att advokater jobbar på ett visst sätt. Om vi plötsligt börjar arbeta på ett annat sätt, så blir det en ny diskussion, säger hon.
Samtidigt är inte Malin Leffler beredd att helt lämna modellen med ersättning baserad på arbetad tid. I sitt arbete ser hon emellanåt att olika rådgivare, som ersätts på andra sätt, påverkas i sin rådgivning på ett sätt som inte är acceptabelt för advokater. Det kan till exempel handla om så kallade success fees, där rådgivaren bara får betalt om denne vinner en process, eller en affär blir av.
– Det är oerhört viktigt att man kan lita på sin advokat. Om en affär blir av eller inte ska inte spela nån roll för oss eller påverka vår rådgivning, säger hon.
Visst har automatiseringen, till exempel av delar av så kallade due diligence-processer, redan förändrat en del saker på byrån. Men fortfarande är det ändå så att unga jurister på de affärsjuridiska advokatbyråerna, framtidens kvalificerade advokater, i stor utsträckning lär sig yrket genom att tröska genom enklare och mer repetitiva delar av det juridiska hantverket. Vad händer med dem om tekniken tar över?
Här kan ingen riktigt svara. Malin Leffler önskar i alla fall att affärsjuridiken fick ta mer plats på juristutbildningen, så att de unga juristerna som börjar på byrån är ännu bättre förberedda. Men även om detta blev verklighet krävs förmodligen ett nytt utbildningssystem på advokatbyrån, funderar Malin Leffler.
– Det finns nog inget annat sätt att lära sig än att vara med i arbetet, helt enkelt. De yngre juristerna kommer att sitta än mer med partners och andra seniora medarbetare, som på det sättet får dela med sig av både sitt arbetssätt och hur de resonerar, säger hon.
Väcker olika frågor
En intervju om AI på advokatbyrån kommer lätt att handla om omställning, svårigheter, ansvar och sekretess. Men en annan aspekt, som säkerligen kommer att bli allt tydligare på advokatbyråerna, är förstås att teknikutvecklingen också skapar nya juridiska frågor och behov hos klienterna. Mikael Satama Granberg beskriver några olika huvudkategorier av frågor som aktualiseras från hans klienter.
– Den främsta kategorin i dag tror jag faktiskt handlar väldigt mycket om förståelse. Vi som jobbar inom fältet har en viktig pedagogisk roll i förhållande till ledningsfunktioner, och även till operativa beslutsfattare i verksamheterna. Hur ska de tänka kring det här? Vad är det viktigaste att göra nu? Det finns ju en stor nyfikenhet på de här olika typerna av AI-produkter. Men såklart också en berättigad vaksamhet, säger han.
En annan kategori handlar om risker. Här dyker det upp frågor som vilka träningsdata som AI-modeller använt, hur resultatet av en AI-produkt kan användas och hur skyddade uppgifterna är hos användaren. Riskbedömningar är centrala i due diligence-processer inför företagstransaktioner. Malin Leffler konstaterar att olika AI-relaterade risker redan i dag ingår i en DD, men att de förmodligen kommer att få en allt större plats, åtminstone i vissa branscher.
För advokater som arbetar med digitalisering är det förstås självklart att följa med och förstå utvecklingen av AI:n, i synnerhet kopplat till klienternas olika verksamheter. Här kan det vara nyttigt att själv tillägna sig och testa tekniken, påpekar Björn Johansson Heigis.
– Tekniken utvecklas hela tiden. Då måste vi också utvecklas med klienterna, oavsett vilka system det gäller. AI kan vara nyttigt som en del i den här faktainsamlingen, säger han.
Reglering på gång
Den artificiella intelligensens utveckling framställs ibland som laglöst land. Och visst behövs det reglering, konstaterar advokaterna. Samtidigt är de juridiska frågor som uppstår utifrån teknikutvecklingen inte alltid nya, påpekar Mikael Satama Granberg.
– Det är ju väldigt mycket en fråga om rättigheter, hur information används, vad man vill kunna använda den till och hur ansvaret fördelas. Det är ju inte egentligen nya frågor. Men det gäller ju att ha en förståelse för hur tekniken fungerar för att också kunna förstå var de rättsliga problemen finns, säger han.
Utöver de klassiska upphovsrättsliga frågorna och ansvarsfrågorna pågår också ett omfattande lagstiftningsarbete inom EU på området AI. Och nya regler innebär också nya behov av advokattjänster. Inte minst tror Mikael Satama Granberg att den klassificering som EU:s planerade förordning (läs mer) bygger på kommer att väcka många frågor.
– Redan definitionen av vad AI ska vara har ju varit en diskussionspunkt i den föreslagna regleringen. Alltså vad ska bedömas som AI-system? Det kommer att vara väldigt mycket frågor som handlar om att definiera vad man menar, säger han, och tillägger att klassificeringarna blir viktiga eftersom de styr vad som är förbjudet och vilka regler som gäller för en viss verksamhet.
Även Björn Johansson Heigis ser att klienterna kommer att behöva stöd kring den planerade AI-förordningen. Regleringen lägger på de klienter som arbetar mycket med AI betydande skyldigheter att dokumentera, förklara och beskriva hur AI:n fungerar och vilka risker den medför.
– Vi kan hjälpa till med riskhanteringen. Men det krävs också ett väldigt nära samarbete med dem som förstår tekniken för att få till det på ett bra sätt, fastslår han.
Redan nu, innan förordningen antagits, finns det skäl att lyfta fram de kommande reglerna för företag som använder eller utvecklar AI, anser Björn Johansson Heigis.
– Vi upplyser våra klienter om att reglerna är på gång och att det kan vara bra att se till att man redan håller sig på rätt sida om dem, säger han.
Förutom AI-förordningen arbetar EU också med ett direktiv om skadeståndsansvar, där leverantörer av AI-tjänster får ett långtgående ansvar att visa att deras produkt inte orsakat skada (se faktaruta).
Kan bli vapen
Försiktig nyfikenhet och förväntan om nya uppdrag. Så kan advokaternas beskrivning av AI:s utveckling kanske lyda. Men vad tänker de då om riskerna på en samhällelig nivå, de som är tränade i just att bedöma risker och att bromsa de allt för entusiastiska?
Malin Leffler har förstås läst om Elon Musks upprop och tanken på att bromsa AI-utvecklingen. Hon förstår tanken.
– Det finns en nyvaknad insikt om riskerna och komplexiteten i det, och behovet av reglering. Jag kan verkligen förstå tanken med att göra paus, men det här är inte en utveckling man stoppar – särskilt inte som mindre nogräknade kommer utnyttja det, säger hon.
Även Mikael Satama Granberg ser en poäng med att reflektera över utvecklingen.
– Risken finns väl att kapplöpningen och viljan att vara först och kanske störst trumfar mycket annat som man nu borde reflektera över i form av etik och framför allt möjligheter att just begränsa felaktig användning, säger han.
För Mikael Satama Granberg är det dock inte tekniken i sig som är det stora hotet.
– Man ska snarare vara rädd för användningsområden där människor, eller till och med nationer eller organisationer, använder de här modellerna till skadliga ändamål. Det är där jag tycker ängslan är mest befogad, att vi släpper loss oerhört kraftfulla verktyg i händerna på människor som vi inte vill ska ha dem.
EU:s AI-förordning
Arbetet med AI-förordningen har pågått i flera år. EU-kommissionen kom med ett första utkast till förordning redan i april 2021. Rådet enades om en version i december 2022. Det svenska ordförandeskapet leder nu förhandlingarna mellan rådet och EU-parlamentet. När regelverket börjar tillämpas, preliminärt 2025, kommer alla senare lanserade AI-system att omfattas, liksom existerande system som uppdateras eller väsentligen ändras.
Definition av AI enligt förordningen: Ett AI-system tar emot data, gör någon form av analys i relation till ett mänskligt satt mål, för att sedan producera nya data, som kan påverka en omgivning. Systemet behöver alltså inte vara självlärande, utan det räcker med en algoritm som tillämpas på vissa data, som ansökningar om förskoleplats eller en ledig tjänst.
Förordningen är riskbaserad och sorterar AI-system i olika riskkategorier för vilka det ska gälla olika regler:
- Oacceptabel risk – teknologier som på olika vis hotar människors säkerhet, försörjningsmöjligheter och rättigheter. Dessa system förbjuds helt. Specifikt nämns system som stater kan använda för social poängsättning och leksaker som via röstassistans uppmuntrar till farligt beteende.
- Hög risk – här återfinns en mängd verksamheter samt vissa fysiska produkter. EU-kommissionen föreslås även kunna lägga till områden när behov uppstår. Högrisksystemen föreslås få särskilda krav på tillsyn och registrering för att få användas inom EU.
- Begränsad risk – minimala transparenskrav för system som chattbottar i syfte att personer görs medvetna om att de interagerar med en algoritm.
I kategorin högrisk finns till exempel kritisk infrastruktur, utbildning, anställning (till exempel mjukvara för sortering av cv:n), privata och offentliga tjänster som kreditbedömning, brottsbekämpning (till exempel bedömning av tillförlitligheten i bevis) och gränskontroll.
Källa: RISE, regeringen.se
EU:s förslag till direktiv om skadeståndsansvar gällande artificiell intelligens
Kommissionen presenterade den 28 september 2022 sitt förslag till direktiv om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens.
Direktivet innehåller regler om edition och bevisbörda som är tänkta att underlätta för den som har skadats av ett AI-system att få fram bevisning och underbygga en talan om utomobligatoriskt skadestånd. Direktivet syftar även till att främja utbyggnaden av pålitlig AI för att den inre marknaden ska åtnjuta fördelarna med den.
Direktivförslaget innehåller bland annat regler om bevisbördan som ska underlätta för skadelidande att föra en skadeståndstalan. Enligt direktivet ska en domstol, under vissa förutsättningar, presumera att det finns ett orsakssamband mellan oaktsamheten och utdata, eller underlåtenheten att producera utdata.
Regeringskansliet, faktapromemoria 2022/23:FPM8