AI AI KaptAIn…
Nu är det AI lite överallt – kul och spännande men det finns lite att börja tänka på.
Användningen av AI-teknologi ökade från 10,4 procent 2023 till 25,2 procent 2024 i näringslivet för företag med 10 eller fler anställda och vi ser allt fler exempel i båtbranchen. (källa SCB)
EU:s nya AI-förordning kommer att förändra hur alla företag och organisationer, även försäkringsbranschen och båtindustrin, kan använda AI för att skapa mer värde för sina kunder. Eftersom många företag redan tillämpar AI för till exempel riskbedömningar, skadehantering och kundservice, blir den nya regleringen en viktig faktor för att säkerställa att dessa system används på ett säkert och ansvarsfullt sätt. Här är en väldigt kort översikt av vad den nya förordningen innebär och hur den påverkar oss. Vad bör vi tänka på och vilka risker finns det framåt?
Till viss del påminner denna nya EU lag om GDPR som vi alla redan förhåller oss till. Skillnaden är bland annat att den här lagen är helt inriktad mot hur vi använder AI, hur pass transparenta vi måste vara när vi gör det och hur vi sen övervakar både system och processer där AI på något sätt är med.
Specifikt utmanande i arbetet med att säkerställa att den nya lagen efterföljs är att det kräver engagemang, kompetens och mycket jobb från hela bolaget. Det är juridik, teknik, HR, etik, marknad, ledning mm. Det som kan vara teknisk enkelt och en säljares dröm, kan samtidigt vara etiskt helt fel eller innebär en stor juridisk risk. Det går alltså inte att jobba i silos med detta. Alla delar måste vara med, vilket vi vet alltid är en utmaning i företag.
Vad är EU:s AI-förordning och hur påverkar den oss?
EU:s AI-förordning är utformad för att reglera användningen av AI och säkerställa att tekniken används på ett etiskt och säkert sätt. Exempel på områden som kommer att påverkas särskilt mycket är riskbedömning, skadereglering och kundservice, för att nämna några direkt relaterade till båtbranschen. Eftersom dessa sektorer ofta hanterar personlig och känslig information, innebär det att företag måste säkerställa att deras system uppfyller specifika krav på transparens, rättvisa och säkerhet.
EU:s nya AI-förordning delar in AI-applikationer i fyra risknivåer:
– Förbjudna AI-system: System som anses oacceptabla, t.ex. AI som manipulerar beteenden eller använder biometrisk identifiering i realtid på allmän plats. Finns exempel i Kina idag där man använder ”social scoring” som sen direkt påverkar t ex om dina barn får gå i en viss skola.
– Högrisk-AI: System som har betydande påverkan på individers rättigheter och säkerhet. För försäkringsbranschen omfattar detta AI som används för riskprofilering, bedömning av försäkringspremier och behandling av skador. Ett annat exempel högrisk-AI är rekrytering, där många företag idag använder olika tjänster för att effektivisera i dessa processer. Där kan en sökande som inte fått jobbet fråga ”var AI på något sätt använt i er selekteringsprocess? Om ja – hur var den använd och med vilka kriterier eller annan input fattade AI sina beslut?” Detta måste företaget då kunna svara tydligt och förståeligt på till den som frågar.
– Begränsad risk-AI: System som kan interagera med kunder men som inte utgör någon stor risk, som AI-drivna kundtjänstverktyg. Exempelvis chat bottar som ger kunder råd.
– Minimal risk-AI: System med låg eller ingen påverkan på individers rättigheter eller säkerhet, till exempel interna verktyg för databehandling och produktivitetsökning.
Hur kan detta påverka oss i båtbranschen?
Många bolag och organisationer använder AI idag. Inom försäkringsbranschen används det bland annat för att hantera allt från riskanalys till viss skadeutredning och kundservice. Det är exempel som direkt påverkas av den nya lagen.
- Riskprofilering och skadebedömning (Hög risk): Försäkringsbolag som använder eller planerar att använda AI för att analysera risk och bedöma premier eller hantera skadeanspråk kommer att omfattas av strikta krav. AI som direkt påverkar en kunds premie eller bedömningen av ett skadeärende måste säkerställa rättvisa och transparens i beslutsprocessen, vilket kräver dokumentation och riskhantering.
- Kundtjänst och kundinteraktioner (Begränsad risk): Många företag använder AI för att driva kundtjänst-chatbottar och automatiserade svarssystem. Enligt den nya förordningen måste sådana system informera kunder om att de interagerar med AI och ge en viss förklaring till de beslut eller rekommendationer som ges, för att skapa transparens och förtroende.
- Interna AI-verktyg (Minimal risk): Verktyg som används för att effektivisera interna processer, till exempel att organisera data eller göra interna analyser, innebär oftast låga risker. Dessa kommer sannolikt inte att påverkas nämnvärt av förordningen men kan omfattas av framtida uppdateringar.
Företag och organisationer behöver tänka på att efterlevnad inte är en engångsåtgärd. Kontinuerlig övervakning och uppdatering av AI-system är nödvändiga för att säkerställa att alla fortsätter att följa de nya reglerna. Det vi med säkerhet vet är att det kommer komma uppdaterade regler.
Vad kan vi börja tänka på redan nu?
Denna förordning påminner som sagt till viss del om GDPR och alla vi som på olika sätt fick erfara både bra och dåliga GDPR relaterade projekt, vet att det är otroligt mycket enklare att göra rätt från början. Det sparar en massa pengar och resurser. Alternativet är att i efterhand gå in och revidera och anpassa processer och system, vilket i de allra flesta fall är väsentligt dyrare och innebär en större risk. Företagen riskerar dessutom att få böter, se mer om det nedan.
Här är några konkreta punkter som vi redan nu kan börja med:
- Identifiera AI-användningsområden och klassificera risknivåer: Kartlägg alla AI-applikationer inom organisationen och klassificera dem efter risknivå (förbjuden, hög risk, begränsad risk eller minimal risk). Detta hjälper företaget att prioritera efterlevnadsåtgärder.
- Implementera datastyrning och säkerhetsåtgärder: Etablera datastyrningsrutiner för att skydda kunddata och säkerställa datakvalitet och säkerhet. Detta är särskilt viktigt för AI-applikationer som analyserar känsliga data exempelvis persondata.
- Fokusera på transparens och förståelighet: AI-applikationer som påverkar beslut behöver vara transparenta och förståeligt. Företaget bör säkerställa att kunder kan förstå AI-drivna beslut, vilket kan bidra till ökat kundförtroende och minskat regulatoriskt tryck. Rent praktiskt måste företaget i framtiden kunna svara en kund på hur till exempel en AI process har fattat beslut x eller y och detta måste kunna redovisas på ett sätt som kunden kan förstå. Detta är en stor utmaning.
- Dokumentera och skapa processer för efterlevnad av reglerna: Dokumentation är avgörande för att ha kontroll och enkelt kunna uppdatera när det sker uppdateringar. Företag bör dokumentera datakällor, datahantering, riskbedömningar och regelbundna utvärderingar av AI-system. Att ha detaljerad dokumentation tillgänglig är nödvändigt om tillsynsmyndigheter kräver bevis på efterlevnad. Detta gäller inte minst för bolag som t ex. integrerar mot köpta AI verktyg som ChatGTP och liknande verktyg. Lagen är utformad så att den följer värdekedjan, dvs. bolaget kan inte peka på en underleverantör om det blir fel, det är alltid ”siste man” i kedjan som tar ansvar för sin leverans – oavsett hur den är skapad innan den når slutkund.
- Utbilda personalen i regelverk och AI-etik: Säkerställ att medarbetare som utvecklar, implementerar eller hanterar AI förstår regelkraven och etiska riktlinjer för AI. Detta hjälper till att förebygga oavsiktliga överträdelser och förbättra efterlevnadskulturen inom företaget.
- Planera för övervakning och kontinuerlig utvärdering: Högrisk-AI-system kräver löpande övervakning och periodisk utvärdering för att säkerställa att de fortsätter att uppfylla regulatoriska krav. Företag bör sätta upp rutiner för att regelbundet granska sina AI-system och göra nödvändiga justeringar.
Riskerna vid bristande efterlevnad
Att inte följa EU:s AI-förordning kan leda till betydande böter, liknande de som gäller för GDPR. Företag bör vara medvetna om de potentiella påföljderna vid bristande efterlevnad:
– Allvarliga överträdelser: För de allvarligaste överträdelserna, som att använda förbjudna AI-system, kan böter uppgå till 30 miljoner euro eller 6 % av företagets globala årliga omsättning, beroende på vilket som är högst.
– Bristande efterlevnad för högrisk-AI: För icke uppfylla krav för högrisk-AI-system, som t.ex. bedömning av försäkringspremier, kan böter bli upp till 20 miljoner euro eller 4 % av den årliga omsättningen.
– Övriga överträdelser: För mindre allvarliga överträdelser, som att inte samarbeta med myndigheter, kan böter vara upp till 10 miljoner euro eller 2 % av omsättningen.
Dessa påföljder understryker vikten av att ha ett robust system för efterlevnad och dokumentation. Företag riskerar inte bara ekonomiska böter, utan även ett sämre rykte och förlorat förtroende från kunder om de inte följer reglerna.
När träder EU:s AI-förordning i kraft?
EU:s AI-förordning antogs officiellt 2023 och reglerna kommer att implementeras i etapper:
– 2024: Slutförande av riktlinjer, tekniska standarder och efterlevnadsramverk.
– 2025: Övergångsperioden börjar, då företag förväntas börja anpassa sina AI-system till de nya kraven.
– 2026-2027: Full implementering av AI-förordningen, då överträdelser kommer att beivras med påföljder.
Denna tidsplan ger alla möjlighet att förbereda sig. Att börja tidigt ger företag en möjlighet att genomföra förändringarna i god tid och undvika att behöva anpassa sig snabbt och under stress när reglerna börjar gälla fullt ut.
Slutligen
AI är som mycket annan ny teknik otroligt spännande och har redan bevisat sig vara mycket värdefull i många olika delar av vårt samhälle. Vi är dock bara i början av denna utveckling och precis som med all annan teknik kan den missbrukas eller bara missförstås. EU:s nya lag är på många sätt unik då den faktisk är påskriven av alla 26 medlemsländer och redan i februari 2025 börjar vissa delar gälla. Ramverket kommer dessutom att kompletteras både på EU nivå samt att alla medlemsländer har möjlighet att skapa egna lokala lagar som kan komplettera EU:s lag.
Ett enkelt sätt att se på EU:s nya förordning är att det är en bas, ett absolut minimum, ett ramverk att utgå ifrån. Det som är relativt säkert är att det kommer att komma fler krav och regler runt AI under flera år framåt.
Ett annat tips är att kika på ISO42001 som ger ett ramverk på hur man kan strukturera upp sin AI användning och är baserat på best practice.
I linje med full transparens så har jag till viss del använt ChatGPT4o för denna artikel när det gäller definitioner, rättstavning, detaljer i lagen och exempel i artikeln.
Vill du prata mer om detta så tveka inte att höra av dig! Det är early AI days så dialog och diskussion är nog det bästa och enklaste sättet att sprida kunskap om allt det goda som AI kan göra, men även vilka risker som finns, inte minst finansiella, etiska och juridiska.
Vid pennan / Jan