Kunstig intelligens ‒ anvendelsesperspektiver og faldgruber

I denne del af vores artikelserie om digitalisering og teknologi, sætter vi fokus på kunstig intelligens. Kunstig intelligens (AI) kan blive en af de mest skelsættende teknologier dette årti. Teknologien har potentiale til at reformere en lang række industrier, og skabe nye muligheder, produkter og services. Med AI's mange fordele og store økonomiske potentiale følger også en række udfordringer og risici. I denne artikel opdaterer vi dig blandt andet på AI's anvendelsesmuligheder, officielle guidelines og hvilke kontraktmæssige forhold, du og din virksomhed bør have fokus på ved indkøb af AI-løsninger.

AI har et stort økonomisk potentiale for de lande, virksomheder, institutioner mv., som formår at udnytte teknologien. Blandt andet har analysefirmaet Accenture vurderet, at AI vil kunne øge den økonomiske vækstrate i flere lande med op mod 38 % frem mod 2035 (Report Accenture: "How AI Boosts Industry Profits and Innovation").


Det forventes, at langt de fleste aktører fordelt over en lang række industrier, i større eller mindre skala, vil komme til at implementere og arbejde med AI i de kommende år. Som virksomhed, institution eller lignende er det derfor relevant at holde sig opdateret på AI, så man ikke risikerer at tabe markedsandele, levere ringere service til borgere og kunder, bruge unødige ressourcer mv.

Hvad er AI?

AI kan defineres som et system eller en maskine, der løser en opgave, som kræver en form for menneskelig intelligens. Der sondres mellem narrow AI og artificial general intelligence (AGI)


Narrow AI udgør allerede en integreret del af vores hverdag, selvom vi sjældent bemærker det. Det er f.eks. spamfiltre, som læser og sorterer dine e-mails; stavekontrol på din mobiltelefon; simple husholdningsrobotter mv. Men også teknologierne machine og deep learning udgør underkategorier af narrow AI. Sidstnævnte er blandt andet kendetegnet ved at have en hukommelse, der gør teknologien i stand til løbende at forbedre sig. Det er særligt denne form for teknologier, som vi allerede ser få sit gennembrud i markedet nu og i den kommende tid.


AGI bygger på forestillingen om, at computere teoretisk set vil kunne udvikle en bevidsthed svarende til menneskets. Narrow AI betyder, at computeren er i stand til at simulere ét eller flere aspekter af den menneskelige intelligens såsom læring, mønstergenkendelse, sprogbeherskelse og -forståelse mv. 

Anvendelsesperspektiverne for AI 

Anvendelsesperspektiverne for AI er mange. AI kan f.eks. anvendes til automatiseret produktion; til at behandle, analysere og opdage mønstre i enorme mængder data, eller det kan bygges ind i produkter, så de bliver mere intelligente til gavn for forbrugerne. Man kan også anvende digitale assistenter til at lette sagsbehandlingen eller chatbots som supplement i kundeservicen. Alle disse og flere AI-teknologier vil ifølge Gartners hype cycle for AI (2019) blive mainstream og kunne udnyttes produktivt indenfor de næste 5 år.


Nogle af de mere kendte eksempler på brugen af AI her i Danmark er de selvkørende minibusser i Aalborg og danske Cortis' intelligente system, der lytter med på opkald til alarmcentralen og analyserer mønstre og sammenhænge i samtalerne, således at det over tid lærer at identificere kritiske tilfælde hurtigere end mennesker.

 

Udfordringer ved AI

Ligesom der er mange fordele ved AI, er der også en række risici og udfordringer. Dette gør sig særligt gældende med AI, da AI-løsninger kan komme til at virke som en sort boks

 

Risiko for fejl

Machine og deep learning indebærer, at AI-løsningerne lærer og tænker selv. Det medfører forøget risiko for utilsigtede fejl i løsningen, som følgelig ikke altid kan løses. 


Fejl i IT-løsninger kan allerede i dag være af væsentlig betydning. Det gælder dog ikke desto mindre for AI-løsninger, da disse forventes i et videre omfang at varetage væsentlige opgaver med væsentlig risiko. Eksempelvis medicinsk diagnosticering, hvor fejl kan være fatale. Det er derfor væsentligt at være opmærksom på, hvordan et ansvar kan og skal placeres ‒ eksempelvis hvorvidt en AI-løsning skal have en større grad af ansvar end en læge, hvis de begge kan begå samme fejl med samme konsekvens.

 

Manglende transparens

Udfordringen med den sorte boks gør det sværere at afsløre og rette fejl i AI-løsningen. I andre sammenhænge er gennemsigtighed særlig relevant. Eksempelvis inden for den offentlige forvaltning hvor myndighedernes afgørelser altid skal begrundes, eller når virksomheder tager beslutninger på baggrund af en AI-løsning, hvor diskriminerende oplysninger ikke må indgå som en del af beslutningsgrundlaget. Eksempelvis måtte Amazon kassere et AI-ansættelsesværktøj, fordi det diskriminerede kvinder. 


Det er derfor vigtigt, at der sikres en vis gennemsigtighed i løsningen, så man lettere kan identificere beslutningsgrundlaget. Derudover bør man have fokus på, at AI-algoritmerne testes og oplæres med korrekt og tilstrækkelig repræsentativ data, samt at de løbende overvåges og kontrolleres for fejlfortolkninger, således at de ikke medfører manglende uvildighed, ulovlig diskrimination eller andre væsentlige fejl. 


Omvendt bør man også være opmærksom på, at større gennemsigtighed kan medføre større sårbarhed over for cyberangreb, plagiering samt søgsmål. Dilemmaet betegnes som det såkaldte 'transparency paradox'. Man skal dog ikke lade sig afskrække heraf, men blot tænke disse aspekter ind i sin risikostyring, herunder de associerede omkostninger.

Overholdelse af databeskyttelsesreglerne 

Grundelementerne i AI er algoritmer, regnekraft og data. Ved behandling af persondata skal man sikre overholdelse af de persondataretlige regler og principper, heriblandt princippet om at behandling af personoplysninger skal være lovlig, rimelig og gennemsigtig. Privacy by design bør tænkes ind i løsningerne. 


Udover de strenge juridiske krav, må det desuden forventes, at etik, herunder dataetik, vil blive et væsentligt og selvstændigt konkurrenceparameter i fremtiden. Eksempelvis har Google og Bosch udarbejdet deres egne kodekser herfor.

 

Informationssikkerhed

Brugen af AI kan desuden føre til nye typer cyberangreb, f.eks. data poisoning, som sker ved, at en aktør ændrer i AI-løsningens træningsdata med det formål at manipulere løsningens output. Erhvervsstyrelsen, DIGST og CFCS har netop udsendt en ny vejledning herom, som også giver råd og vejledning til, hvordan man kan tænke AI ind i sin risikovurdering. 

Krav i kontrakten

Ved indkøb af AI-løsninger bør man i lyset af ovenstående udfordringer navnlig have fokus på følgende i forbindelse med kontraktindgåelsen:

 

  • Ansvarsregulering, herunder for evt. fejlbehandling som sker på grund af AI. 
  • Databeskyttelse og sikkerhedskrav, herunder særligt krav til
             - opbevaring af oplysninger om AI-løsningen 
             - AI-løsningens fodring af data
             - overvågning og kontrol mv.
  • Øvrig relevant lovgivning.


Derudover kan der være andre relevante aspekter, hvilket dog i et stort omfang vil være en konkret vurdering i forhold til AI-løsningen og dens formål.

Officielle guidelines og mulig, fremtidig regulering af AI

EU-Kommissionen og dens hvidbog om AI af 19. februar 2020 indeholder blandt andet fem anbefalinger for brugen af såkaldte 'højrisiko' AI-applikationer, som netop forsøger at imødegå nogle af udfordringerne ved AI: 

 

  1. AI-applikationen skal testes og trænes med data, som opfylder EU- og national lovgivning.
  2. Relevante data om metodikker, teknikker og datasæt mv., der er brugt til at bygge, teste og træne AI-applikationen skal opbevares, så de kan fremlægges for og auditeres af relevante myndigheder.
  3. Det skal være tydeligt for forbrugerne, at de er i kontakt med AI, og AI-løsningens formål, funktionsduelighed og begrænsninger skal fremgå klart.
  4. AI-applikationen skal være teknisk robust og præcis.
  5. AI-applikationen skal overvåges af mennesker.


Desuden anbefaler EU-Kommissionen, at der indføres en forudgående kontrol af, hvorvidt kravene er overholdt, hvilket kan omfatte forudgående test, inspektioner og/eller certificeringsprocedurer. Specielt det sidste punkt har rejst en del kritik.

Ud over deres fem anbefalinger, så har EU-Kommissionen i sin hvidbog konkluderet, at der er behov for AI-specifik lovgivning i EU.

Læs mere om AI

 

 

Anna Sofia Kærsgaard

Anna Sofia Kærsgaard er senioradvokat hos Kromann Reumert og rådgiver om komplekse teknologi- og outsourcingprojekter samt andre generelle forhold inden for IT-retten, herunder digitalisering, cloud computing, licensaftaler, open source og persondata.

Kroman Reumerts ITO-team giver i denne artikelserie løbende deres perspektiv på de mest centrale teknologier, som får eller allerede har væsentlig betydning for vores dagligdag og for danske virksomheder, herunder muligheder, begrænsninger og risici. De næste emner vi vil berøre er:


  • Blockchain
  • Quantum Computing
  • IoT
  • Cloud computing


Artiklerne er udarbejdet af vores team af specialister, som rådgiver både danske og udenlandske virksomheder om IT-løsninger samt indkøb, udvikling og vedligeholdelse af kompleks teknologibaseret infrastruktur.


Læs de forudgående artikler