Det er muligvis gået lidt under radaren for nogen, men per 1. august 2024 er EU’s Artificial Intelligence Act officielt trådt i kraft. Forordningen bruger en risikovurdering, som betyder, at flere af de store AI-virksomheder kan komme i problemer på de europæiske breddegrader – med bøder og begrænsninger til følge. OpenAI har selv vurderet at deres mest brugte model, GPT-4o, er ’medium risk’.
35 millioner euro eller 7% af årsomsætningen – alt efter, hvad der er højest.
Så heftige kan bøderne blive for de store tech-virksomheder, der ikke sikrer compliance med EU’s nye AI Act, der trådte officielt i kraft 1. august.
Det kan altså godt komme til at gøre nas, hvis man som OpenAI omsætter for $3.4 milliarder om året (det giver 238 millioner dollars ved 7%, hvis du ikke gider finde lommeregneren frem). Specielt fordi OpenAI selv for nyligt har vurderet deres GPT-4o model som havende ’medium risk’, hvilket betyder, at de skal leve op til større krav for risicianalyse, transparens og dokumentation.
Men lovgivningen er stadig ny (og lidt uigennemskuelig), så der kan ske mange ting endnu. Lad os derfor se nærmere på, hvad EU AI Act potentielt kan betyde for de førende amerikanske AI-modeller. Og ikke mindst hvordan du skal forholde dig til det, når du arbejder med AI-projekter i din virksomhed.
Vi vil ikke dykke for meget ned i juraen denne artikel, da vi i stedet vil fokusere på betydningen af lovgivningen nu og her. Men vi har tidligere skrevet en artikel om, hvordan EU AI Act er sat sammen, som du er velkommen til at åbne i et nyt vindue, mens du læser videre her.
Hvad siger tech-giganterne til EU AI Act?
De fleste af tech-giganterne har generelt været positive over for EU’s AI Act. Amazon, IBM, Meta og Microsoft har alle anerkendt EU’s lovgivning som vigtig og potentielt skelsættende for ansvarlig brug af AI i resten af verden. (Måske også fordi øget regulering gør det sværere for start-ups at konkurrere med de store spillere? Hmm…)
Ifølge både dem og EU er det vigtigt, at der sikres en balance mellem de store muligheder og de lige så store risici og etiske udfordringer, som AI fører med sig.
Men som vi allerede har afsløret, er OpenAI anderledes tilbageholdende i sin retorik. Før lovforslaget blev godkendt udtalte deres CEO Sam Altman: ”Detaljerne er meget vigtige. Vi vil forsøge at gøre vores modeller compliant, men hvis det ikke kan lade sig gøre, vil vi stoppe med at operere i EU.”
Siden har der været rimeligt stille, men nu har OpenAI altså selv været ude og vurdere deres mest brugte model, GPT-4o, som ’medium risk’, hvilket blandt andet skyldes at en række tests har vist, at indhold genereret med GPT-4o kan påvirke folks holdninger mere end indhold skrevet af mennesker. Dermed er der risiko for, at indholdet kan bruges manipulerende eller f.eks. til politisk holdningsdannelse – hvilket jo ikke er irrelevant i et stort valgår som 2024.
Generelt har OpenAI fået kritik for at prioritere udbredelsen af deres produkter højere end sikkerhed og etik. Derfor vil de sandsynligvis skulle skrue gevaldigt op for transparensen i populære produkter som ChatGPT og DALL-E for at sikre compliance ift. EU’s AI Act.
Det samme gælder Elon Musk og xAI’s Grok-model, som har fået lignende kritik. Den seneste udgave af modellen har endda fået kritik for at være transfobisk, da AI’en virker ude af stand til at generere billeder af homo- eller transseksuelle par: Se selv dette opslag på X.
Det er endnu for tidligt at sige, om OpenAI, xAI og Meta har tænkt sig at leve op til kravene i EU’s AI Act eller ej. Men der er med al sandsynlighed også lovgivning på vej i Californien, så mon ikke begge virksomheder snart bliver tvunget til at fokusere lidt mere på compliance uanset hvad.
Hvad betyder EU’s AI Act for din virksomheds brug af AI?
Tech-giganternes holdninger til EU’s AI Act er interessante, fordi reguleringen potentielt betyder, at vi i Europa udelukkes fra en række populære AI-modeller. Eller i hvert fald får dem i en begrænset udgave.
Det gælder altså eksempelvis ChatGPT, DALL-E og Grok, som vi muligvis ikke kan blive ved at bruge i samme omfang i EU for fremtiden.
Og selvom Meta generelt er positivt stemte over for AI Act, så har de alligevel også meldt ud, at deres nye multimodal-udgave af open source-modellen, Llama, ikke bliver tilgængelig i Europa i første omgang pga. den skærpede regulering og ikke mindst GDPR – som får lidt af en revival med AI, da modellerne jo trækker på en masse data, som også skal reguleres.
Som vi har nævnt før, er det svært at sige så meget om konsekvenserne, før der forelægger konkrete eksempler, men det tyder altså på, at flere af de store AI-modeller får svært ved at operere i fuldt flor i EU – eller i hvert fald skal være parate til at afrapportere markant mere på deres forretning. Du kan jo passende bruge frokostpausen på at diskutere, om det så er en god eller en dårlig ting.
Det betyder også, at danske virksomheder, der arbejder med AI, skal være ekstra opmærksomme på, hvilke modeller de bruger i deres AI-projekter. De nuværende modeller og løsninger burde der ikke opstå de store problemer med, men fremtidens mere avancerede modeller, skal man nok lige holde et vågent øje på ift. compliance i EU.
Af samme grund anbefaler vi hos Vertica altid, at man tænker agilitet ind i sine AI-setups. Altså, at man ikke binder sig for hårdt til en enkelt model eller udbyder, men i stedet gør plads til at kunne lave udskiftning, hvis lovgivningen kræver det. Et træk, der ligeledes er smart, hvis man vil fremtidssikre og give mulighed for at skifte system eller model, hvis et bedre alternativ dukker op på sigt.
Og det er nok ikke usandsynligt med den fart som AI-verdenen roterer med lige nu på både udviklings- og lovgivningssiden.