De langverwachte uitspraak in de zaak Getty Images tegen Stability AI is binnen, en het vonnis valt grotendeels uit in het voordeel van de AI-ontwikkelaar. De Engelse rechter oordeelde dat het beeldgenerator-model Stable Diffusion géén auteursrecht schendt, ook al is het getraind met miljoenen afbeeldingen waarop Getty auteursrechten bezit.
Voor fotografen en mediabedrijven is dit even slikken, maar voor de AI-sector betekent het een stevige juridische opsteker. Wel stelde de rechter vast dat bepaalde oudere versies van Stable Diffusion het GETTY IMAGES- en iStock-merk in watermerken lieten terugkomen. Op dat punt werd wel geoordeeld dat er sprake is van merkinbreuk door Stability AI, zij het op zeer beperkte schaal.
De kern van het geschil
Getty Images verweet Stability AI dat het zonder toestemming beeldmateriaal van Getty had gebruikt om Stable Diffusion te trainen. De kernvraag voor de rechtbank was: kan een AI-model zelf worden beschouwd als een kopie van het auteursrechtelijk beschermd materiaal waarop het is getraind?
De rechter keek naar de Britse Copyright, Designs and Patents Act (CDPA) en kwam tot een helder maar voor veel makers verrassend antwoord: nee.
Een diffusiemodel, zoals Stable Diffusion, bestaat uit miljoenen numerieke waarden – zogeheten model weights, die statistische patronen beschrijven die het model heeft “geleerd” tijdens de training. Volgens de rechter erkent de CDPA wel dat ook immateriële bestanden een “article” kunnen zijn, maar alleen een artikel dat het oorspronkelijke werk daadwerkelijk “belichaamt” kan een inbreukmakende kopie zijn.
De model weights van Stable Diffusion bevatten volgens de rechtbank geen foto’s, bestanden of herkenbare delen van de oorspronkelijke beelden, maar alleen afgeleide patronen en statistische verbanden. Het eindmodel is daarom geen “infringing copy”.
Territoriale grenzen tellen
Een belangrijk detail in deze zaak is geografisch: het trainen van Stable Diffusion vond niet in het Verenigd Koninkrijk plaats. Omdat auteursrecht territoriaal is, kon Getty niet aantonen dat de daadwerkelijke trainingshandelingen in het VK hadden plaatsgevonden.
Daardoor hoefde de rechter zich niet uitputtend uit te spreken over de vraag of AI-training zélf, wanneer die in het VK zou plaatsvinden, een primaire auteursrechtinbreuk kan opleveren. Getty had zijn primaire auteursrechtclaims tijdens de procedure bovendien deels laten vallen, zodat alleen een claim wegens secundaire inbreuk overbleef: de stelling dat Stable Diffusion als “ingevoerde” inbreukmakende kopie moest worden gezien.
Ook die redenering hield geen stand. De rechter stelde dat alleen een object dat daadwerkelijk beschermd materiaal “belichaamt” als kopie kan gelden. Een AI-model dat alleen wiskundige verbanden bevat, valt daar niet onder. Het importeren en verspreiden van Stable Diffusion in het VK is dus geen secundaire auteursrechtinbreuk.
Geen vrijbrief voor AI, maar wel een belangrijk signaal
Hoewel de uitspraak in het voordeel van Stability AI uitvalt, betekent dat niet dat de discussie is beslecht.
Onderzoekers hebben aangetoond dat AI-modellen soms specifieke afbeeldingen kunnen “onthouden” of reconstrueren (de zogeheten memorised images). De rechter erkende dat dit fenomeen bestaat, en deskundigen waren het erover eens dat memorisation in theorie kan optreden. Maar in deze zaak kon Getty geen concreet voorbeeld laten zien van een output die als duidelijke “memorized image” kon gelden. Dat gebrek aan bewijs ondermijnde de auteursrechtelijke claim.
Getty kreeg overigens wél gelijk op één punt: sommige AI-uitvoer bevatte nog het herkenbare Getty-watermerk. Dat is een inbreuk op het merkenrecht, maar de rechter betitelde die inbreuken als “extremely limited” en voornamelijk betrekking hebbend op oudere modelversies.
Wat betekent dit voor de praktijk?
Voor de AI-industrie is de uitspraak een voorlopig precedent:
- AI-modellen zijn geen kopieën zolang ze geen originele werken opslaan of bevatten, maar alleen afgeleide numerieke representaties.
- Training buiten de jurisdictie beperkt de aansprakelijkheid onder nationaal auteursrecht; zonder duidelijke “UK link” is er in het VK weinig te halen.
- Merken blijven gevoelig: gebruik van merken of watermerken in AI-output blijft wél risico’s opleveren, ook als de auteursrechtelijke grondslag faalt.
Voor makers en mediabedrijven is het een wake-up call. De klassieke opvatting van “kopiëren” sluit niet goed meer aan bij de werking van generatieve AI. De wet beschermt concrete verveelvoudigingen, niet de abstracte kennis die een model opdoet. Tegelijk laat de zaak zien dat het VK – in elk geval op basis van de huidige CDPA, maar beperkt greep, heeft op AI-training die buiten de eigen landsgrenzen plaatsvindt, terwijl de EU via de AI Act en transparantie-verplichtingen juist meer richting regulering beweegt.
De uitspraak in Getty Images vs. Stability AI laat zien hoe moeilijk het is om traditionele auteursrechtregels toe te passen op zelflerende systemen. Een AI die leert van miljoenen beelden is niet automatisch een digitale dief, maar de grenzen blijven vaag.
Getty heeft nog niet uitgesloten dat zij in hoger beroep gaat en procedeert daarnaast in de Verenigde Staten door. Vragen over de juridische ontwikkelingen van generatieve AI? Bijvoorbeeld in de creatieve sector? Neem contact met Julia van Leeuwen.