Meta gebruikt jouw data om AI-modellen te trainen:  hoe bescherm je je rechten? 

Meta (het moederbedrijf van Facebook, Instagram en WhatsApp) heeft onlangs beslist zijn AI-modellen te gaan trainen op basis van openbare gegevens van Europese gebruikers. Concreet betekent dit dat publieke content, zoals je geposte berichten, foto’s en reacties op Facebook/Instagram en de interacties met de Meta AI-chatbot zullen worden gebruikt om hun generatieve AI te verbeteren. Meta benadrukt dat privéberichten en gegevens van minderjarigen niet worden meegenomen in deze trainingsdata.  


Waarom?

Het bedrijf stelt dat dit nodig is om AI-diensten beter af te stemmen op Europese talen en culturen, zodat de modellen nuances in dialect, humor en lokale context beter begrijpen. Deze beslissing komt er nadat Meta vorig jaar een gelijkaardig plan tijdelijk on hold zette door kritiek van privacytoezichthouders.

Begin 2024 kregen Europese Facebook- en Instagramgebruikers al een melding dat hun openbare foto’s en berichten zouden worden gebruikt voor AI-training, tenzij ze voor een bepaalde datum bezwaar indienden. Die eerste poging stuitte op protest en werd gepauzeerd na ingrijpen van onder meer de Ierse toezichthouder.  

Nu voert Meta het plan opnieuw in, ditmaal met extra waarborgen: alle EU-gebruikers ontvangen deze week een in-app en e-mailmelding waarin wordt uitgelegd welke data gebruikt zal worden en hoe men bezwaar kan maken

Bezorgdheden rond gegevensbescherming en GDPR 

De aankondiging wekt zorgen bij privacy-experts en toezichthouders, vooral in het licht van de GDPR. Onder de GDPR moet elk gebruik van persoonsgegevens een geldige wettelijke basis hebben en aan kernprincipes voldoen, zoals transparantie, doelbinding en dataminimalisatie. Critici wijzen erop dat gebruikers hun content oorspronkelijk voor sociale interactie deelden, niet voor AI-training, wat vragen oproept over doelbeperking en fairness

Meta probeert deze verwerking te rechtvaardigen op basis van haar “gerechtvaardigd belang” (legitimate interest) als juridische grondslag, in plaats van expliciete toestemming te vragen. Dit betekent dat het bedrijf van mening is dat het een legitiem belang heeft om AI te verbeteren met openbare data, mits het de impact op gebruikers beperkt en hun rechten respecteert. 

Privacyorganisaties zijn echter kritisch: zij vinden dat gebruikers expliciet toestemming zouden moeten geven voor zulke vergaande datatoepassingen, in plaats van automatisch onderdeel te zijn van het project tenzij ze achteraf bezwaar maken.  

Vorig jaar noemden woordvoerders van Testaankoop Meta’s eerdere aanpak zelfs “volledig illegaal” en in strijd met de Europese regels. Ook Max Schrems (bekend privacy-activist van NOYB (none of your business), bekritiseerde Meta’s brede insteek: volgens hem probeert Meta “alle data uit om het even welke bron voor om het even welk doeleinde te gebruiken, zolang het maar onder ‘AI-technologie’ valt”, wat niet strookt met de GDPR. 

Enkele belangrijke GDPR-principes komen hier in het geding: 

  • Transparantie: Meta heeft inmiddels zijn privacybeleid aangepast en communiceert actiever over deze AI-training. Toch was er kritiek dat het bezwaarproces eerder te verstopt en complex was. Nu belooft Meta gebruikers duidelijk te informeren en een laagdrempelige opt-out te bieden. 

  • Rechtsgrondslag: Zonder expliciete toestemming moet Meta aantonen dat haar gerechtvaardigd belang zwaarder weegt dan de impact op de gebruiker. Dit vergt een degelijke belangenafweging en het respecteren van het recht van bezwaar van betrokkenen. 

  • Doelbinding: Data die oorspronkelijk voor sociale media werd verstrekt, wordt nu voor AI-doeleinden hergebruikt. Volgens critici schuurt dit met het doelbindingsbeginsel – gebruikers hadden mogelijk niet verwacht dat hun posts jaren later zouden dienen om AI mee te voeden. 

Meta stelt van haar kant dat zij binnen de wet handelt. Het bedrijf verwijst naar een advies van het Europees Comité voor Gegevensbescherming (European Data Protection Board) in december 2024 dat hun oorspronkelijke aanpak in lijn zou zijn met de wettelijke verplichtingen. Desondanks blijven toezichthouders waakzaam. Belgische en Europese privacytoezichthouders, gesteund door organisaties als Testaankoop en NOYB, blijven erop hameren dat gebruikersrechten centraal moeten staan. Zij raden gebruikers aan om van hun recht op bezwaar gebruik te maken als ze niet willen dat hun gegevens hiervoor ingezet worden. 

Hoe kun je bezwaar maken tegen het gebruik van je data? 

Zowel individuele gebruikers als bedrijven (bijvoorbeeld met beheerde Facebook/Instagram-pagina’s) kunnen bezwaar aantekenen tegen het gebruik van hun data door Meta’s AI. Meta heeft hiervoor een online proces voorzien. Alle Europese gebruikers krijgen een melding via de apps of per e-mail met een uitleg over de data-inzet, inclusief een link naar een bezwaarformulier. Via dat formulier kun je aangeven dat je niet wilt dat jouw openbare content gebruikt wordt voor AI-training. Als je de melding nog niet gezien hebt, kun je ook via je accountinstellingen naar het Privacycentrum gaan. Daar staat eveneens een uitleg en de optie om bezwaar in te dienen. 

Belangrijk: Meta heeft aangegeven alle bezwaren te respecteren, zowel reeds ontvangen bezwaren als nieuw ingediende formulieren. Zodra je het formulier invult en indient, ontvang je een e-mail ter bevestiging dat jouw gegevens niet zullen worden gebruikt om de AI-modellen te trainen. Dit opt-out recht is niet eenmalig: ook in de toekomst kun je op elk moment bezwaar maken via het formulier, mocht je later van mening veranderen. 

Meta verzamelt niet alleen data die je zelf op hun platformen plaatst, maar ook informatie over jou via externe partners en websites (bijvoorbeeld via cookies of integraties waarbij je je Facebook/Instagram-account gebruikt). Om ook tegen dat soort datagebruik bezwaar te maken, bestaat er een tweede formulier in het Privacycentrum.  

Het loont dus de moeite voor zowel individuen als organisaties om beide paden te controleren. Voor bedrijfsaccounts of pagina’s is de procedure gelijkaardig, het bezwaarrecht geldt voor alle “betrokkenen” waarvan persoonsgegevens worden verwerkt, inclusief beheerders van pagina’s indien hun persoonlijke accountgegevens daarbij betrokken zijn. 

Kortom, het advies is duidelijk: wees proactief. Als je liever niet hebt dat de openbare berichten, foto’s of comments van jouw organisatie in Meta’s AI terechtkomen, maak dan gebruik van de geboden formulieren. Consumentenorganisaties raden aan om dit zeker te doen als je bedenkingen hebt. Het kost slechts enkele minuten en versterkt je controle over je eigen data. 

Juridisch advies cruciaal voor een compliant databeleid 

De plannen van Meta onderstrepen hoe snel de datastrategie van bedrijven kan evolueren en hoe dit nieuwe juridische vragen oproept. Voor organisaties is dit het uitgelezen moment om hun eigen databeleid en procedures onder de loep te nemen.  

Ben je als onderneming actief met het verzamelen of gebruiken van (klanten)gegevens, bijvoorbeeld voor AI, marketing of andere doeleinden, dan is het cruciaal om juridisch advies in te winnen en te zorgen dat je volledig in lijn bent met de geldende privacywetgeving.  

Bij LEAGL benadrukken we dat een proactieve aanpak hier een enorme waarde heeft. 


Vragen? Wij staan voor je klaar.

 Wij staan klaar om bedrijven te ondersteunen met compliance audits, privacy-advies en begeleiding op maat. Onze experts helpen je onderneming te navigeren door complexe regelgeving zoals GDPR en de AI Act, zodat je risico’s minimaliseert en het vertrouwen van klanten en gebruikers behoudt.  

Neem bij vragen gerust contact op met LEAGL, samen zorgen we ervoor dat je databeleid niet alleen innovatief, maar ook juridisch waterdicht is. 

Volgende
Volgende

Leagl op Kanaal Z – Juridisch advies met een blik op de toekomst