EU-commissievoorzitter Ursula von der Leyen heeft Elon Musk opgeroepen om op X snel op te treden tegen seksueel getinte beelden die via de AI-assistent Grok rondgaan. De oproep kwam deze week vanuit Brussel. Aanleiding is de verspreiding van schadelijke en mogelijk illegale content. De Europese Commissie verwijst naar strenge plichten onder de Digital Services Act en de AI Act.
Brussel verhoogt druk op X
De Europese Commissie wil dat X sneller en zichtbaarder ingrijpt bij de verspreiding van seksuele beelden en deepfakes. Het gaat om inhoud die mensen schaadt en zonder toestemming is gedeeld. Dat kan ook strafbaar zijn, zoals wraakporno of materiaal met minderjarigen.
X is in de EU aangemerkt als een zeer groot online platform, met extra verantwoordelijkheden. Deze status brengt onder de Digital Services Act (DSA) zwaardere zorgplichten mee. Het platform moet systemische risico’s beperken, zoals illegale content en manipulatieve algoritmes.
De Commissie kan informatie opvragen, audits starten en bindende maatregelen nemen. Blijven tekortkomingen bestaan, dan volgen sancties. Voor X betekent dit juridische en financiële risico’s, maar ook reputatieschade richting gebruikers en adverteerders.
Grok onder vuur in EU
Grok is de generatieve AI-assistent die op X beschikbaar is. De tool kan inhoud samenvatten, vragen beantwoorden en beelden analyseren of beschrijven. In de EU ligt Grok onder een vergrootglas als de tool de verspreiding van schadelijke beelden faciliteert.
Voor zulke AI-functies zijn stevige veiligheidsmaatregelen vereist. Denk aan filters om expliciete of illegale content te blokkeren en aan goede meld- en verwijderprocessen. Ook leeftijdsafhankelijke waarborgen zijn nodig om jongeren te beschermen.
Daarnaast speelt de AVG, de Europese privacywet. Het verwerken en verspreiden van seksuele beelden zonder toestemming is in principe verboden. De Autoriteit Persoonsgegevens kan daar in Nederland tegen optreden, met hoge boetes als gevolg.
DSA legt zware plichten op
De DSA eist dat platforms illegale inhoud snel verwijderen en misbruik voorkomen. Voor zeer grote platforms omvat dit ook jaarlijkse risicoanalyses en onafhankelijke audits. AI-functies die de verspreiding van content sturen, vallen binnen die plichten.
Concreet gaat het om het beperken van deepfakes, non-consensuele beelden en materiaal dat kinderen in gevaar brengt. Platforms moeten duidelijke meldknoppen bieden en beslissingen over moderatie beter uitleggen. Gebruikers en autoriteiten moeten sneller en vollediger worden geïnformeerd.
De Europese Commissie handhaaft deze regels bij de grootste platforms. In Nederland houdt de Digital Services-coördinator toezicht op kleinere diensten. Bedrijven die eigen platforms of community’s beheren, krijgen zo ook met DSA-regels te maken.
Onder de DSA riskeren zeer grote platforms boetes tot 6 procent van hun wereldwijde omzet bij ernstige overtredingen.
AI Act scherpt eisen aan
De AI Act voegt technische en organisatorische plichten toe voor aanbieders van generatieve AI. Transparantie over synthetische media en labeling van deepfakes zijn kernpunten. Een watermerk of duidelijke vermelding moet gebruikers waarschuwen dat content door AI is gemaakt of aangepast.
Aanbieders van generatieve modellen moeten risico’s beoordelen en verminderen. Dat omvat het voorkomen van misbruik voor illegale of schadelijke beelden. Documentatie over trainingsdata en veiligheidsmaatregelen is verplicht en op het moment van schrijven grotendeels van toepassing voor generatieve AI.
De AI Act en de DSA grijpen in elkaar. De DSA richt zich op de verspreiding en moderatie op platforms. De AI Act richt zich op de techniek achter de systemen en de makers daarvan, zoals X en xAI.
Gevolgen voor Nederlandse mkb’ers
Ondernemers die AI-functies in hun app of site gebruiken, moeten nu al maatregelen treffen. Zorg voor filters, duidelijke huisregels en een snel team voor meldingen en verwijderingen. Leg in het privacybeleid uit hoe met beelden en persoonsgegevens wordt omgegaan.
Sluit met leveranciers van AI-diensten strikte afspraken over misbruikpreventie en support. Controleer of generatieve AI deepfakes labelt en of watermerken werken op uw platform. Leg dat vast in contracten en verwerkersovereenkomsten onder de AVG.
Maak een draaiboek voor incidenten, met stappen voor bewijsvastlegging, melding en communicatie. Train medewerkers in herkenning van deepfakes en non-consensuele content. Zo beperkt u juridische risico’s en beschermt u gebruikers en merkwaarde.
