Het Chinese AI-bedrijf DeepSeek presenteert recent een nieuwe techniek om generatieve AI goedkoper te maken. De aanpak gebruikt minder rekenkracht en energie bij training en gebruik (inference). Dat kan de cloudrekening van bedrijven verlagen en meer toepassingen haalbaar maken. Voor Nederlandse mkb’ers is dit relevant bij investeren in digitalisering en AI, ook in het licht van de AI Act en subsidie digitalisering mkb Nederland.
Nieuwe techniek drukt kosten
DeepSeek werkt aan taalmodellen die niet altijd het hele model hoeven te draaien. Het bedrijf claimt dat een slimme router de juiste delen van het model aanzet per vraag. Zo blijft de kwaliteit gelijk, maar daalt het verbruik. Dit moet vooral de kosten per gesprek of document verlagen.
De kern is een vorm van “sparsity”, oftewel slechts een deel van de parameters actief. Daarbij stuurt software de belasting efficiënt over chips en geheugen. Minder geheugenverkeer betekent minder wachttijd en minder stroom. Dat kan schelen bij zowel training als dagelijkse inzet.
Bij het draaien van AI heet het beantwoorden van vragen “inference”. Dat is vaak de grootste kostenpost voor bedrijven, omdat veel gebruikers tegelijk vragen stellen. Door minder onderdelen tegelijk te gebruiken, daalt de prijs per verzoek. Ook kan de doorlooptijd korter worden.
Mixture-of-experts (MoE) is een modelvorm waarbij per vraag slechts enkele ‘experts’ worden geactiveerd, niet alle delen van het model tegelijk.
De beloften zijn technisch logisch, maar vragen onafhankelijke toetsing. Echte winst blijkt pas in openbare benchmarks en praktijktesten. Bedrijven doen er goed aan te letten op reproduceerbare metingen en heldere documentatie. Zonder die controle blijft de impact lastig te beoordelen.
Voordeel voor Europese bedrijven
Lagere rekenkosten maken AI-toepassingen toegankelijker voor ondernemers. Denk aan klantenservice, vertalen, rapporten samenvatten of productadvies. Als de kosten per chat dalen, wordt opschalen naar veel gebruikers haalbaarder. Ook pilots kunnen sneller rendabel worden.
Mkb’ers kunnen hierdoor vaker kiezen voor een eigen AI-instantie met afgeschermde data. Dat helpt bij vertrouwelijke informatie en AVG-eisen. Minder rekenlast maakt draaien op kleinere servers of Europese cloud mogelijk. Zo blijft data dichter bij huis en onder Europese regels.
Voor organisaties met piekdrukte kan dit ook stabiliteit brengen. Goedkopere inference maakt bufferen en spreiden van verkeer betaalbaar. Bedrijven kunnen dan betere serviceniveaus afspreken. Dit scheelt in klanttevredenheid en operationele stress.
In sectoren met krappe marges kan een paar cent minder per interactie veel uitmaken. Retail, logistiek en zorg zien snel grote aantallen vragen. Een besparing per stuk telt dan door. Dat vergroot de businesscase voor verdere automatisering.
Eisen uit AI Act en AVG
De Europese AI Act vraagt om transparantie bij generieke AI-systemen. Leveranciers moeten documentatie, gebruikte rekenkracht en energieverbruik vastleggen. Ook moeten zij risico’s en beperkingen uitleggen. Dat geldt ook voor efficiëntiemethoden zoals MoE en quantization.
Bedrijven die AI inzetten blijven verantwoordelijk voor gegevensbescherming onder de AVG. Gebruik alleen data met een geldige grondslag en doelbinding. Verwijder persoonsgegevens die niet nodig zijn (dataminimalisatie). Leg keuzes vast in een verwerkingsregister en voer waar nodig een DPIA (risicoanalyse) uit.
Bij inzet voor personeel of klanten zijn extra waarborgen nodig. Denk aan uitlegbaarheid, foutafhandeling en menselijk toezicht. Train medewerkers in veilig en verantwoord gebruik. Neem deze punten op in contracten met leveranciers.
Lagere kosten mogen naleving niet verdringen. Vraag om duidelijke modelkaarten, evaluaties en updates. Controleer of de aanbieder de AI Act-verplichtingen voor GPAI naleeft. Dit verkleint juridische en reputatierisico’s.
Cloud of eigen server
Wie kosten wil drukken, moet de infrastructuur slim kiezen. In de cloud is opschalen eenvoudig, maar let op verborgen kosten zoals data-egress. Bij intensief gebruik kan een vaste server of Europese cloud goedkoper zijn. Vergelijk TCO: licenties, stroom, koeling en beheer.
Dankzij efficiëntie kan een model met minder GPU’s of op zuinigere hardware draaien. Dat helpt bij on-premises oplossingen of edge-toepassingen. Controleer wel of het model die modus ondersteunt. En let op updates die prestaties veranderen.
Databehoud binnen de EU is voor veel organisaties een eis. Kies dan voor aanbieders met Europese datacenters of soevereine opties. Partijen als OVHcloud, European cloud-providers en Nederlandse datacenters bieden oplossingen. Leg locatie en back-ups contractueel vast.
Bekijk ook de licentievoorwaarden van het model. Niet elk model mag commercieel of herverpakt worden gebruikt. Vraag indien nodig om een zakelijke licentie. Zo voorkomt u gedoe achteraf.
Subsidies en volgende stappen
Ondernemers kunnen steun zoeken bij RVO-programma’s. Denk aan MIT-regeling voor mkb-innovatie, SLIM voor scholing en mogelijk EIA/MIA-Vamil bij energiezuinige investeringen in hardware. Regionale fondsen en EFRO kunnen ook helpen. Check actueel beleid en voorwaarden op het moment van schrijven.
Op Europees niveau zijn er kansen via Horizon Europe en het Digital Europe Programme. Daarin vallen testfaciliteiten en pilottrajecten voor AI. Ook de EIC Accelerator ondersteunt innovatieve scale-ups. Dit kan investeringen in efficiënte AI versnellen.
Begin met een kleine proof-of-concept met duidelijke KPI’s. Meet kosten per interactie, kwaliteit en responstijd vóór en ná de nieuwe techniek. Documenteer datastromen en privacymaatregelen. Schakel waar nodig een security- of compliancepartner in.
Vraag leveranciers om meetbare garanties over prestaties en kosten. Eis inzicht in energiegebruik en modelupdates. Leg afspraken vast in service level agreements. Zo blijft de besparing duurzaam én compliant.
