In korte tijd is DeepSeek uitgegroeid tot een van de meest besproken open source AI-projecten. De modellen – vooral DeepSeek-Coder 6.7B – worden geroemd om hun prestaties in codegeneratie, redeneren en taalkundige coherentie. Wat het bijzonder maakt: het team erachter werkt met een beperkt budget, kleine teams en minimale rekenkracht in vergelijking met giganten als OpenAI of Google DeepMind.
En toch presteert het model op benchmarks vergelijkbaar met GPT-3.5 – een prestatie van formaat, die de AI-wereld wakker schudde. Maar er is ook een andere kant. Recent kwam aan het licht dat de backend van DeepSeek een open database bevatte met gevoelige gegevens, publiek toegankelijk voor iedereen. En dat roept niet alleen technische, maar ook ethische en geopolitieke vragen op.
DeepSeek is een initiatief van DeepSeek-Vision, een relatief onbekend AI-lab gevestigd in China. Het project positioneert zich als een “open alternative to closed models” en publiceert zijn modellen onder licenties die vrij gebruik toestaan voor onderzoek en ontwikkeling.
Wat DeepSeek uniek maakt, is dat het:
Maar: weinig is bekend over de financiering, governance en hostinginfrastructuur. En dat maakt het – zeker in de context van Chinese AI-ontwikkeling – gevoelig.
In het voorjaar van 2024 werd door Group-IB een groot beveiligingslek ontdekt:
Een publiek toegankelijke ClickHouse-database, waarin onder andere het volgende stond:
Hoewel DeepSeek snel actie ondernam, werpt het incident twijfels op over de volwassenheid van de beveiligingsstructuur van het project. Voor instellingen die overwegen het model te gebruiken – zeker in het onderwijs of bij gevoelige data – is dit een belangrijk signaal.
Kortom: “open source” betekent niet automatisch “open governance” of “veilig gebruik.”
Dat een klein team in China erin slaagt om met minimale middelen een model van deze kwaliteit te bouwen, is een wake-up call. Het laat zien dat:
Dat vraagt om nieuwe vormen van AI-geletterdheid: niet alleen promptvaardigheid, maar ook kennis over datastromen, governance en infrastructuur.
In plaats van gebruik te maken van de publieke API’s of servers van DeepSeek, kiezen steeds meer gebruikers ervoor om het model zelf te draaien via tools als Ollama.
Voordelen van lokaal draaien:
Zelf draai ik DeepSeek-Coder lokaal, o.a. voor:
Onderwijsinstellingen die AI willen integreren, moeten zich bewust zijn van de volledige AI-keten. Het gaat niet alleen om wat een model kan, maar ook:
DeepSeek is technisch gezien briljant – maar ethisch en juridisch nog geen veilige haven.
Conclusie: transparantie ≠ vertrouwen
DeepSeek toont aan dat AI zich razendsnel ontwikkelt – ook buiten Silicon Valley. Maar snelheid mag geen vervanging zijn voor veiligheid. Voor onderwijs, onderzoek en professioneel gebruik geldt: Vraag altijd wie toegang heeft, wie mee kan kijken en wie bepaalt.