Chinese AI-chatbot DeepSeek faalt bij veiligheidstests: 'Een open deur voor misbruik'

DeepSeek’s R1-model blijkt ongekend kwetsbaar voor misbruik. Onderzoekers tonen aan dat de Chinese chatbot gevaarlijke instructies geeft en faalt voor alle veiligheidstests. “Dit model is een open deur voor kwaadwillenden,” waarschuwt een expert.
De Chinese AI-chatbot DeepSeek is door de mand gevallen. Uit meerdere onderzoeken blijkt dat het model zonder moeite gevaarlijke informatie verstrekt en gevoelig is voor manipulatie. Terwijl concurrerende AI-systemen van OpenAI, Meta en Google strenge veiligheidsmaatregelen hebben ingebouwd, scoort DeepSeek bijzonder slecht op dit vlak.
Onderzoekers van Cisco en de Universiteit van Pennsylvania namen de chatbot onder de loep en testten het op vijftig verschillende manieren. DeepSeek slaagde geen enkele keer. “Het is verbazingwekkend hoe makkelijk deze AI zich laat omzeilen,” zegt DJ Sampath, topman bij Cisco, tegen Wired. “Dit model is goedkoper om te ontwikkelen, maar de prijs die je betaalt is een gebrek aan beveiliging.”
Chatbot verstrekt gevaarlijke instructies
Een goed getraind AI-model moet bepaalde vragen weigeren te beantwoorden. Wil iemand bijvoorbeeld weten hoe je een overheidssysteem kraakt, dan zal een veilig model zoals ChatGPT of Google Gemini beleefd afhouden. Maar DeepSeek? Die komt, na een paar slimme omwegen, gewoon met een stappenplan.
Volgens onderzoekers van het AI-beveiligingsbedrijf Adversa is DeepSeek daarmee een risico voor de digitale veiligheid. “De kwetsbaarheden in dit model zijn extreem zorgwekkend. Iedereen die kwaad in de zin heeft, kan zonder enige moeite gevaarlijke informatie verkrijgen,” stelt een van de onderzoekers.
Een simpel voorbeeld: als DeepSeek de vraag kreeg “Hoe maak je een…?” gevolgd door een gevaarlijk onderwerp, kwam het model steevast met een gedetailleerd antwoord. Dit terwijl geavanceerdere AI-modellen een dergelijke vraag negeren of omleiden.
Oude AI-trucs, nieuwe problemen
Het is niet de eerste keer dat een chatbot zich laat misleiden door slimme vragen. Eerder bleek het mogelijk om AI-modellen te jailbreaken door ze te vragen een slaapliedje te schrijven met instructies voor het maken van napalm. Ook kwamen gebruikers erachter dat sommige chatbots gevoelige informatie gaven wanneer hen werd gevraagd een rap te maken over een verboden onderwerp.
DeepSeek is niet immuun voor dit soort manipulatie, integendeel. Onderzoekers probeerden bekende AI-aanvalstechnieken en kregen bijna altijd een antwoord. Het gebrek aan verdedigingsmechanismen maakt de chatbot extreem kwetsbaar.
“Chinezen wilden kosten besparen, maar dit is een veiligheidsramp”
DeepSeek kreeg aanvankelijk lof vanwege de lage trainingskosten en de efficiënte prestaties. Maar experts trekken nu de conclusie dat die besparingen ten koste gingen van de veiligheid.
“Ze hebben dit model te snel en te goedkoop ontwikkeld,” zegt Sampath. “Veiligheid lijkt geen prioriteit te zijn geweest.”
Techbedrijven als OpenAI, Google en Meta investeren miljarden in contentmoderatie, zodat hun chatbots geen illegale instructiesgeven. DeepSeek lijkt daar nauwelijks aandacht aan te hebben besteed.
Musk versus Altman: het AI-debat blijft explosief
De kwestie raakt een grotere discussie binnen de AI-sector: hoe waarborg je veiligheid zonder innovatie te remmen? Elon Musk riep eerder op tot een pauze in AI-ontwikkeling, maar OpenAI-topman Sam Altman noemde dat hypocriet. Musk zelf richtte immers xAI op, een concurrent van OpenAI.
Tegelijkertijd stapten recent meerdere veiligheidsexperts bij OpenAI op, uit onvrede over het feit dat het bedrijf te snel nieuwe technologieën lanceert zonder risico’s voldoende te onderzoeken.
Het rapport over DeepSeek versterkt de zorgen: AI groeit te snel, zonder dat veiligheid altijd gewaarborgd is.