De techwereld staat op z’n kop door de komst van de Chinese startup Deepseek, die afgelopen week het AI-model R1 uitbracht. Het gaat om een zogenoemd open-source model voor kunstmatige intelligentie, dat zich kan meten met het beste van OpenAI, de maker van ChatGPT, tegen een fractie van de kosten.

In Silicon Valley gonst het van de opwinding onder managers, investeerders en werknemers. Iedereen lijkt een mening te hebben over de implicaties die zo’n goedkoop en efficiënt model met zich meebrengt.

Sommigen zetten vraagtekens bij de duizenden miljarden dollars die worden uitgegeven aan de AI-infrastructuur in de VS, aangezien DeepSeek R1 volgens de makers ontwikkeld is op verouderde hardware en voor slechts 6 miljoen dollar. Anderen zien vooral de potentie in het nieuwe model.

Wat de gevolgen van de komst van DeepSeek R1 zijn, weten we nog niet. Toch zijn er wel een paar trends te ontwaren. Dit zijn 7 manieren waarop DeepSeek dat toekomst van artificial intelligence op een nieuwe manier kan vormgeven.

1. De adoptie van generatieve AI groei explosief

"De Jevens Paradox slaat weer toe!", schreef CEO Satya Nadella van Microsoft maandagochtend op X. "Nu AI nog efficiënter en toegankelijker wordt, gaan we het meer gebruiken, waardoor het een basisproduct wordt waar we geen genoeg van krijgen."

De Jevens Paradox is het idee dat als iets beter wordt, de vraag ernaar zal toenemen. Dit 19de-eeuwse principe gaat volgens Nadella kennelijk ook gelden voor toepassingen van artificial intelligence. De komst van R1 kan de drempel voor bedrijven verlagen om met AI te gaan werken, omdat de kosten aanzienlijk lager liggen. Goedkopere tools kunnen dé manier zijn om toch eens te gaan experimenteren en implementeren.

"Het is net als Llama (het open-source AI-model van Meta), dat de drempel voor implementatie verlaagt. Hierdoor kunnen meer bedrijven aan de slag met AI en het daadwerkelijk gaan gebruiken", zegt managing director Umesh Padval van Thomvest Ventures tegen Business Insider.

Dat gezegd hebbende, zelfs als de adoptie van AI sneller dan ooit groeit, betekent dat niet per se dat de miljarden die Amerikaanse techbedrijven hebben geïnvesteerd ook kunnen worden terugverdiend.

2. DeepSeek verandert de kijk op de kosten van artificial intelligence

"Het lijkt erop dat DeepSeek de aanname doorbreekt dat je veel kapitaal moet hebben om de beste modellen te trainen", zegt investeerder Debarghya Das van Menlo Ventures tegen Business Insider.

Het kost tussen de 20 en 40 keer minder om het open-source model van DeepSeek te gebruiken, vergelijke met kwalitatief gelijkwaardige modellen van OpenAI, aldus analisten van financieel adviesbureau Bernstein.

Wat het precies heeft gekost om het AI-model van DeepSeek te bouwen, staat nog ter discussie. De makers claimen dat het trainen van het V3-model een bedrag van 5,6 miljoen dollar kostte. Dat is extreem veel lager dan de miljarden die er in Silicon Valley uitgetrokken worden om vergelijkbare modellen te trainen.

Maar de makers geven wel eerlijk toe dat 5,6 miljoen dollar niet het hele bedrag is. In het onderzoeksrapport over DeepSeek-V3 staat aangegeven dat dit bedrag expliciet alleen gaat over het trainen van het model. Eerdere onderzoeken en andere bijkomende kosten van experimenten zijn er niet in meegenomen.

Daarnaast kijkt de techwereld ook kritisch naar de claims dat het efficiënte AI-model van DeepSeek goedkoper is om te draaien.

"Deze doorbraak verlaagt de vraag naar rekenkracht, waardoor lagere kosten mogelijk worden. Dat zet druk op de grote namen in de industrie zoals Microsoft en Google om hun hoge prijzen te verantwoorden", schreef Kennet Lamont van financiële dienstverlener Morningstar maandag in een rapport.

Hij herinnerde investeerders eraan dat het niet slim is om bij de eerste tekenen van een nieuwe technologie al aan te nemen dat de winnaars vaststaan. "Megatrends lopen bijna nooit zoals je verwacht. De dominante spelers van vandaag hoeven niet de winnaars van morgen te zijn", schreef hij.

Chief business officer Dmitry Shevelenko van AI-startup Perplexity denkt ook dat de huidige grote spelers opnieuw naar de cijfers moeten gaan kijken. "Het zet zeker vraagtekens bij de winstmarges die ze beleggers hebben voorgespiegeld", zegt hij tegen Business Insider. "Maar voor de snelheid van het ontwikkelen van dit soort technologieën is het iets goeds.

Perplexity heeft ondertussen de AI-modellen van DeepSeek toegevoegd aan de modellen die het hanteert voor zijn platform.

3. Het overwegen van een overstap naar DeepSeek

Meerdere platforms die AI-modellen voor zakelijk gebruik aanbieden, zoals Groq en Liquid.AI, lieten maandag weten dat ze het aanbod van DeepSeek aan hun portfolio toevoegden.

Bij Amazon, dat miljarden dollars investeerde in AI-startup Anthropic, is er intern ook op het nieuws gereageerd. Op het interne Slack-kanaal van de techgigant plaatste iemand een meme die suggereerde dat ontwikkelaars mogelijk overstappen van Anthropics Claude naar het AI-model van DeepSeek.

De geplaatste afbeelding toonde Claude met een kruis er doorheen met de tekst: "Vriendschap met Claude is voorbij. Nu is DeepSeek mijn beste vriend."

Ook bij klanten van Amazon AWS (de cloudtak van het bedrijf) neemt de vraag naar de modellen van DeepSeek toe.

Het kost bedrijven die hun eigen applicaties op bestaande AI-modellen bouwen, vrij weinig om over te stappen. Daardoor vragen velen zich af op DeepSeek andere modellen van bijvoorbeeld Meta, Anthropic of OpenAI uit de markt zal drukken.

Maar DeepSeek heeft een groot nadeel: het is onderdeel van het Chinese hedgefonds High Flyer. De herkomst van het bedrijf zorgt voor vragen over de veiligheid en de privacy, als er gebruik gemaakt wordt van producten met een Chinese herkomst.

"Hoewel open-source modellen zoals DeepSeek interessante kansen bieden, kunnen bedrijven terughoudend wat betreft de overstap naar een AI-model dat uit China komt. Dit komt vooral door zorgen over de transparantie van de trainingdata, privacy en veiligheid", legt Padval van Thomvest Ventures uit.

4. Aanbieders van AI-infrastructuur kunnen getroffen worden

Aanbieders van infrastructuur om AI-modellen op te draaien, zoals Oracle, Digital Ocean en Microsoft, kunnen in een lastige positie belanden, als efficiëntere modellen aan een opmars beginnen.

"De efficiëntie van de trainingsmethodiek van DeepSeek (mits waar) roept de vraag op of wereldwijde hyperscalers en overheden pas op de plaats moeten makenom deze innovatieve nieuwe manier van werken te overwegen", schrijven analisten van de Amerikaanse zakenbank Stifel in een nieuw rapport.

Als het minder rekenkracht kost om hetzelfde werk te verzetten, dan zullen degenen die deze rekenkracht verkopen onder een dergelijk ontwikkeling lijden, beweren analisten van zakenbank Barclays. "Met de toenemende onzekerheid, zou het goed kunnen dat de prijsdruk op Oracle, Digital Ocean en Microsoft toeneemt."

5. Op een andere manier opschalen

Grote namen in de wereld van artificial intelligence, waaronder CEO Jensen Huang van Nvidia, beweren al maanden dat er een grote verschuiving in de wereld van AI aankomt. Het idee is dat er meer ingezet zal worden op de rekenkracht die AI-modellen gebruiken om tot hun antwoorden te komen, in plaats van deze rekenkracht in te zetten op meer training met data.

Kort door de bocht: training wordt gedaan voordat een model in gebruik genomen wordt. Op dit punt wordt het AI-model getraind op zoveel mogelijk data. Zogenoemde "inference" wordt toegepast, als het AI-model in gebruik is. Het gebruikt dan de getrainde data als naslagwerk om toe te passen, zodat via bepaalde redeneerstappen een antwoord wordt gegenereerd.

Om het anders te zeggen: training is wat je leert op school, inference is het toepassen van deze kennis in je baan.

Die verschuiving is al een tijdje gaande, maar wordt nu versneld doordat de druk om dit te doen van twee kanten komt. Ten eerste betekent een toename van gebruikers, dat er meer rekenkracht ingezet moet worden op inference. Het tweede punt komt nu naar boven door de manier waarop DeepSeek R1 werkt. Dit model kan zichzelf verbeteren op het moment dat inference plaatsvindt. Dit werd tot nu toe nog niet gedaan. Verbeteringen vonden plaats door meer training en het finetunen van de AI-modellen.

"DeepSeek is een goede stap voorwaarts in de ontwikkeling van AI en een goed voorbeeld van hoe 'Test Time Scaling' toegepast kan worden. Het werk van DeepSeek toont hoe nieuwe modellen gemaakt kunnen worden die deze techniek toepassen", aldus een woordvoerder van Nvidia, die tegenover Business Insider een positieve draai aan de opkomst van DeepSeek R1 probeert te geven.

"Inference vraagt om aanzienlijke aantallen processoren van Nivdia en een goed presterend netwerk. We hebben nu drie wetten voor schaalbaarheid: pre-training, post training - die nog steeds blijven bestaan - en het nieuwe test-time scaling."

6. Open-source verandert de manier waarop AI-modellen worden gebouwd

Het minst gehypte deel van de innovatie die DeepSeek presenteerde, is hoe makkelijk het wordt om een bestaand AI-model te nemen en om te vormen tot een krachtiger 'reasoning'-model, stelt mede-oprichter Jack Clark van Anthropic in zijn nieuwsbrief.

Clark merkt ook op dat sommige AI-bedrijven, zoals OpenAI, niet transparant zijn over de redeneerstappen van hun AI-modellen. De modellen van DeepSeek laten al deze stappen wel zien in een 'chain of thought'. Dit maakt dat iedereen het redenatiepatroon kan inzien en gebruiken. Dat verandert de manier waarop AI-modellen gecontroleerd kunnen worden, schreef Clark.

"Sommige aanbieders zoals OpenAI kozen er voorheen voor om de chain of thought van hun modellen te verbergen", legt Clark uit. "Er is nu een model dat je kunt gebruiken om een bestaand model te veranderen in een AI-model dat kan redeneren."

7. Programmeurs doen er nog steeds toe

DeepSeek werd verbeterd door gebruik te maken van nieuwe programmeermethodes. Mede-oprichter Samir Kumar van durfkapitalist Touring Capital zag dit een aanwijzing is dat mensen nog steeds verantwoordelijk zijn voor de meest indrukwekkende innovaties in AI.

Hij zegt tegen Business Insider dat DeepSeek duidelijk maakt dat het talent en het kunnen van "hardcore menselijke programmeurs" niet onderschat moet worden.

LEES OOK: Elon Musk en Sam Altman ruziën meteen al weer over de haalbaarheid van het $500 miljard kostende AI-project Stargate