- De Amsterdamse AI-startup LangWatch heeft onlangs 1 miljoen euro groeigeld opgehaald in een pre-seed investeringsronde.
- LangWatch heeft als doel om het proces waarmee taalmodellen worden geoptimaliseerd, te versnellen en te verbeteren, om zodoende de veiligheid en kwaliteit te verhogen.
- “Het idee is om uiteindelijk de AI-bouwers en de minder technische mensen beter te laten samenwerken”, aldus mede-oprichter Manouk Draisma.
- Lees ook: In Amsterdam vinden ze door AI sneller nieuwe antilichamen voor medicijnen: ‘Onze software ontwerpt eiwitten’
De Amsterdamse AI-startup LangWatch heeft onlangs één miljoen euro aan groeigeld opgehaald tijdens een pre-seed financieringsronde, geleid door Passion Capital. De investeringsmaatschappijen Volta Ventures en Antler sloten zich hierbij aan, waarbij Antler eerder al 100.000 euro had geïnvesteerd.
De jonge onderneming, opgestart door Manouk Draisma en Rogerio Chaves, richt zich op het veilig maken en kwalitatief verbeteren van de output van taalmodellen (de techniek achter AI-chatbots als bijvoorbeeld ChatGPT).
Een van de groeiende problemen waar bedrijven bij de implementatie van AI-systemen tegenaan lopen, is dat het nooit met volledige zekerheid te voorspellen is wat een zogenoemd large language model (llm) op een vraag van een gebruiker gaat antwoorden.
Dit probleem maakt dat het ook lastig om dit proces te sturen. In het verleden leidde dit bijvoorbeeld tot scheldende AI-chatbots, of bots die gevoelige informatie vrijgaven of zelfs toegang verschaften tot voor gebruikers afgesloten systemen. Dit wil LangWatch voorkomen.
“In onze tijd bij andere startups liepen we er keer op keer tegenaan dat het een probleem was om controle te krijgen over wat er uit de taalmodellen komt rollen. We zagen dat de onvoorspelbaarheid van large language models niet samengaat met de traditionele tools die nu gebruikt worden om de output te monitoren, aangezien chatbots voorheen eigenlijk altijd vaste antwoorden gaven. Daar zit dus een enorm pijnpunt”, legt Draisma uit tegenover Business Insider Nederland.
De output van AI-modellen onder controle krijgen
LangWatch wil dé tool zijn die AI-bouwers gebruiken om de output van hun AI-model onder controle te kunnen krijgen. Het doet dit door onder andere een ‘evaluation framework’ op te zetten.
Hiermee kunnen softwareprogrammeurs, maar ook niet-technische mensen binnen een bedrijf, verschillende prompts en antwoorden nalopen en beoordelen. Op basis hiervan kan LangWatch de antwoorden van de AI-model in kwestie sturen. Dat geldt niet niet alleen voor een specifieke prompt, maar ook voor vragen die in dezelfde categorie of dezelfde insteek vallen.
“In het verleden was het monitoren van software-applicaties makkelijk. Je gaf één input en daar kwam een vast resultaat uit. Een large language model werkt fundamenteel anders en kan op één vraag duizend verschillende antwoorden geven. Je kunt dus misschien duizend opdrachten aan zo'n model monitoren, maar als het er miljoenen worden, dan wordt het onhaalbaar. Dat kan LangWatch wel, en dit biedt een oplossing om te monitoren en automatische kwaliteitschecks te uit te voeren”, legt Draisma uit.
Die kwaliteit moet natuurlijk behouden worden, ook nu de taalmodellen goedkoper worden, waarmee de kans toeneemt dat bedrijven vaker van techniek willen wisselen. “Je wilt weten of de kwaliteit van jouw LLM-app hetzelfde blijft, ook als je naar goedkopere modellen overstapt”, stelt Draisma.
Groeiende vraag naar controle op betrouwbaarheid van antwoorden van AI-modellen
“We zien ook al een groeiende vraag vanuit de markt, waardoor we wel moeten opschalen”, zegt Draisma als indicatie van waar het groeigeld op de korte termijn heen zal gaan. “We hebben inmiddels al nieuw talent aangenomen om de vraag bij te kunnen benen. We merken gewoon dat we meer mankracht nodig hebben.”
Toch heeft LangWatch niet de ambitie om met het geld vooral het personeelsbestand uit te breiden. “We willen in principe blijven werken met een relatief klein team. Hoewel we in het verleden wel bij bedrijven hebben gewerkt waar elk probleem werd opgelost met een extra persoon erbij, zien we nu dat we een hoop productiviteit met AI kunnen oplossen”, zegt Draisma. “We gebruiken AI bij de ontwikkeling, marketing en ook als adviseur."
Maar de concurrentie zit ook niet stil en AI-modellen worden steeds beter en accurater. Dat roept de vraag op of hetgeen wat de Amsterdamse startup nu doet, op termijn niet overbodig wordt. “We zien dat bij andere, grotere organisaties ontwikkelingen langzamer gaan, waar wij veel sneller en schaalbaarder zijn”, verklaart Draisma. “Natuurlijk zullen er een aantal winnaars in de AI-markt zijn, maar ik geloof niet dat die op een enterpriseniveau zitten, want ik weet dat dat soort partijen vaak naar externe tooling kijken. Ze ontwikkelen dit soort oplossingen dus niet per se zelf.”
“Nog een verschil is dat grotere partijen niet zo zeer interessant zijn voor ontwikkelaars om te gebruiken, terwijl wij ons daar juist op richten. De grote jongens bieden heel andere producten”, zegt de mede-oprichtster. “We blijven ons richten op onze eigen kwaliteiten en onze eigen strategie en visie die daarbij hoort.”