Amsterdams AI-platform Orq.ai brengt LLM-router uit
In dit artikel:
Het Amsterdamse Orq.ai brengt zijn AI-router nu als los product op de markt, zodat techteams meerdere grote taalmodellen centraal kunnen aansturen zonder steeds hun applicaties te moeten herschrijven. Wat eerder deel uitmaakte van een breder platform is nu inzetbaar als gateway die modelverkeer beheert: wanneer een applicatie wisselt van model, hoe verzoeken over modellen worden verdeeld en welke gebruikers welk tokenbudget hebben. Oprichters Sohrab Hosseini en Anthony Diaz signaleren dat organisaties vaak met “spaghetti” aan versnipperde integraties zitten; volgens Hosseini kan slim routeren “een kostenbesparing opleveren van tien tot vijftig procent”.
De router laat beleidsregels afdwingen op basis van bijvoorbeeld geografische herkomst, latency of kosten, centraliseert sleutelbeheer en maakt toewijzing van budgetten per team mogelijk. Cruciaal is ook dat Orq.ai de router binnen klantinfra kan uitrollen, inclusief private en airgapped modellen—een verschil met veel cloudfirst-oplossingen. De Amsterdamse neobank bunq is een van de eerste grotere gebruikers.
De lancering speelt in op bredere marktproblemen: sterk stijgende AI-kosten, toenemende modelcomplexiteit en Europese zorgen over digitale soevereiniteit, waardoor niet-functionele eisen (waar draait inferentie, wie beheert infra) belangrijker worden. Naast de router biedt Orq.ai zijn AI Studio voor volledige levenscyclusbeheer van AI-producten en werkt het aan een Agent Control Tower (Agent Resource Management) om AI-agents als een soort HR-functie te organiseren en monitoren.