I detta uppdrag får du en nyckelroll i att höja kvaliteten för en AI-agentplattform som snabbt utvecklas. Du kommer att arbeta nära utvecklingsteamen och ansvarar för att produkten är robust, säker och levererar hög användarupplevelse. Rollen är både hands-on och strategisk, där du skapar testmetodik, automation och processer för att säkerställa att fel fångas tidigt – även i system med icke-deterministiskt beteende.
Du trivs här om du gillar att:
Utmana komplexa AI- och LLM-system
Identifiera edge cases och sårbarheter
Bygga smarta safeguards och testautomatisering
Vara motorn bakom kvalitet i ett snabbt skeppande team
Designa och implementera testplaner för agent-infrastruktur, LLM-baserade API:er och kompletta användarresor.
Utföra riskbedömningar och kvalitetssäkring av AI/LLM-funktionalitet.
Bygga och underhålla automatiserade testsviter för backend, frontend och integrationslager.
Implementera validering för prompts och svar från generativa modeller.
Utveckla interna testverktyg och frameworks för att tidigt avslöja regressioner, särskilt kring agent reasoning, verktygsanrop och kontexthantering.
Leda root cause-analyser för kritiska incidenter och fel, inklusive de som uppstår vid modelluppdateringar eller förändrat agentbeteende.
Integrera kvalitet i utvecklingsprocessen och samarbeta nära ingenjörer för att etablera hög standard i kodkvalitet, observability och CI/CD.
Kritiska buggar, regressionsfel och modellavvikelser fångas innan release.
Automatiserad testning är omfattande, stabil och lätt att vidareutveckla.
Releasecyklerna är snabba och tillförlitliga med bibehållen kvalitet trots ändrade eller förbättrade modeller.
Kvalitets- och modellrelaterade metrics är tydliga, visualiserade och ger användbara signaler till teamet.
Du blir en nyckelperson för ingenjörsteamen och bidrar till att höja ribban för kvalitet i AI-drivna system.
Vi ser fram emot din ansökan