Overblik
Projekt
Azure Search OpenAI Demo
Udgiver
Microsoft (Azure Samples)
GitHub
7.600+ stjerner · 5.300+ forks
Licens
MIT (frit tilgængelig)
Sprog
Python · React/TypeScript · Bicep
Målgruppe
Virksomheder på Microsoft-stakken der vil gøre intern viden søgbar med AI
Pris
Ca. 1.000 kr./md. i Azure-ressourcer
Azure-tjenester
Dette er et projekt der står mit hjerte nært. Jeg opdagede det i midten af 2025, begyndte at bygge videre på det, og det åbnede faglige muligheder jeg ikke havde forudset. Det blev fundamentet for en løsning jeg har implementeret i flere afdelinger hos KMD – og som vi nu er på vej til at tilbyde eksternt.
Projektet hedder azure-search-openai-demo. Det er Microsofts frit tilgængelige skabelon til at bygge en ChatGPT-lignende oplevelse oven på en organisations egne data. Over 7.600 udviklere har anerkendt projektet på GitHub, og det er et af de mest kopierede i sin kategori.
Denne artikel forklarer, hvad projektet gør, hvordan det virker under overfladen, og hvorfor det også er relevant for den næste bølge af AI.
Anvendelse
Kort sagt: at gøre intern viden søgbar med AI. I stedet for at en medarbejder skal åbne SharePoint, downloade PDF’er og søge manuelt, kan de stille et spørgsmål med deres egne ord og få et svar på sekunder – med henvisning til præcis hvilken side i hvilket dokument svaret stammer fra.
Den oplagte anvendelse er dokumenter: kontrakter, serviceaftaler, politikker, interne retningslinjer. Men det er værd at tænke bredere.
Mange virksomheder har ældre kernesystemer skrevet i sprog som PL/I – et programmeringssprog fra 1964 der stadig kører forretningskritiske processer i banker, forsikringsselskaber og den offentlige sektor. Koden er ofte dårligt dokumenteret, og de medarbejdere der oprindeligt skrev den, er gået på pension. Med dette projekt kan både programkoden og den tilhørende dokumentation gøres søgbar. Det giver teamet mulighed for at stille spørgsmål til et system, som ingen enkeltperson længere forstår fuldt ud.
Det handler ikke kun om at søge i dokumenter. Det handler om at gøre årtiers akkumuleret viden tilgængelig – også den viden der lever i kode, som ingen længere vedligeholder.
Sådan virker det

Kilde: Microsoft · Azure-Samples/azure-search-openai-demo
Det grundlæggende princip hedder RAG – Retrieval Augmented Generation. Det betyder, at AI’en ikke svarer ud fra sin generelle viden, men ud fra de konkrete dokumenter den får vist. Det er forskellen på en AI der gætter, og en AI der citerer.
Vi anvender det der kaldes agentic retrieval. Det betyder, at en mindre AI selv planlægger, hvordan spørgsmålet bedst besvares – lidt ligesom en erfaren kollega der ved, at man skal lede flere steder for at få det fulde billede.
Flowet foregår i fire trin:
I et chatvindue, med egne ord. F.eks.: “Dækker vores serviceaftale weekendhændelser, og hvad er bodsklausulen?” Systemet tilføjer automatisk fagord fra det relevante område – så en søgning i kontrakter får kontekst om serviceaftaler, servicemål og bilag.
I stedet for at sende én søgning, opdeler en mindre AI spørgsmålet i op til 10 delsøgninger – hver med sin egen vinkel på emnet. Spørgsmålet om serviceaftale og bodsklausul kan f.eks. blive til separate søgninger efter “serviceaftale måleperiode weekend”, “bodsklausul kontraktbrud” og “kompensation ved nedbrud”.
Alle delsøgninger køres mod dokumenterne, filtreret til det relevante område. En ekstra AI gennemgår derefter resultaterne og sorterer dem efter relevans – ikke kun efter om de indeholder de rigtige ord, men om de faktisk handler om det spørgsmålet drejer sig om.
De bedste tekstuddrag fra alle delsøgninger samles og sendes til en stærkere AI, som skriver det endelige svar med kildehenvisninger. Brugeren kan klikke sig direkte til den relevante side i det oprindelige dokument.
Hvis den avancerede søgning af en eller anden grund fejler, skifter systemet automatisk til den klassiske metode. Brugeren får altid et svar.
Under overfladen
Uanset hvilken søgemetode systemet bruger, bygger det på den samme grundmekanisme: embeddings.
Når et dokument tilføjes til systemet, omdannes teksten til tal der repræsenterer dens betydning. To sætninger om det samme emne vil få tal der ligner hinanden, uanset hvilke ord de bruger. Tænk på det som et koordinatsystem for mening: jo tættere to punkter ligger, desto mere handler de om det samme.
Det er det, der gør det muligt at søge på “hvad koster det at komme i gang?” og finde en passage om “initielle licensomkostninger” – selvom ordene er helt forskellige. Systemet opbevarer både den oprindelige tekst og dens talrepræsentation, så det kan søge på både ord og mening samtidig.
Næste skridt
I sin oprindelige form tilhører dette projekt den første bølge af generativ AI: en bruger stiller et spørgsmål, en sprogmodel giver et svar. Det er nyttigt i sig selv. Men der sker et skifte.
Den anden bølge er agentisk. Her arbejder AI-systemer mere selvstændigt på komplekse opgaver – de læser dokumenter, undersøger flere kilder og træffer beslutninger i flere trin, uden at en person styrer hvert skridt. Disse AI-agenter har brug for at slå op i fagspecifik viden midt i en arbejdsproces – f.eks. mens de opdaterer et ældre IT-system eller tjekker en kontrakt mod interne regler. Uden den rigtige kontekst opfinder AI’en svar. Med den rigtige kontekst kan den løse opgaver, der før krævede ugers manuelt arbejde.
Det er her Model Context Protocol (MCP) kommer ind. MCP er en åben standard for at forbinde AI-værktøjer med datakilder – ligesom USB-C giver ét stik til mange enheder, giver MCP én standard for mange AI-klienter. Ved at bygge en MCP-server oven på dette projekt kan videnbasen frigøres fra chatvinduet og tilgås af ethvert AI-værktøj der understøtter standarden.
En medarbejder stiller et spørgsmål i et chatvindue. Systemet søger, finder relevante passager og formulerer et svar. Én interaktion, ét svar.
En AI-agent slår selv op i videnbasen midt i en kompleks opgave – mens den opdaterer et system, gennemgår en kontrakt eller analyserer et regelsæt. Videnbasen skifter rolle fra slutprodukt til værktøj.
Et konkret eksempel: en udvikler der moderniserer et ældre system kan bruge Claude Code, som selv slår op i videnbasen – læser den eksisterende dokumentation og kode, forstår forretningslogikken, og skriver koden til det nye system på den baggrund.
Kom i gang
For organisationer der allerede bruger Microsoft og Azure, kan hele løsningen sættes op relativt hurtigt. Al data forbliver i organisationens eget Azure-miljø – intet sendes til tredjepart. Microsofts getting started-guide beskriver processen trin for trin.
Projektet leveres desuden med guides til det meste: login, adgangsstyring, data-indlæsning, sikkerhed, overvågning, agentisk søgning og mere – samlet ét sted og løbende opdateret.
Bundlinje
Projektet er mest relevant for organisationer der bruger Microsoft og Azure, og som har viden spredt i dokumenter, kode eller ældre systemer. Det giver et gennemarbejdet udgangspunkt med en færdig arkitektur, en vej til sikring af data og adgang, og – med en MCP-server ovenpå – muligheden for at gøre den samme videnbase tilgængelig for den næste generation af AI-værktøjer.
Læs mere
GitHub: Azure-Samples/azure-search-openai-demo
7.600+ stjerner · MIT-licens · Python, React, Bicep
Getting started
Trin-for-trin opsætning af projektet
Dokumentation og guides
Login, data, produktion, agentisk søgning m.m.
Produktionsvejledning
Sikkerhedshærdning og idriftsættelse
Model Context Protocol (MCP)
Åben standard der forbinder AI-værktøjer med datakilder
Nyhedsbrev
Jeg sender en lignende gennemgang af et Open Source-projekt ca. en gang om måneden.