Skjoldemose.AI
ArtiklerReposBaggrund

Skjoldemose.AI

Navigation

ArtiklerReposBaggrund

Nyhedsbrev

Trending Open Source, en gang om måneden.

Kontakt

skjoldemosejohansen@gmail.comLinkedIn

© 2026 Skjoldemose.AI. Alle rettigheder forbeholdes.

←Open Source
1. april 2026

Azure Search OpenAI Demo: Broen mellem fortidens erfaringer og nutidens problemer

RAGAzureMCPAgentisk AIOpen Source

Overblik

Projekt

Azure Search OpenAI Demo


Udgiver

Microsoft (Azure Samples)


GitHub

7.600+ stjerner · 5.300+ forks


Licens

MIT (frit tilgængelig)


Sprog

Python · React/TypeScript · Bicep


Målgruppe

Virksomheder på Microsoft-stakken der vil gøre intern viden søgbar med AI


Pris

Ca. 1.000 kr./md. i Azure-ressourcer

Azure-tjenester

SprogmodelAzure OpenAI
SøgningAzure AI Search
ServerContainer Apps
FilerBlob Storage
LoginEntra ID (valgfrit)

Dette er et projekt der står mit hjerte nært. Jeg opdagede det i midten af 2025, begyndte at bygge videre på det, og det åbnede faglige muligheder jeg ikke havde forudset. Det blev fundamentet for en løsning jeg har implementeret i flere afdelinger hos KMD – og som vi nu er på vej til at tilbyde eksternt.

Projektet hedder azure-search-openai-demo. Det er Microsofts frit tilgængelige skabelon til at bygge en ChatGPT-lignende oplevelse oven på en organisations egne data. Over 7.600 udviklere har anerkendt projektet på GitHub, og det er et af de mest kopierede i sin kategori.

Denne artikel forklarer, hvad projektet gør, hvordan det virker under overfladen, og hvorfor det også er relevant for den næste bølge af AI.

Anvendelse

Hvad kan det bruges til?

Kort sagt: at gøre intern viden søgbar med AI. I stedet for at en medarbejder skal åbne SharePoint, downloade PDF’er og søge manuelt, kan de stille et spørgsmål med deres egne ord og få et svar på sekunder – med henvisning til præcis hvilken side i hvilket dokument svaret stammer fra.

Den oplagte anvendelse er dokumenter: kontrakter, serviceaftaler, politikker, interne retningslinjer. Men det er værd at tænke bredere.

Mange virksomheder har ældre kernesystemer skrevet i sprog som PL/I – et programmeringssprog fra 1964 der stadig kører forretningskritiske processer i banker, forsikringsselskaber og den offentlige sektor. Koden er ofte dårligt dokumenteret, og de medarbejdere der oprindeligt skrev den, er gået på pension. Med dette projekt kan både programkoden og den tilhørende dokumentation gøres søgbar. Det giver teamet mulighed for at stille spørgsmål til et system, som ingen enkeltperson længere forstår fuldt ud.

Det handler ikke kun om at søge i dokumenter. Det handler om at gøre årtiers akkumuleret viden tilgængelig – også den viden der lever i kode, som ingen længere vedligeholder.

Sådan virker det

Fra spørgsmål til svar – med en AI der planlægger søgningen

Arkitekturdiagram der viser flowet fra brugerens spørgsmål gennem App Server til Azure AI Search og Azure OpenAI

Kilde: Microsoft · Azure-Samples/azure-search-openai-demo

Det grundlæggende princip hedder RAG – Retrieval Augmented Generation. Det betyder, at AI’en ikke svarer ud fra sin generelle viden, men ud fra de konkrete dokumenter den får vist. Det er forskellen på en AI der gætter, og en AI der citerer.

Vi anvender det der kaldes agentic retrieval. Det betyder, at en mindre AI selv planlægger, hvordan spørgsmålet bedst besvares – lidt ligesom en erfaren kollega der ved, at man skal lede flere steder for at få det fulde billede.

Flowet foregår i fire trin:

01

Brugeren stiller et spørgsmål

I et chatvindue, med egne ord. F.eks.: “Dækker vores serviceaftale weekendhændelser, og hvad er bodsklausulen?” Systemet tilføjer automatisk fagord fra det relevante område – så en søgning i kontrakter får kontekst om serviceaftaler, servicemål og bilag.

02

Knowledge Agent planlægger søgningen

I stedet for at sende én søgning, opdeler en mindre AI spørgsmålet i op til 10 delsøgninger – hver med sin egen vinkel på emnet. Spørgsmålet om serviceaftale og bodsklausul kan f.eks. blive til separate søgninger efter “serviceaftale måleperiode weekend”, “bodsklausul kontraktbrud” og “kompensation ved nedbrud”.

03

Søgning og rerangering

Alle delsøgninger køres mod dokumenterne, filtreret til det relevante område. En ekstra AI gennemgår derefter resultaterne og sorterer dem efter relevans – ikke kun efter om de indeholder de rigtige ord, men om de faktisk handler om det spørgsmålet drejer sig om.

04

Svargenerering med kildehenvisninger

De bedste tekstuddrag fra alle delsøgninger samles og sendes til en stærkere AI, som skriver det endelige svar med kildehenvisninger. Brugeren kan klikke sig direkte til den relevante side i det oprindelige dokument.

Hvis den avancerede søgning af en eller anden grund fejler, skifter systemet automatisk til den klassiske metode. Brugeren får altid et svar.

Under overfladen

Embeddings: søgning på mening

Uanset hvilken søgemetode systemet bruger, bygger det på den samme grundmekanisme: embeddings.

Når et dokument tilføjes til systemet, omdannes teksten til tal der repræsenterer dens betydning. To sætninger om det samme emne vil få tal der ligner hinanden, uanset hvilke ord de bruger. Tænk på det som et koordinatsystem for mening: jo tættere to punkter ligger, desto mere handler de om det samme.

Det er det, der gør det muligt at søge på “hvad koster det at komme i gang?” og finde en passage om “initielle licensomkostninger” – selvom ordene er helt forskellige. Systemet opbevarer både den oprindelige tekst og dens talrepræsentation, så det kan søge på både ord og mening samtidig.

Næste skridt

Fra chatvindue til videnstjeneste

I sin oprindelige form tilhører dette projekt den første bølge af generativ AI: en bruger stiller et spørgsmål, en sprogmodel giver et svar. Det er nyttigt i sig selv. Men der sker et skifte.

Den anden bølge er agentisk. Her arbejder AI-systemer mere selvstændigt på komplekse opgaver – de læser dokumenter, undersøger flere kilder og træffer beslutninger i flere trin, uden at en person styrer hvert skridt. Disse AI-agenter har brug for at slå op i fagspecifik viden midt i en arbejdsproces – f.eks. mens de opdaterer et ældre IT-system eller tjekker en kontrakt mod interne regler. Uden den rigtige kontekst opfinder AI’en svar. Med den rigtige kontekst kan den løse opgaver, der før krævede ugers manuelt arbejde.

Det er her Model Context Protocol (MCP) kommer ind. MCP er en åben standard for at forbinde AI-værktøjer med datakilder – ligesom USB-C giver ét stik til mange enheder, giver MCP én standard for mange AI-klienter. Ved at bygge en MCP-server oven på dette projekt kan videnbasen frigøres fra chatvinduet og tilgås af ethvert AI-værktøj der understøtter standarden.

Første bølge: Generativ AI

En medarbejder stiller et spørgsmål i et chatvindue. Systemet søger, finder relevante passager og formulerer et svar. Én interaktion, ét svar.

Anden bølge: Agentisk AI

En AI-agent slår selv op i videnbasen midt i en kompleks opgave – mens den opdaterer et system, gennemgår en kontrakt eller analyserer et regelsæt. Videnbasen skifter rolle fra slutprodukt til værktøj.

Et konkret eksempel: en udvikler der moderniserer et ældre system kan bruge Claude Code, som selv slår op i videnbasen – læser den eksisterende dokumentation og kode, forstår forretningslogikken, og skriver koden til det nye system på den baggrund.

Kom i gang

Opsætning på en eksisterende Microsoft-stak

For organisationer der allerede bruger Microsoft og Azure, kan hele løsningen sættes op relativt hurtigt. Al data forbliver i organisationens eget Azure-miljø – intet sendes til tredjepart. Microsofts getting started-guide beskriver processen trin for trin.

Projektet leveres desuden med guides til det meste: login, adgangsstyring, data-indlæsning, sikkerhed, overvågning, agentisk søgning og mere – samlet ét sted og løbende opdateret.

Bundlinje

Hvem er det relevant for?

Projektet er mest relevant for organisationer der bruger Microsoft og Azure, og som har viden spredt i dokumenter, kode eller ældre systemer. Det giver et gennemarbejdet udgangspunkt med en færdig arkitektur, en vej til sikring af data og adgang, og – med en MCP-server ovenpå – muligheden for at gøre den samme videnbase tilgængelig for den næste generation af AI-værktøjer.

Læs mere

GitHub: Azure-Samples/azure-search-openai-demo

7.600+ stjerner · MIT-licens · Python, React, Bicep

→

Getting started

Trin-for-trin opsætning af projektet

→

Dokumentation og guides

Login, data, produktion, agentisk søgning m.m.

→

Produktionsvejledning

Sikkerhedshærdning og idriftsættelse

→

Model Context Protocol (MCP)

Åben standard der forbinder AI-værktøjer med datakilder

→

Nyhedsbrev

Jeg sender en lignende gennemgang af et Open Source-projekt ca. en gang om måneden.