AI Ordbog
Der skrives enorme mængder artikler omkring AI i øjeblikket, og specielt ChatGPT får stor opmærksomhed. Det er derfor vigtigt at få en grundlæggende forståelse for mange af de begreber, der anvendes ifm. AI, og som knyttes til områderne forretningsudvikling, digital strategi og digital transformation.
I denne artikel har vi samlet de vigtigste AI-begreber, der er nødvendige for at kunne forstå de grundliggende elementer, der er basis for anvendelse og implementering af AI.
Vi vil løbende udbygge listen med andre AI-begreber, når de opnår en mere generel inddragelse i områder omkring forretningsudvikling, digital strategi og digital transformation.
OBS: Flere af disse begreber har ikke en dansk oversættelse, hvorfor vi bi-beholder den engelske version.
Applikationsprogrammeringsgrænseflade (API) er et sæt af regler og definitioner, som software programmer bruger til at kommunikere med hinanden. API’er tillader forskellige softwarekomponenter at interagere og udveksle data, hvilket gør det muligt for udviklere at bygge komplekse systemer ved at integrere funktionalitet fra forskellige kilder.
Kunstig intelligens (AI) er en gren af datalogi, der skaber systemer og software, som kan udføre opgaver, der normalt kræver menneskelig intelligens. Dette omfatter læring, problemløsning, sprogforståelse, perception og beslutningstagning. AI-teknologier spænder fra simple algoritmer til komplekse maskinlæringsmodeller og deep learning systemer.
Neurale Netværk er en type AI, der efterligner den måde den menneskelige hjerne behandler data og fungerer på , hvilket er velegnet til at lære fra store mængder data.
Maskinlæring (Machine Learning (ML)) er en delmængde af AI, hvor en model opnår specielle og tilpassede egenskaber, efter at den er blevet trænet på mange specifikke datapunkter. Disse algoritmer opdager mønstre og lærer at lave forudsigelser og anbefalinger ved at behandle data og opnåede “erfaring”, snarere end ved at modtage eksplicit programmeringsinstruktion. Algoritmerne tilpasser sig løbende via nye datapunkter, og bliver derfor mere effektive over tid.
Et at de mest citerede eksempler er når en sådan algoritme fodres med tusindevis af billeder af et bestemt motiv – f.eks – en forgængerovergang eller en hund – hvorefter modellen kan identificere alle billeder af hunde og fodgængerovergange som det de er.
Deep Learning er en gren af maskinlæring, der bruger komplekse neurale netværk med mange lag (hvad “deep” refererer til) til at lære fra store mængder data. Det er en effektiv metode til at genkende mønstre og trække indsigt fra ustrukturerede data som billeder og lyd.
Foundation modeller (FM) er deep-learning modeller trænet på store mængder af ustrukturerede data, der kan bruges til en bred vifte af generiske opgaver eller tilpasses til specifikke opgaver gennem finjustering. Eksempler på disse modeller er GPT-4, PaLM, DALL·E 2 og Stable Diffusion.
Transformers er centrale komponenter i Foundation modeller. De er neurale netværk, der bruger særlige mekanismer kaldet “attention heads” til at forstå kontekst i sekventielle data, såsom hvordan et ord bruges i en sætning.
Algoritmer er ikke et specifikt AI-begreb, men dukker ofte op i beskrivelse af AI-teknologier. Algoritmer er en sekvens af instruktioner, der initieres for at løse en bestemt opgave.
Generativ AI er en version af AI, der typisk er bygget ved hjælp af foundation modeller, og har egenskaber som tidligere versioner af AI ikke havde, såsom evnen til at generere indhold i form af tekst, billeder eller musik. Foundation modeller kan også bruges til ikke-generative formål (for eksempel klassificering af kundens attitude som negativ eller positiv baseret på analyse af udskrifter fra samtaler med kunder).
Graphics Processing Unit (GPU) er en computerchip, der oprindeligt blev udviklet til produktion af computergrafik (såsom til videospil) og er også nyttige til Deep Learning applikationer. I modsætning hertil kører traditionel Machine Learning og andre analyser normalt på en Central Processesing Unit (CPU), som er hovedprocessoren i en hver PC. Den seneste astronomiske øgning i aktiekursen for Nvidia er et udtryk for dette.
Store sprogmodeller (Large Language Models (LLMs)) udgør en klasse af Foundation modeller, der kan behandle enorme mængder ustruktureret tekst og lære forholdet mellem ord eller dele af ord, kendt som tokens. Dette gør det muligt for LLM’er at generere naturlig sprogtekst og udføre opgaver såsom opsummering eller ekstraktion af viden. GPT-4 (som ligger til grund for ChatGPT) og LaMDA (modellen bag Bard) er eksempler på LLM’er.
Pre-training er den første fase i maskinlæring, hvor der trænes på et stort datasæt, før modellen trænes på specik data for at kunne løse en specifik opgave.
Fine-tuning er processen med at tilpasse en forudtrænet grundmodel til at præstere bedre i en specifik opgave. Dette indebærer en relativt kort træningsperiode på et opgave specifik datasæt, som er langt mindre end det datasæt, modellen oprindeligt blev trænet på. Denne yderligere træning giver modellen mulighed for at lære og tilpasse sig nuancer, terminologier og specifikke mønstre, der findes i det mindre datasæt.
ChatBots er AI-systemer udviklet til at simulere menneskelig respons. Det er et område, der har fået fornyet opmærksomhed med lancering af Chat GPT, men Chatbots har eksisteret i mange år, og kræver ikke nødvendigvis et underliggende AI-fundament. En Chatbot er et computer program, der anvender automation til at efterligne menneskelig samtale. En Conversational AI anvender mere avancrede teknikker, der muliggør en mere intelligent – to-vejs – konversation med brugerne.
MLOps er en praksis for at vedligeholde AI og ML samt integrere og automatisere disse i specifikke miljøer. Det omfatter en praksis, der spænder over hele ML-livscyklussen (datastyring, udvikling, implementering og drift) for at strømline og effektivisere udviklingen, implementeringen og vedligeholdelsen af maskinlæringsmodeller.
Prompt Engineering henviser til processen med at designe, finjustere og optimere input til en generativ AI-model, så den giver det ønskede resultat – og dermed over tid også mere korrekte svar.
Bias refererer til AI-modeller, hvor den bagvedliggende algoritme laver systematisk fejl, hvilket forekommer, når modellen er trænet på forkert data.
Strukturerede Data er data (for eksempel organiseret i tabeller, databaser eller regneark), der bruges til at træne maskinslæringsmodeller, så de bliver mere effektive.
Ustrukturerede Data mangler et konsistent format eller struktur (for eksempel tekst, billeder og lydfiler) og kræver typisk mere avancerede teknikker for at ekstrahere brugbar information, der kan placeres i et struktureret datasæt.
Data Mining anvendes både på struktureret og ustruktureret data, og er en teknik til at producere relevant information, mønstre eller forventelige eller unormale sammenhænge mellem forskellige datainput.