KI Begriffe und Abkürzungen
( Werden alle noch ausführlich erklärt )
B
Baichuan
Batch Processing
Batch-Lernen
BatchNorm
Batch-Normalisierung
Bayesian Inference
Bayessches Lernen
BCI
Beam Search
Bellman-Gleichung
Belohnungsfunktion
BERT
Bestärkendes Lernen
BF16
Bfloat16 Training
Bias
Bias in Modellen
Bias-Reduktion
Bias-Varianz-Dilemma
Bildanalyse
Bild-zu-Bild-Transformation
BLEU
BM25
Bounding Box
BPE
Byte-Pair-Encoding
C
CAM
CCS
Center Loss
CER
Chain-of-Thought
Chatbot
CIDEr
CISC
CL
Claude
CLIP
CNN
Cohere
COLING
Content Filtering
Contrastive Loss
Convolution Kernel
Cosine Similarity
CRF
Cross Attention
Cross-Attention
CSR
CUDA
CV
CVPR
D
Data Drift
Data Parallelism
Datenaugmentierung
Datenpipeline
Datenschutz
DDPG
Deep Learning
DeepMind
DeepSpeech
DeepSpeed
DETR
DevOps
Dialogsystem
Diffusers
Diffusionsmodell
Diffusionsschritte
DINO
Direct Preference Optimization
Distillation
DL
DNN
Dot-Product Similarity
DPO
DreamBooth
DRL
Dropout
DSPy
Dynamic Positional Encoding
Dynamic Quantization
E
EACL
Early Stopping
ECCV
ELECTRA
EMBED
Embeddings
Embedding-Space
EMNLP
Empfehlungssystem
EnCodec
Energy-Based Model
Entropie
Environment
Erklärbarkeit
ERNIE
Erwartungswert
Ethik der KI
Explainable AI
Exploitation
Exploration
F
Fairness
FAISS
Falcon
Feature Importance
Feature Map
Feature Pyramid
Feedforward-Schicht
Few-Shot-Lernen
FID
FL
FlashAttention
Forward Process
FP16
FP32
FPGA
FPN
FSDP
G
GAN
GAT
GCP
GeLU
Gemini
Generative Adversarial Network
Generative KI
GGML
GGUF
GIN
GNN
GNNExplainer
GPT
GPU
GradCAM
Gradient Checkpointing
Gradientenabstieg
Gradientenexplosion
Gradientenverschwinden
Graph Attention Network
Graph Convolution
Graph Isomorphismus
Graph Neural Network
GraphSAGE
Graphstruktur
Greedy Decoding
GroupNorm
GRU
Guidance Scale
H
Halluzination
Heatmap
HF
Hierarchical Model
Hinge Loss
HMM
HNSW
HuBERT
Human Feedback
Hypernetzwerk
Hyperparameter
I
ICA
ICANN
ICASSP
ICCV
ICLR
ICML
ICPR
IJCAI
IJCNLP
Inference Optimierung
InfoNCE Loss
Instanzsegmentierung
INT4
Interpretierbarkeit
Intersection over Union
IoT
IoU
IS
ISCA
J
Jailbreak Prompt
K
Kantenextraktion
Kausalmaske
KD
KDD
Key-Vektor
KI-Begriffe
KI-gestützte Diagnostik
Klassifikator-Free Guidance
KNN
Knotenembedding
Knowledge Distillation
Konditionierung
Konfidenzintervall
Kontextfenster
Kontextvektor
Kontextverlust
Kontinuierliches Lernen
Kontrollfluss
KPIs
Kreuzentropie
Kullback-Leibler-Divergenz
Künstliche Intelligenz
L
LangChain
LARS
Latent Guidance
Latenter Raum
LayerNorm
Layer-Normalisierung
LDA
Learning Rate
Lemmatisierung
Likelihood
LIME
LLaMA
LLM
LLMOps
LoCon
Logits
Log-Loss
LoRA
Loss Landscape
Low-Rank Approximation
LSTM
M
MAE
mAP
MAPE
Markov Decision Process
Markov-Kette
Maschinelle Übersetzung
Maschinelles Lernen
Maskierung
Max-Pooling
Medizinische KI
Megatron
Memory Optimierung
Meta-Lernen
METEOR
MICCAI
Mistral
Mixed Precision
Mixture Density Network
Mixture of Experts
ML
MLOps
Model Alignment
Model Drift
Model Monitoring
Model Parallelism
Model Stealing
Model Watermarking
Modellkapazität
MoE
Monte Carlo Tree Search
Monte-Carlo-Sampling
MPI
MPT
MSE
MTL
Multi-Head Attention
Mutual Information
N
NAACL
Nachbarschaftsaggregation
Nachrichtenaustausch
Named Entity Recognition
NAS
NCCL
NER
NeurIPS
Neuronales Netz
Nicht-autoregressives Modell
NLP
NMF
Normierung
NPU
Nucleus Sampling
O
Objekterkennung
OCI
OCR
Online-Lernen
ONNX
OOD
OODD
OpenAI
OpenAI Gym
OpenAssistant
OpenCL
OpsAI
Optimierungsalgorithmus
Orca
Overfitting
P
PaLM
Parameter-Efficient Tuning
Parameter-Sharing
Part-of-Speech-Tagging
PCA
PEFT
Perceiver
PGExplainer
Phi
PinSage
Pipeline Parallelism
Policy
Pooling
POS
Positionskodierung
Positionsvektor
POSIX
Posterior
PPO
Prior
Prompt
Prompt Engineering
Prompt Injection
Pruning
Q
Q-Learning
QLoRA
Quantisierung
Query-Vektor
R
RAG
Rauschen
RBF
RBM
RCNN
Region Proposal
Regularisierung
Regulierung
Reinforcement Signal
ReLU
Residualnetzwerk
Residualverbindung
ResNet
Retrieval-Augmented Generation
Reverse Process
Reward Shaping
Reward-Modell
Rezeptives Feld
RISC
RL
RLAIF
RLHF
RMSE
RMSProp
RNN
Robotik
ROC
Rotary Embeddings
ROUGE
RPA
Rückpropagation
RWKV
S
Safety Guardrails
Saliency Map
SAM
SAM2
Sampling-Schritte
SARSA
Scaled Dot-Product Attention
Score Matching
SDK
Segmentierung
Selbstüberwachtes Lernen
Self-Attention
Self-Play
Sentimentanalyse
SFT
SGD
SGX
SHAP
Sicherheitslücke
SIGIR
Sigmoid
SiLU
Simulation
SL
SMOTE
Softmax
Sparse Attention
Sparse Transformer
Speech-to-Text
SPM
Sprachassistent
Sprachmodellierung
SSD
SSL
Stable Diffusion
Standardabweichung
Static Quantization
Stemming
Stochastischer Gradientenabstieg
Streaming Inference
Subword
SVM
Swish
SYCL
T
T5
Tanh
TD3
Temperature
Testdatensatz
Text2Image
Text2Video
Textgenerierung
Textklassifikation
Text-to-Speech
Text-zu-Bild-Generierung
TF-IDF
TL
Token
Tokenisierung
Top-k Sampling
Top-p Sampling
TPM
TPM2
TPU
Trainingsdatensatz
Transferlernen
Transformer
Triplet Loss
TRPO
TTS
U
Überwachtes Lernen
UL
Underfitting
UNet
Unüberwachtes Lernen
V
VAE
Validierungsdatensatz
Value Function
Value-Vektor
Varianz
Variational Autoencoder
Verantwortungsvolle KI
Verlustfunktion
Vicuna
ViT
vLLM
Vorwärtspropagation
VQA
W
Wahrscheinlichkeitsverteilung
Wav2Vec
Weight Decay
WER
Whisper
Wortvektor
WWW
X
xAI
XLNet
Y
YOLO
Z
ZeRO
ZeRO Redundancy
Zero-Shot-Lernen