Ein Foundation Model (FM), auf Deutsch „Grundmodell“, ist ein KI-Modell, das mit einer riesigen Menge an Rohdaten trainiert worden ist, die nicht mit sinnvollen Informationen annotiert (englisch: labled) oder getaggt (englisch: tagged) sind. Dieses umfassende Training ermöglicht es dem Modell, eine breite Palette allgemeiner Fähigkeiten zu erlernen, die dann für verschiedene nachgelagerte Aufgaben angepasst oder feinabgestimmt werden können. FMs können multimodal sein, was bedeutet, dass sie verschiedene Arten von Daten wie Text, Bilder, Audio und mehr verarbeiten und generieren können.

Ein Beispiel für KI-Modelle mit nachgelagerten, spezifische Fähigkeiten sind Large Language Models (LLMs), wie etwa Gemini oder Claude. Sie sind somit eine Subkategorie der Grundmodelle. Ihr Hauptaugenmerk liegt auf sprachbezogenen Aufgaben wie etwa dem Beantworten von Fragen, dem Schreiben verschiedener Arten von kreativen Inhalten, dem Zusammenfassen von Texten und der Übersetzung.