In diesem Seminar erfahren Sie, wie Sie moderne Sprachmodelle produktiv einsetzen. Sie kombinieren LLMs mit externen Datenquellen über RAG-Techniken, nutzen Vektorsuchen und optimieren die Antwortqualität durch gezieltes Prompt Design.
Mit Tools wie LangChain, FAISS und LlamaIndex entwickeln Sie eigene Pipelines, die skalierbar, modular und produktionsnah sind. So machen Sie generative KI anwendungsreif.
Hinweis: Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Inhalt
Architektur und Grundlagen moderner LLMs - Überblick über Transformer-Modelle - Unterschiede zu klassischen NLP-Verfahren - Rolle von Kontext und Tokenisierung Prompt Design und Modellsteuerung - Struktur effektiver Prompts - Few-/Zero-Shot-Techniken - System-Prompts für mehr Kontrolle Grundlagen von Retrieval-Augmented Generation (RAG) - Trennung von Modell- und Wissenskomponente - Nutzen für domänenspezifische Anwendungen Vektorsuche und Embedding-Verwaltung - Embedding-Erstellung mit Hugging Face - Ähnlichkeitssuche mit FAISS und ChromaDB - semantische Datenabfragen LangChain und LlamaIndex im Einsatz - Aufbau modularer NLP-Pipelines - Integration externer Quellen - Dokumentensuche - Tool-Ketten Eigene RAG-Pipeline entwickeln - Datenvorbereitung - Query-Antwort-System mit LangChain - API-Anbindung für produktionsnahe Lösungen
Voraussetzungen
Gute Python-Kenntnisse und Erfahrung mit Datenverarbeitung oder API-Nutzung. Kenntnisse in NLP oder Machine Learning sind hilfreich, aber nicht zwingend erforderlich.
Zielgruppe
Ideal für technisch versierte Teilnehmende, die Sprachmodelle über RAG-Architekturen produktiv nutzen und mit bestehenden Datenquellen verknüpfen möchten.
Zielsetzung
Nach dem Seminar können Sie LLMs in Kombination mit Retrieval-Systemen einsetzen, Datenquellen effizient anbinden und KI-basierte Antwortsysteme aufbauen.