Alles auf einen Blick · Alle Fort- und Weiterbildungsangebote der DGM Akademie 2025 und 2026 in einem Flyer

Zum Flyer
Bleiben Sie informiert:
Melden Sie sich an, um Neuigkeiten und Updates zur Veranstaltung Mit eigenen Daten chatten – mit KI zum technologischen Wissensvorsprung zu erhalten.
Ungültige E-Mail
Neu

Große Sprachmodelle wie ChatGPT eröffnen neue Möglichkeiten, aus umfangreichen, oft unstrukturierten Technologiedaten gezielt Informationen zu gewinnen und Wissen nutzbar zu machen. In dieser Fortbildung erhalten Sie eine fundierte Einführung in die Funktionsweise und Anwendung von Large Language Models (LLMs) – mit besonderem Fokus auf den Einsatz in Technik, Forschung und Entwicklung. Sie lernen, wie LLMs Texte analysieren, Zusammenhänge erkennen und Inhalte verallgemeinern, um daraus verwertbare Erkenntnisse abzuleiten. Dabei geht es auch um den kritischen Umgang mit Unsicherheiten, rechtliche Rahmenbedingungen sowie technische Umsetzungsmöglichkeiten – von Cloud-Lösungen bis hin zum Self-Hosting. In praxisnahen Übungen aus dem Werkstoffbereich entwickeln Sie eigene Strategien zur KI-gestützten Informationsgewinnung, abgestimmt auf Ihre Daten und Anforderungen. So erwerben Sie das methodische und technische Rüstzeug, um LLMs eigenständig und verantwortungsvoll in Ihrer Arbeitsumgebung zu nutzen. Nach der Fortbildung können Sie neue Tools gezielt bewerten, Potenziale in Ihren Datenbeständen erkennen und Projekte zur Wissensautomatisierung systematisch voranbringen. Die Fortbildung richtet sich an Fach- und Führungskräfte, die technologiebezogene Informationen effizient erschließen und datengetriebene Prozesse aktiv mitgestalten möchten.

Fortbildungsleitung

  • Prof. Dr.-Ing. Tim Dahmen
    Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
    CV
  • Prof. Dr. Ulrich Klauck
    Hochschule Aalen
    CV
  • Dr.-Ing. Martin Müller
    Material Engineering Center Saarland (MECS)
    CV
Programm

02.02.2026 (Montag)

09:00
Vortrag
VORKURS: Grundlagen der verwendeten Software Tools
Im Vorkurs frischen die Teilnehmenden ihre Python-Kenntnisse auf und lernen die grundlegende Bedienung der eingesetzten Software-Tools und Rechenplattformen kennen.

03.02.2026 (Dienstag)

09:00
Vortrag
Einführung – Grundlagen von Künstlicher Intelligenz
Zu Beginn erhalten die Teilnehmenden einen Überblick über das Themenfeld der Künstlichen Intelligenz: zentrale Begriffe, Methoden und Anwendungen – mit besonderem Fokus auf technische Einsatzszenarien. Ziel ist die Basis für das Verständnis von Machine Learning und Deep Learning.
10:15
Vortrag
Künstliche Neuronale Netze
Die Teilnehmenden lernen den Aufbau und die Funktionsweise künstlicher neuronaler Netze kennen – von Schichten und Aktivierungsfunktionen bis zu den Grundmechanismen des Trainings. Ziel ist es, ein anschauliches Verständnis für die Prinzipien hinter modernen KI-Modellen zu entwickeln.
11:15
Vortrag
Einführung – Anwendungen von KI in Materialwissenschaft und Werkstofftechnik
Anhand praxisnaher Beispiele wird gezeigt, wie KI bereits in der Materialwissenschaft und Werkstofftechnik eingesetzt wird – etwa zur Eigenschaftsvorhersage, Prozessoptimierung oder Bildanalyse. Dabei werden sowohl aktuelle Anwendungen als auch zukünftige Potenziale praxisorientiert beleuchtet.

04.02.2026 (Mittwoch)

09:00
Vortrag
Einführung – Large Language Models (LLMs)
Die Teilnehmenden lernen, was Large Language Models (LLMs) sind, wie sie funktionieren und welche Relevanz sie in Alltag, Technik und Materialwissenschaft und Werkstofftechnik besitzen.
09:45
Vortrag
Aufbau und Funktionsweise von LLMs
Dieser Programmteil vermittelt einen praxisorientierten Einblick in den Aufbau moderner LLMs – von der Transformer-Architektur über das Training bis hin zur Tokenisierung und Vektorisierung von Sprache. Es wird deutlich, was Tokens sind, wie Sprache in numerische Vektoren übersetzt wird (Vektorisierung) und warum diese Schritte für das Arbeiten mit LLMs entscheidend sind. Ziel ist ein grundlegendes Verständnis, ohne zu tief in mathematische Details einzusteigen.
10:30
Vortrag
Übung – Prompt Engineering
In dieser Übung trainieren die Teilnehmenden den gezielten Umgang mit Prompts, lernen den Aufbau strukturierter Anfragen kennen und erstellen ein spezialisiertes GPT. Es werden erste eigene Prompts formuliert und die Ergebnisse analysiert. Die Teilnehmenden lernen, wie komplexere Aufgabenstellungen durch strukturierte und präzise Prompts (Super Prompts) gelöst werden können und erstellen ein eigenes spezialisiertes GPT mit benutzerdefiniertem Verhalten (z.B. via OpenAI "Custom GPTs"). Zum Erzeugen eines Custom GPT ist es notwendig, dass die Teilnehmenden einen ChatGPT-Pro Account haben (derzeit 20 US$ pro Monat, monatlich kündbar). Für alle anderen Anwendungen genügt ein freier Account.
11:00
Vortrag
Einführung – Frameworks und Tools für die Implementierung von LLMs
Es wird ein Überblick über Tools und Frameworks zur praktischen Implementierung von LLMs gegeben – inklusive der Vor- und Nachteile von Cloud- und lokalen Lösungen. Ziel ist es, erste Anknüpfungspunkte für die eigene Umsetzung zu erkennen.
11:30
Vortrag
Übung – Application Programming Interfaces (API)
Die Teilnehmenden erfahren, wie APIs genutzt werden, um LLMs in eigene Anwendungen zu integrieren, und wie sich System-Prompts und Kontextwissen gezielt steuern lassen. APIs verbessern den Zugriff auf Modelle, erreichen mehr Flexibilität bei den Einstellungen und erlauben die Integration in eigene Anwendungen. Es wird mit einer OpenAI-kompatiblen API gearbeitet. Die Teilnehmenden verstehen den Unterschied zwischen trainiertem Wissen und Kontextwissen. Dabei testen wir den Einfluss von System-Prompts und lernen, wie sich das Verhalten von LLMs gezielt steuern lässt. Die API-Übungen lassen sich mit einem lokalen oder frei zugänglichen Modell umsetzen (z. B. über HuggingFace oder OpenRouter).

05.02.2026 (Donnerstag)

09:00
Vortrag
Retrieval Augmented Generation (RAG)
Vermittelt wird das Konzept der Retrieval Augmented Generation (RAG) – inklusive Embeddings, Vektordatenbanken und dem Zusammenspiel von Retrieval und Sprachverarbeitung. Es wird deutlich, wie LMMs durch den Zugriff auf externe Wissensquellen ergänzt werden können, um aktuelle oder spezialisierte Informationen in ihre Antworten einzubinden. Zunächst wird eine relevante Wissensbasis (z.B. Dokumente, Datenbanken) durchsucht ("Retrieval"), anschließend werden die gefundenen Informationen dem LLM als Kontext bereitgestellt ("Augmentation"), sodass die Antwort nicht nur auf dem trainierten Modellwissen basiert. Es wird deutlich, wie Retrieval Pipelines aufgebaut sind, wie Vektordatenbanken eingesetzt werden und welche Rolle Embeddings dabei spielen.
10:00
Vortrag
Einführung – Frameworks und Tools für RAG
Ein Überblick über gängige Frameworks für die praktische Umsetzung von RAG zeigt, wie Such- und Antwortprozesse effizient kombiniert werden können.
10:30
Vortrag
Übung – Verknüpfung externer Datenquellen
In dieser Übung bauen die Teilnehmenden eine eigene Retrieval-Pipeline auf, indem sie externe Datenquellen – etwa Werkstoffdatenblätter oder Fachartikel – an ein LLM anbinden.
11:00
Vortrag
Agentic AI
Es wird gezeigt, wie sogenannte KI-Agenten eigenständig Aufgaben planen und ausführen können – auf Basis von LLMs und automatisierten Entscheidungsstrukturen. Es wird deutlich, wie Agentic AI auf Basis von LLMs entsteht und welche neuen Möglichkeiten sich daraus ergeben.
11:30
Vortrag
Einführung – Frameworks und Tools für Agentic AI
Die Teilnehmenden lernen Frameworks und typische Komponenten für einen erleichterten Aufbau von Agentensystemen kennen – einschließlich Aktionsplanung, Speicherverwaltung und Kontextsteuerung.
11:50
Vortrag
Übung – Agenten und Multi-Agentensysteme
In der praktischen Übung definieren und erweitern die Teilnehmenden eigene Agenten und testen deren Zusammenspiel mit weiteren Tools und Funktionen.

06.02.2026 (Freitag)

09:00
Vortrag
Einführung – Korrektheit und Erklärbarkeit in KI

Abschließend wird thematisiert, wie sich Erklärbarkeit und Korrektheit in KI-Systemen verbessern lassen. Die Teilnehmenden betrachten zentrale Herausforderungen bei der Nutzung von KI-Systemen: Wie zuverlässig sind die Antworten von LLMs, und wie lassen sich ihre Ergebnisse nachvollziehbar gestalten? Es werden typische Fehlerquellen (z.B. Halluzinationen) sowie Strategien zur Steigerung der Vertrauenswürdigkeit und Transparenz angesprochen und mit Beispielen verdeutlicht.

10:00
Vortrag
Demonstration und Übung: Semantisches Suchen in extrahierten Werkstoffdaten ("Chat with your Data")
Die Teilnehmenden kombinieren die bisher entwickelten Konzepte zu einem funktionsfähigen System, mit dem über die eingelesenen Dokumente „gechattet“ werden kann. Dabei wird eine semantische Suche verwendet, bei der das Modell auch komplexe Anfragen versteht. Die dabei erhaltenen Informationen können z.B. in strukturierter Formen wie JSON-Dateien gespeichert werden. Ziel ist es, den praktischen Nutzen von RAG und Embedding-basiertem Suchen zu erleben.

Der gezielte Einsatz von Künstlicher Intelligenz, insbesondere von Large Language Models (LLMs), bietet Unternehmen die Möglichkeit, aus ihren Daten wertvolle Erkenntnisse zu gewinnen und Arbeitsprozesse effizienter zu gestalten. 
Hier sind einige Gründe, warum Ihr Unternehmen von einer tieferen Kenntnis in diesem Bereich profitieren wird:

  • Grundlagen der KI und neuronaler Netze: Verstehen Sie das Basiswissen über künstliche Intelligenz, künstliche neuronale Netze sowie deren Anwendungen.
  • KI in Materialwissenschaft und Werkstofftechnik: Erhalten Sie praxisorientierte Einblicke in den aktuellen Einsatz sowie zukünftige Potentiale von KI im Werkstoffbereich.
  • Large Language Models (LLMs) und KI-Agenten: Verstehen Sie die Funktionsweise von LLMs und setzen Sie diese gezielt ein, um Wissen aus großen Textmengen zu extrahieren.
  • Prompt Engineering: Erlernen Sie den gezielten Umgang mit strukturierten Anfragen, um LLMs effizient für Ihre spezifischen Anforderungen zu nutzen.
  • Integration externer Datenquellen: Verknüpfen Sie externe Wissensquellen wie Werkstoffdatenblätter oder Fachartikel mit LLMs und ergänzen diese in ihrem Potenzial.
  • Korrektheit und Erklärbarkeit der KI: Erfahren Sie, wie Sie KI-Systeme verständlich und transparent machen, um Vertrauen und Fehlerreduktion zu gewährleisten.
  • Praxisorientierte Übungen: In vielseitigen Übungen vertiefen Sie die theoretischen Inhalte und sammeln selbst Erfahrungen im Umgang mit den vorgestellten KI-Tools.
  • Diskutieren Sie Ihre konkrete praktische Anwendung/Problemstellung mit Expert*innen.

Nutzen Sie diese Chance, um Ihr Unternehmen technologisch weiterzuentwickeln und einen Wettbewerbsvorteil zu erlangen!

 

Die Fortbildung eignet sich für:

  • Wissenschaftler*innen sowie Ingenieur*innen und Techniker*innen, die in der Forschung und Entwicklung sowie der industriellen Fertigung, Prozess- und Qualitätskontrolle tätig sind.
  • Führungskräfte und Vertriebsmitarbeiter*innen mit technischem Grundverständnis, die in diesem oder einem verwandten Bereich tätig sind und von einer werkstofforientierten Weiterbildung profitieren möchten.
  • Personen mit technischem Grundverständnis, die an einer Weiterbildung in diesem oder einem verwandten Bereich interessiert sind und von einer Werkstoffperspektive profitieren möchten.

Diese Fortbildung wird online und browserbasiert abgehalten. Die Zugangsdaten sowie die Seminarunterlagen erhalten Sie vorab digital per E-Mail. 

Grundlegende Programmierkenntnisse in Python werden empfohlen.

Newsletter abonnieren

Abonnieren Sie unseren Newsletter und erhalten Sie regelmäßig Informationen zum Thema Materialwissenschaft und Werkstofftechnik!

Nach der Anmeldung erhalten Sie von uns eine E-Mail mit einem Bestätigungslink.
Erst mit Anklicken dieses Links ist Ihre Anmeldung abgeschlossen.

Vernetzen Sie sich mit uns