Große Sprachmodelle (LLMs) können für reale Anwendungsdaten optimiert werden – ganz ohne aufwendiges Retraining, durch kreative Anpassungen von Eingaben und Prompts. In zwei spannenden Projekten zeigt Prof. Dr. Roman Klinger, wie man die Leistung dieser Modelle gezielt steigern kann. Das erste Projekt – MOPO (Multi-Objective Prompt Optimization) – hilft dabei, emotionale Texte in verschiedenen Stilrichtungen zu erzeugen. Das zweite Projekt verwandelt unstrukturierte Social-Media-Auss...