Studentischer Vortrag - Security for Large Language Models

15:30 - 16:00

In den letzten Jahren haben Fortschritte in der KI zur breiten Verfügbarkeit von Large Language Models (LLMs) geführt, die in verschiedenen Bereichen wie Textgenerierung, Websuche und Kundenbetreuung eingesetzt werden. Trotz ihres Erfolgs bleibt die Sicherheit dieser Modelle bisher zu Teilen auf der Strecke. Risiken wie die Generierung von Falschinformationen oder Hatespeech sind zwei Beispiele für den Missbrauch von LLMs. Der Vortrag beleuchtet dafür die Sicherheit von LLMs, stellt existierende Angriffsmethoden wie Prompt Injection vor und analysiert mögliche Verteidigungsstrategien anhand eines praktischen Beispiels.

Hinweis zum Archivinhalt: Dieser Konferenzbeitrag wurde in einem der vergangenen Jahre gehalten und befindet sich daher in unserem Archiv. Wenn Sie weitere Informationen zu diesem Vortrag wünschen, können Sie uns gerne kontaktieren!

Ausrichter

Hochschule Stralsund Mittelstand-Digital Zentrum Rostock Sund-Xplosion

Sponsoren/Praxispartner 2024

Alcatel-Lucent Enterpise Germany Cratos Digitales MV Steinbeis Tedesio WIIT