Detecting Hidden Backdoors in Large Language Models
Lade...
Autor:innen
Autor:in (Körperschaft)
Publikationsdatum
2025
Typ der Arbeit
Bachelor
Studiengang
Sammlung
Typ
11 - Studentische Arbeit
Herausgeber:innen
Herausgeber:in (Körperschaft)
Betreuer:in
Übergeordnetes Werk
Themenheft
DOI der Originalpublikation
Link
Reihe / Serie
Reihennummer
Jahrgang / Band
Ausgabe / Nummer
Seiten / Dauer
Patentnummer
Verlag / Herausgebende Institution
Hochschule für Wirtschaft FHNW
Verlagsort / Veranstaltungsort
Brugg-Windisch
Auflage
Version
Programmiersprache
Abtretungsempfänger:in
Praxispartner:in/Auftraggeber:in
Hochschule für Wirtschaft FHNW, Institut für Wirtschaftsinformatik, Basel
Zusammenfassung
The adoption of LLMs in critical systems raises concerns regarding privacy, security and trust, particularly with regard to the risk of hidden backdoors — malicious triggers that cause covert data transfer or altered behaviour. Such threats are difficult to detect, especially when models are black-box systems with concealed triggers. This thesis addresses this issue by empirically evaluating the DeepSeek-R1 model family for potential backdoors during local execution. The aim is to identify anomalies and recommend safer deployment practices.
Schlagwörter
Fachgebiet (DDC)
Veranstaltung
Startdatum der Ausstellung
Enddatum der Ausstellung
Startdatum der Konferenz
Enddatum der Konferenz
Datum der letzten Prüfung
ISBN
ISSN
Sprache
Englisch
Während FHNW Zugehörigkeit erstellt
Ja
Zukunftsfelder FHNW
Publikationsstatus
Begutachtung
Open Access-Status
Lizenz
Zitation
Peechat, J. M. (2025). Detecting Hidden Backdoors in Large Language Models [Hochschule für Wirtschaft FHNW]. https://irf.fhnw.ch/handle/11654/54704