Come funziona il Data Poisoning dei modelli ML in 5 minuti
L’avvelenamento dei dati di formazione sugli LLM si occupa dell’iniezione di dati velenosi durante la fase di formazione. In questo articolo ci concentreremo sugli scenari di attacco, sui precedenti attacchi riusciti e sui meccanismi di prevenzione insieme a buoni esempi.

@aitech

https://journal.hexmos.com/training-data-poisoning/?src=hn