5€¹ Rabatt bei Bestellungen per App

Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit (PDF)

 
 
%
Merken
%
Merken
 
 
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen...
sofort als Download lieferbar

Bestellnummer: 141952526

Printausgabe 39.50 €
eBook (pdf) -24% 29.99
Download bestellen
Verschenken
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
Kommentar zu "Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit"
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •