5€¹ Rabatt bei Bestellungen per App

Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit

 
 
Merken
Merken
 
 
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen...
Voraussichtlich lieferbar in 3 Tag(en)
versandkostenfrei

Bestellnummer: 139181678

Buch (Kartoniert) 39.50
Jetzt vorbestellen
  • Lastschrift, Kreditkarte, Paypal, Rechnung
  • Kostenlose Rücksendung
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
Kommentar zu "Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit"
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
 
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •  
     
     
     
     
  •