Så kan hackare förgifta modeller för maskininlärning


Modeller för maskininlärning kan ”förgiftas” genom olika attacker, vilket kan resultera i undermåliga beslut baserat på felaktiga utdata. Och eftersom det inte finns några enkla lösningar måste säkerhetsbranschen fokusera på förebyggande och upptäckt.

Läs mer…

kommentarer