Så kan hackare förgifta modeller för maskininlärning
Modeller för maskininlärning kan ”förgiftas” genom olika attacker, vilket kan resultera i undermåliga beslut baserat på felaktiga utdata. Och eftersom det inte finns några enkla lösningar måste säkerhetsbranschen fokusera på förebyggande och upptäckt.