對抗性機械學習adversarial machine learning)係指喺機械學習當中,用一啲手法整蠱個機器學習模型嚟令到佢出錯嘅操作。噉樣嘅手法可以用喺訓練同檢測嗰陣,亦會俾人用於攻擊性目的,噉時就叫對抗性攻擊(Adversarial attack)。喺啲對抗性手段下,個模型嘅頑健性會受到挑戰;嚴重陣時啲結果會出現走趲或者直頭走偏。