视频异常检测算法 python_使用Python进行异常检测
作者|Rashida Nasrin Sucky
编译|VK
来源|Towards Datas Science
异常检测可以作为异常值分析的一项统计任务来处理。但是如果我们开发一个机器学习模型,它可以像往常一样自动化,可以节省很多时间。
异常检测有很多用例。信用卡欺诈检测、故障机器检测或基于异常特征的硬件系统检测、基于医疗记录的疾病检测都是很好的例子。还有更多的用例。异常检测的应用只会越来越多。
在本文中,我将解释在Python中从头开始开发异常检测算法的过程。
公式和过程
与我之前解释过的其他机器学习算法相比,这要简单得多。该算法将使用均值和方差来计算每个训练数据的概率。
如果一个训练实例的概率很高,这是正常的。如果某个训练实例的概率很低,那就是一个异常的例子。对于不同的训练集,高概率和低概率的定义是不同的。我们以后再讨论。
如果我要解释异常检测的工作过程,这很简单。
使用以下公式计算平均值:
这里m是数据集的长度或训练数据的数量,而$x^i$是一个单独的训练例子。如果你有多个训练特征,大多数情况下都需要计算每个特征能的平均值。
使用以下公式计算方差:
这里,mu是上一步计算的平均值。
现在,用这个概率公式计算每个训练例子的概率。
不要被这个公式中的求和符号弄糊涂了!这实际上是Sigma代表方差。
稍后我们将实现该算法时,你将看到它的样子。
我们现在需要找到概率的临界值。正如我前面提到的,如果一个训练例子的概率很低,那就是一个异常的例子。
低概率有多大?
这没有普遍的限制。我们需要为我们的训练数据集找出这个。
我们从步骤3中得到的输出中获取一系列概率值。对于每个概率,通过阈值的设置得到数据是否异常
然后计算一系列概率的精确度、召回率和f1分数。
精度可使用以下公式计算
召回率的计算公式如下:
在这里,True positives(真正例)是指算法检测到一个异常的例子的数量,而它真实情况也是一个异常。
False Positives(假正例)当算法检测到一个异常的例子,但在实际情况中,它不是异常的,就会出现误报。
False Negative(假反例)是指算法检测到的一个例子不是异常的,但实际上它是一个异常的例子。
从上面的公式你可以看出,更高的精确度和更高的召回率总是好的,因为这意味着我们有更多的真正的正例。但同时,假正例和假反例起着至关重要的作用,正如你在公式中看到的那样。这需要一个平衡点。根据你的行业,你需要决定哪一个对你来说是可以忍受的。
一个好办法是取平均数。计算平均值有一个独特的公式。这就是f1分数。f1得分公式为:
这里,P和R分别表示精确性和召回率。
根据f1分数,你需要选择你的阈值概率。
异常检测算法
我将使用Andrew Ng的机器学习课程的数据集,它具有两个训练特征。我没有在本文中使用真实的数据集,因为这个数据集非常适合学习。它只有两个特征。在任何真实的数据集中,都不可能只有两个特征。
有两个特性的好处是可以可视化数据,这对学习者非常有用。请随意从该链接下载数据集,然后继续:
首先,导入必要的包
import pandas as pd
import numpy as np
导入数据集。这是一个excel数据集。在这里,训练数据和交叉验证数据存储在单独的表中。所以,让我们把训练数据带来。
df = pd.read_excel('ex8data1.xlsx', sheet_name='X', header=None)
df.head()
让我们将第0列与第1列进行比较。
plt.figure()
plt.scatter(df[0], df[1])
plt.show()
你可能通过看这张图知道哪些数据是异常的。
检查此数据集中有多少个训练示例:
m = len(df)
计算每个特征的平均值。这里我们只有两个特征:0和1。
s = np.sum(df, axis=0)
mu = s/m
mu
输出:
0 14.112226
1 14.997711
dtype: float64
根据上面“公式和过程”部分中描述的公式,让我们计算方差:
vr = np.sum((df - mu)**2, axis=0)
variance = vr/m
variance
输出:
0 1.832631
1 1.709745
dtype: float64
现在把它做成对角线形状。正如我在概率公式后面的“公式和过程”一节中所解释的,求和符号实际上是方差
var_dia = np.diag(variance)
var_dia
输出:
array([[1.83263141, 0. ],
[0. , 1.70974533]])
计算概率:
k = len(mu)
X = df - mu
p = 1/((2*np.pi)**(k/2)*(np.linalg.det(var_dia)**0.5))* np.exp(-0.5* np.sum(X @ np.linalg.pinv(var_dia) * X,axis=1))
p
训练部分已经完成。
下一步是找出阈值概率。如果概率低于阈值概率,则示例数据为异常数据。但我们需要为我们的特殊情况找出那个阈值。
对于这一步,我们使用交叉验证数据和标签。
对于你的案例,你只需保留一部分原始数据以进行交叉验证。
现在导入交叉验证数据和标签:
cvx = pd.read_excel('ex8data1.xlsx', sheet_name='Xval', header=None)
cvx.head()
标签如下:
cvy = pd.read_excel('ex8data1.xlsx', sheet_name='y', header=None)
cvy.head()
我将把'cvy'转换成NumPy数组,因为我喜欢使用数组。不过,数据帧也不错。
y = np.array(cvy)
输出:
# 数组的一部分
array([[0],
[0],
[0],
[0],
[0],
[0],
[0],
[0],
[0],
这里,y值0表示这是一个正常的例子,y值1表示这是一个异常的例子。
现在,如何选择一个阈值?
我不想只检查概率表中的所有概率。这可能是不必要的。让我们再检查一下概率值。
p.describe()
输出:
count 3.070000e+02
mean 5.905331e-02
std 2.324461e-02
min 1.181209e-23
25% 4.361075e-02
50% 6.510144e-02
75% 7.849532e-02
max 8.986095e-02
dtype: float64
如图所示,我们没有太多异常数据。所以,如果我们从75%的值开始,这应该是好的。但为了安全起见,我会从平均值开始。
因此,我们将从平均值和更低的概率范围。我们将检查这个范围内每个概率的f1分数。
首先,定义一个函数来计算真正例、假正例和假反例:
def tpfpfn(ep):
tp, fp, fn = 0, 0, 0
for i in range(len(y)):
if p[i] <= ep and y[i][0] == 1:
tp += 1
elif p[i] <= ep and y[i][0] == 0:
fp += 1
elif p[i] > ep and y[i][0] == 1:
fn += 1
return tp, fp, fn
列出低于或等于平均概率的概率。
eps = [i for i in p if i <= p.mean()]
检查一下列表的长度
len(eps)
输出:
133
根据前面讨论的公式定义一个计算f1分数的函数:
def f1(ep):
tp, fp, fn = tpfpfn(ep)
prec = tp/(tp + fp)
rec = tp/(tp + fn)
f1 = 2*prec*rec/(prec + rec)
return f1
所有函数都准备好了!
现在计算所有epsilon或我们之前选择的概率值范围的f1分数。
f = []
for i in eps:
f.append(f1(i))
f
输出:
[0.14285714285714285,
0.14035087719298248,
0.1927710843373494,
0.1568627450980392,
0.208955223880597,
0.41379310344827586,
0.15517241379310345,
0.28571428571428575,
0.19444444444444445,
0.5217391304347826,
0.19718309859154928,
0.19753086419753085,
0.29268292682926833,
0.14545454545454545,
这是f分数表的一部分。长度应该是133。
f分数通常在0到1之间,其中f1得分越高越好。所以,我们需要从刚才计算的f分数列表中取f的最高分数。
现在,使用“argmax”函数来确定f分数值最大值的索引。
np.array(f).argmax()
输出:
131
现在用这个索引来得到阈值概率。
e = eps[131]
e
输出:
6.107184445968581e-05
找出异常实例
我们有临界概率。我们可以从中找出我们训练数据的标签。
如果概率值小于或等于该阈值,则数据为异常数据,否则为正常数据。我们将正常数据和异常数据分别表示为0和1,
label = []
for i in range(len(df)):
if p[i] <= e:
label.append(1)
else:
label.append(0)
label
输出:
[0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
这是标签列表的一部分。
我将在上面的训练数据集中添加此计算标签:
df['label'] = np.array(label)
df.head()
我在标签为1的地方用红色绘制数据,在标签为0的地方用黑色绘制。以下是结果。
有道理吗?
是的,对吧?红色的数据明显异常。
结论
我试图一步一步地解释开发异常检测算法的过程,我希望这是可以理解的。如果你仅仅通过阅读就无法理解,我建议你运行每一段代码。那就很清楚了。
视频异常检测算法 python_使用Python进行异常检测相关推荐
- 活体检测算法 python_基于Python、Keras和OpenCV的实时人脸活体检测
作者|Jordan Van Eetveldt 编译|Flin 来源|towardsdatascience 你在互联网上找到的大多数人脸识别算法和研究论文都遭受照片攻击.这些方法在检测和识别来自网络摄像 ...
- 目标检测与YOLO算法(用Python实现目标检测)
最近在听Andrew Ng讲解目标检测的视频,包括目标定位,特征点检测,卷积的滑动窗口的实现,Bounding Box预测,交并比,非极大值抑制,AnchorBoxes,YOLO算法以及候选区域,并通 ...
- 一文详解8种异常检测算法(附Python代码)
文章目录 一.异常检测简介 1.1 异常检测适用的场景 1.2 异常检测存在的挑战 二.异常检测方法 2.1 基于聚类的方法 2.2 基于统计的方法 2.3 基于深度的方法 2.4 基于分类模型 2. ...
- python label显示图片_高大上的YOLOV3对象检测算法,使用python也可轻松实现
继续我们的目标检测算法的分享,前期我们介绍了SSD目标检测算法的python实现以及Faster-RCNN目标检测算法的python实现以及yolo目标检测算法的darknet的window环境安装, ...
- 基于深度学习的目标检测算法:SSD——常见的目标检测算法
from:https://blog.csdn.net/u013989576/article/details/73439202 问题引入: 目前,常见的目标检测算法,如Faster R-CNN,存在着速 ...
- 目标检测算法——YOLOv7改进|增加小目标检测层
>>>深度学习Tricks,第一时间送达<<< 小目标检测一直以来是计算机CV领域的难点之一,那么,刚出炉的YOLOv7该如何增加小目标检测层呢? 目录 1.YOL ...
- 【实战案例】分享6种常用的信用卡欺诈检测算法(附 Python 代码)
大家好,本文旨在使用 XGBoost.随机森林.KNN.逻辑回归.SVM 和决策树解决信用卡潜在欺诈的分类问题,内容较长,建议收藏.点赞. 文章目录 技术提升 案例简介 导入相关模块 导入数据 探索性 ...
- 数据清洗:相似重复记录检测算法SNM及其Python实现
1. 相似重复记录删除 相似重复记录是指数据库中存在这样的两条记录R1R_{1}R1和R2R_{2}R2,他们的内容相同或者相似,且都对应着同一个现实实体,则记录对<R1,R2>& ...
- 基于聚类的异常值检测算法依据及python实现
假设数据集D被聚类算法划分到k个类C = {C1 , C2 , -CK},对象p 的离群因子of3(p)定义为 与所有类间距的加权平均值: 其中,|D|为样本数量, |Cj|为第j个聚类群体样本数量, ...
最新文章
- Scala花括号和圆括号的区别
- Java之美[从菜鸟到高手演变]系列之博文阅读导航
- 路由器计算机无法上网,路由器安装后电脑无法上网怎么办
- jQuery的入口函数
- Linux设备驱动之mmap设备操作
- oracle基本结构
- NoSql理解+传统关系型数据库ACID+Nosql的CAP+BASE的理解
- 水晶报表常见问题整理之一(20050417)
- pb如何获取数据窗口选中行_pb从数据窗口获得数据的方法总结
- 菜鸟ING的博客终于开园了。
- el-cascader超出屏幕问题
- android studio外接模拟器,Android Studio,使用外部模拟器作为生成app调试的模拟器
- HDU-3729 I'm Telling the Truth
- 小米无线网卡linux驱动下载,Linux下安装MT7601U无线网卡驱动
- 余承东 鸿蒙不是手机,余承东解密华为鸿蒙OS2.0:不是手机操作系统的简单替代-社会-文章-小虾米...
- Mac 超详细入门指南,备用!
- python做事件研究法_35行代码搞定事件研究法(上)
- <一>Android Audio音频框架
- Android中管理代码基本工作流程
- memcmp用法实现