目录

  • 概论
  • 统计学特征
    • 重合指数
    • 信息熵
    • 最长单词
    • 恶意特征
    • 压缩比
  • 检测结果评测
  • 总结

概论

该篇文章讲述了NeoPI如何利用统计学特征来检测webshell,笔者认为NeoPI选择的这些统计学方法在webshell检测上有些鸡肋,没有太大的实用效果。

反而其中的各种统计学方法值得学习一下,因此文章会重点讲解这些统计学特征的原理,以求可以举一反三,并应用在其他领域。

统计学特征

NeoPi使用以下五种统计学特征检测方法,下面分别来分析各种方法的原理和代码实现(代码部分只选择了核心代码并附加了注释,方便大家阅读。):

重合指数

重合指数法是密码分析学的一种工具,主要用于多表代换的密码破译。
以纯英文文本为例,它的基本原理可以定义如下:

设 X = x 1 x 2 . . . x n X=x_1x_2...x_n X=x1​x2​...xn​是一个长度为 n n n的英文字符串, X X X的重合指数定义为 X X X中的两个随机元素相同的概率,记为 I c ( X ) I_c(X) Ic​(X)。假设英文字母 A A A, B B B, C C C,…在X中的出现次数分别为 f 1 f_1 f1​, f 2 f_2 f2​,…, f 25 f_{25} f25​。显然,从X中任意选择两个元素共有 C 25 2 C^{2}_{25} C252​种组合,选取的元素同时为第 i i i个英文字母的情况有 C f i 2 C^{2}_{f_i} Cfi​2​种组合, 0 < = i < = 25 0<=i<=25 0<=i<=25。因此,有
I c ( X ) = ∑ i = 0 25 ( C f 2 / C n 2 ) = ∑ i = 0 25 ( f i ( f i − 1 ) / n ( n − 1 ) ) I{_c}(X) =\sum_{i=0}^{25}(C_f^2/C_n^2) = \sum_{i=0}^{25}(f_i(f_i-1)/n(n-1)) Ic​(X)=i=0∑25​(Cf2​/Cn2​)=i=0∑25​(fi​(fi​−1)/n(n−1))

根据统计,在英文中各个字母出现的频率是特定的,如下表 :

字母 概率 字母 概率
A 0.082 N 0.067
B 0.015 O 0.075
C 0.028 P 0.019
D 0.043 Q 0.001
E 0.127 R 0.060
F 0.022 S 0.063
G 0.020 T 0.091
H 0.061 U 0.028
I 0.070 V 0.010
J 0.002 W 0.002
K 0.008 X 0.001
L 0.040 Y 0.020
M 0.024 Z 0.001

将英文字母A,B,C,…,Z的期望概率分别记为 p 0 , p 1 , p 2 , . . . , p 25 p_0,p_1,p_2,...,p_{25} p0​,p1​,p2​,...,p25​,则有一段正常英文文本的期望重合指数为 I c ( X ) ≈ ∑ i = 0 25 ( p i 2 ) = 0.065 I_c(X)\approx \sum_{i=0}^{25}(p_i^2) = 0.065 Ic​(X)≈i=0∑25​(pi2​)=0.065

如上所述,一个纯英文的且编码风格良好(一般在软件开发时,会采用统一的函数及有意义的变量名编写)的源代码计算出的重合指数会趋近于0.065。考虑到文件中的中文注释,虽然计算出的重合指数会偏离0,065,但同样会趋于相似,呈现正态分布。

而加密或者混淆后的webshell 与原 web 应用不相关,其字符的排列通常没有特征可言,计算出的重合指数与正常文件的重合指数相差较大(混淆后的重合指数通常较小),一定程度上,可以作为webshell判定的依据。

重合指数的计算比较简单,代码如下:

# @param data 从文件中取出的全部内容数据# @return ic 返回计算好的重合指数def index_of_coincidence(data):"""计算文件内容的重合指数"""if not data:return 0char_count = 0       # 保存在data中任意选择两个字符,这两个字符相同的情形的数量total_char_count = 0 # 保存在data所有字符的数量# 遍历单字节代表的256字符for x in range(256):char = chr(x)charcount = data.count(char)              # 计算当前字符在data中的数量char_count += charcount * (charcount - 1) # 计算在data中任意选择两个字符,这两个字符都为当前字符的情形的数量,并累加total_char_count += charcount             # 计算当前字符在data中的数量,并累加# 按照重合指数的计算方法进行计算ic = float(char_count)/(total_char_count * (total_char_count - 1))return ic

信息熵

熵,是一个热力学的概念,用来度量封闭系统的混乱程度。但在历史的发展中,造就了它非常丰富的内涵,进入了很多学科的视野。

1948年,香农提出了“信息熵”的概念,解决了对信息的量化度量问题。信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量x的时候,当我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?

多少信息用信息量来衡量,而我们接受到的信息量跟具体发生的事件有关。

信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如太阳从西边升起来了;越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了(肯定发生,没什么信息量)。
信息熵的公式定义如下:

H ( X ) = − ∑ i = 1 N p ( x i ) l o g ( p ( x i ) ) H(X)=- \sum_{i=1}^{N}p(x_i)log(p(x_i)) H(X)=−i=1∑N​p(xi​)log(p(xi​))
其中, p ( x i ) 代 表 随 机 事 件 p(x_i)代表随机事件 p(xi​)代表随机事件 x i x_i xi​的概率,对数一般以2为底。对应到文件熵上,一般使 p ( x i ) p(x_i) p(xi​)为字符 x i x_i xi​在文件内容中出现的概率。

那么类似于重合指数,加密混淆后的webshell通常通篇都是没有任何意义和规律的字符, 其通过计算公式得出的信息熵值会偏离平均值较大。

计算信息熵的代码如下:

# @param data 从文件中取出的全部内容数据# @return entropy 返回计算出的文件熵
def calculate(self,data):"""计算文件信息熵."""if not data:return 0entropy = 0 # 保存最终熵值self.stripped_data =data.replace(' ', '') # 去掉文件内容中的空格# 遍历所有asci 256个字符for x in range(256):p_x = float(self.stripped_data.count(chr(x)))/len(self.stripped_data) # 计算单个字符出现的概率if p_x > 0:entropy += - p_x * math.log(p_x, 2) # 计算该字符的熵值并累加return entropy

最长单词

一般在软件开发时,其使用的字符串、函数名、变量名都会尽可能有规律和简短,但是,通过变形和加密往往会构造;超长的字符串, 通过检测代码中的最长字符串,并把最有可能是 webshell 的文件提供给管理员判断。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return longest_word, longest 返回最长单词的内容和长度
def LongestWord(self,data):"""查找文件内容中长度最长的单词"""if not data:return "", 0longest = 0 # 保存最长单词的长度longest_word = "" # 保存最长单词的内容words = re.split("[\s,\n,\r]", data) # 将文件内容按照空格和换行进行分词if words:for word in words:length = len(word)if length > longest: # 循环查找最长单词longest = lengthlongest_word = wordreturn longest_word,longest

恶意特征

在文件中搜索已知的恶意代码字符串片段,通过正则表达式,在文件内查找预定义的恶意特征。
这部分其实是静态检测,但是NeoPI也扩展添加了这部分的能力。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return len(matches) 返回匹配的数量
def signature_nasty(self, data): """查找文件的恶意特征"""if not data:return "", 0# 查找文件内下面所列的恶意函数 valid_regex = re.compile('(eval\(|file_put_contents|base64_decode|python_eval|exec\(|passthru|popen|proc_open|pcntl|assert\(|system\(|shell)', re.I)matches = re.findall(valid_regex, data)return len(matches)

压缩比

正常的代码通常编码风格良好,并且文件内有一定的空行和空格作为分隔,进行压缩时能有较大的压缩比。但是经过混淆后的代码通常没有空格和空行,而且字符顺序混乱,进行压缩时压缩比较小。

代码如下:

# @param data 从文件中取出的全部内容数据
# @return ratio 返回计算出的压缩比
def calculate(self, data):if not data:return "", 0compressed = zlib.compress(data)ratio =  float(len(data)) / float(len(compressed))self.results.append({"filename":filename, "value":ratio})return ratio

检测结果评测

NeoPI本身不给出一个文件是不是webshell的判断,它只是计算各种统计特征值,然后针对每一个特征值做出一个排名。在实际应用中,可以选择任意特征值的排名组合来判断。

为了让测试更有代表性,笔者采用如下策略:

首先进行如下形式化定义:

W m i n ( x ) = W o r d P r e s s 中 相 应 特 征 最 小 的 x 个 文 件 的 平 均 值 W_{min}(x) = WordPress中相应特征最小的x个文件的平均值 Wmin​(x)=WordPress中相应特征最小的x个文件的平均值
W m a x ( x ) = W o r d P r e s s 中 相 应 特 征 最 大 的 x 个 文 件 的 平 均 值 W_{max}(x) = WordPress中相应特征最大的x个文件的平均值 Wmax​(x)=WordPress中相应特征最大的x个文件的平均值
B m i n ( x ) = 300 个 黑 样 本 中 相 应 特 征 最 小 的 x 个 文 件 的 平 均 值 B_{min}(x) = 300个黑样本中相应特征最小的x个文件的平均值 Bmin​(x)=300个黑样本中相应特征最小的x个文件的平均值
B m a x ( x ) = 300 个 黑 样 本 中 相 应 特 征 最 大 的 x 个 文 件 的 平 均 值 B_{max}(x) = 300个黑样本中相应特征最大的x个文件的平均值 Bmax​(x)=300个黑样本中相应特征最大的x个文件的平均值

1、重合指数判断策略

2、信息熵判断策略

3、最长单词判断策略
同信息熵的判断策略

4、恶意特征
存在恶意特征则判定为webshell

5、压缩比
同信息熵的判断策略

实际测试结果如下:

统计特征 检出率 误报率
重合指数 94% 0%
信息熵 58% 0.5%
最长单词 42% 0%
恶意特征 79% 4%
压缩比 10% 0%

notes:由于NeoPI主要用来检测混淆webshell,所以笔者的阈值选择优先于黑样本和白样本中的混淆文件的特征值。

总结

NeoPi的检测重心在于识别混淆代码,它常常在识别模糊代码或者混淆编排的木马方面表现良好,但是也依赖于检测阈值的选取。同时,NeoPi的检测机制对未经模糊处理的代码检测能力较弱。

webshell检测方式深度剖析 ---统计学特征检测相关推荐

  1. webshell检测方式深度剖析 --- Pixy系列一(格理论)

    开篇 从这一篇开始,我们正式进入对静态代码检测开源项目Pixy的深度剖析,以期望能够发掘出静态代码分析可以应用在webshell检测上的更多实用能力. Pixy是用java语言实现的用于检测php中S ...

  2. webshell检测方式深度剖析 --- 行业内的实践方案

    概述 关于webshell检测我们已经讲了很多理论的东西,最近在网络上搜到了一篇阿里的主机层入侵检测团队在XCON(安全焦点安全信息技术峰会)上的一篇演讲PPT,名字为<云安全环境下恶意脚本检测 ...

  3. webshell检测方式深度剖析---RASP(taint扩展)

    概述 Gartner在2014年提出了应用自我保护技术(RASP)的概念,即将防护引擎嵌入到应用内部,不再依赖外部防护设备. 不同于WAF部署在应用的外部边界和依赖于特定规则,RASP把防护系统跑在每 ...

  4. 深度剖析目标检测算法YOLOV4

    深度剖析目标检测算法YOLOV4 目录 简述 yolo 的发展历程 介绍 yolov3 算法原理 介绍 yolov4 算法原理(相比于 yolov3,有哪些改进点) YOLOV4 源代码日志解读 yo ...

  5. 基于深度学习的webshell检测

    文章目录 背景知识:NLP与深度学习 环境安装 conda相关命令 使用模型 使用数据 训练与预测 本科是信息安全,研究生搞大数据,工作了又开始搞安全,然后有些东西就荒废了. 想着要不结合一下练练手吧 ...

  6. 第11章 WebShell检测

    WebShell就是以ASP.PHP.JSP或者CGI等网页文件形式存在的一种命令执行环境,也可以将其成为一种网页后门.黑客在入侵了一个网站后,通常会将ASP或者PHP后门文件与网站服务器Web目录下 ...

  7. 深度剖析:Redis分布式锁到底安全吗?看完这篇文章彻底懂了!

    ‍‍‍‍‍‍‍‍‍‍‍‍阅读本文大约需要 20 分钟. 大家好,我是 Kaito. 这篇文章我想和你聊一聊,关于 Redis 分布式锁的「安全性」问题. Redis 分布式锁的话题,很多文章已经写烂了 ...

  8. [Android] Toast问题深度剖析(二)

    欢迎大家前往云+社区,获取更多腾讯海量技术实践干货哦~ 作者: QQ音乐技术团队 题记 Toast 作为 Android 系统中最常用的类之一,由于其方便的api设计和简洁的交互体验,被我们所广泛采用 ...

  9. 几点基于Web日志的Webshell检测思路

    摘要: Web日志记录了网站被访问的情况,在Web安全的应用中,Web日志常被用来进行攻击事件的回溯和取证.Webshell大多由网页脚本语言编写,常被入侵者用作对网站服务器操作的后门程序,网站被植入 ...

最新文章

  1. Spring MVC入门
  2. 2016 ICPC World Finals -Ceiling Function
  3. openstack的云主机相关命令
  4. Shell脚本使用常见问题说明
  5. linearlayout设置最大高度_一句话掌握一消建筑高度计算方法,先收藏!
  6. C++/C--vector初始化与赋值【转载】
  7. java定时运行一个url_Swift 4:如何异步使用URLSessionDataTask但请求是否在一个定时队列中?...
  8. java 集合排序方法_java集合排序方法sort的使用
  9. 智能家居系统通信方式,主要有以下四种
  10. JAVA校园二手交易平台
  11. code review流程规范
  12. TCP/IP 模型 与 OSI 七层模型的对应关系
  13. cesium创建、添加json数据
  14. 基于pyqt的图像处理界面设计
  15. Linux 系统管理没有 netstat ,不惆怅! 拥抱 ss ,事半功倍
  16. 天馈线测试仪具备什么功能
  17. 国家一级计算机等级考试 阴影效果的预设值为内部右上角,全国计算机等级考试一级练习题(1)解析...
  18. 英特尔遭遇「灾难级」财报!裁员、砍业务、董事会主席辞职,甚至给不出2023业绩预期
  19. intel rst linux 驱动下载,英特尔快速存储技术下载-英特尔RST快速存储技术驱动下载 14.0.0.1143官方版--pc6下载站...
  20. 如何让你的代码比别人更加赏心悦目?

热门文章

  1. 06—小白学Python爬虫之BeautifulSoup入门与应用(以糗百为例)
  2. .NET微服务迁移至.NET6.0的故事
  3. 白泽六足机器人_arduino_v1——零件准备
  4. 汽车电子产品工程师须认识的相关标准
  5. 电脑修改服务器时间,Windows 时间服务工具和设置
  6. android 获取mac c语言,获取设备的mac地址和IP地址(android6.0以上专用)
  7. Wireshark教程:解密HTTPS流量
  8. 腾讯AI开放平台 SDK
  9. WinRAR 5.90 中文版 — 经典解压缩工具
  10. TS-MPEG2视频数字水印演示程序