垃圾短信检测(端到端的项目)

我们都听说过一个流行词——“数据科学”。我们大多数人都对“它是什么?我可以成为数据分析师或数据科学家吗?我需要什么技能?并不是很了解。例如:我想开始一个数据科学项目,但我却不知道如何着手进行。
我们大多数人都是通过一些在线课程了解了这个领域。我们对课程中布置的作业和项目感到游刃有余。但是,当开始分析全新或未知的数据集时,我们会迷失方向。为了在分析我们遇到的任何数据集和问题时,我们需要通过不断的练习。我觉得最好的方式之一就是在项目中进行学习。所以每个人都需要开始自己的第一个项目。因此,我准备写一个专栏,带大家一起完成数据科学项目,感兴趣的朋友可以一起交流学习。本专栏是一个以实战为主的专栏。

0.引言

随着产品和服务在线消费的增加,消费者面临着收件箱中大量垃圾邮件的巨大问题,这些垃圾邮件要么是基于促销的,要么是欺诈性的。由于这个原因,一些非常重要的消息/电子邮件被当做垃圾短信处理了。在本文中,我们将创建一个 垃圾短信/邮件检测模型,该模型将使用朴素贝叶斯和自然语言处理(NLP) 来确定是否为垃圾短信/邮件。

在这里我使用的是colab内置环境,完整代码文末获取。

额外的所需包如下,大家自行安装

nltk
streamlit
pickle

1.数据收集和加载

我们将使用kaggle提供的数据集:数据集

该数据集 包含一组带有标记的短信文本,这些消息被归类为正常短信垃圾短信。 每行包含一条消息。每行由两列组成:v1 带有标签,(spam 或 ham),v2 是文本内容。

df=pd.read_csv('/content/spam/spam.csv',encoding='latin-1')#这里encoding需要指定为latin-1
# 查看一下数据基本情况
df.head()
v1 v2 Unnamed: 2 Unnamed: 3 Unnamed: 4
0 ham Go until jurong point, crazy.. Available only ... NaN NaN NaN
1 ham Ok lar... Joking wif u oni... NaN NaN NaN
2 spam Free entry in 2 a wkly comp to win FA Cup fina... NaN NaN NaN
3 ham U dun say so early hor... U c already then say... NaN NaN NaN
4 ham Nah I don't think he goes to usf, he lives aro... NaN NaN NaN

该数据包含一组带有标记的短信数据,其中:

  • v1表示短信标签,ham表示正常信息,spam表示垃圾信息
  • v2是短信的内容
#去除不需要的列
df=df.iloc[:,:2]
#重命名列
df=df.rename(columns={"v1":"label","v2":"message"})
df.head()
label message
0 ham Go until jurong point, crazy.. Available only ...
1 ham Ok lar... Joking wif u oni...
2 spam Free entry in 2 a wkly comp to win FA Cup fina...
3 ham U dun say so early hor... U c already then say...
4 ham Nah I don't think he goes to usf, he lives aro...
# 将lable进行one-hot编码,其中0:ham,1:spam
from sklearn.preprocessing import LabelEncoder
encoder = LabelEncoder()
df['label']=encoder.fit_transform(df['label'])
df['label'].value_counts()
0    4825
1     747
Name: label, dtype: int64

可以看出一共有747个垃圾短信

# 查看缺失值
df.isnull().sum()
# 数据没有缺失值
label      0
message    0
dtype: int64

2.探索性数据分析(EDA)

通过可视化分析来更好的理解数据

import matplotlib.pyplot as plt
plt.style.use('ggplot')
plt.figure(figsize=(9,4))
plt.subplot(1,2,1)
plt.pie(df['label'].value_counts(),labels=['not spam','spam'],autopct="%0.2f")
plt.subplot(1,2,2)
sns.barplot(x=df['label'].value_counts().index,y=df['label'].value_counts(),data=df)
plt.show()

在特征工程部分,我简单创建了一些单独的特征来提取信息

  • 字符数
  • 单词数
  • 句子数
#1.字符数
df['char']=df['message'].apply(len)
nltk.download('punkt')
[nltk_data] Downloading package punkt to /root/nltk_data...
[nltk_data]   Unzipping tokenizers/punkt.zip.True
#2.单词数,这里我们首先要对其进行分词处理,使用nltk
#分词处理
df['words']=df['message'].apply(lambda x: len(nltk.word_tokenize(x)))
# 3.句子数
df['sen']=df['message'].apply(lambda x: len(nltk.sent_tokenize(x)))
df.head()
label message char words sen
0 0 Go until jurong point, crazy.. Available only ... 111 24 2
1 0 Ok lar... Joking wif u oni... 29 8 2
2 1 Free entry in 2 a wkly comp to win FA Cup fina... 155 37 2
3 0 U dun say so early hor... U c already then say... 49 13 1
4 0 Nah I don't think he goes to usf, he lives aro... 61 15 1

描述性统计

# 描述性统计
df.describe()
index label char words sen
count 5572.0 5572.0 5572.0 5572.0
mean 0.13406317300789664 80.11880832735105 18.69562096195262 1.9707465900933239
std 0.34075075489776974 59.6908407765033 13.742586801744975 1.4177777134026657
min 0.0 2.0 1.0 1.0
25% 0.0 36.0 9.0 1.0
50% 0.0 61.0 15.0 1.0
75% 0.0 121.0 27.0 2.0
max 1.0 910.0 220.0 28.0

下面我们通过可视化比较一下不同短信在这些数字特征上的分布情况

# 字符数比较
plt.figure(figsize=(12,6))
sns.histplot(df[df['label']==0]['char'],color='red')#正常短信
sns.histplot(df[df['label']==1]['char'],color = 'blue')#垃圾短信
<matplotlib.axes._subplots.AxesSubplot at 0x7fce63763dd0>

# 比较
plt.figure(figsize=(12,6))
sns.histplot(df[df['label']==0]['words'],color='red')#正常短信
sns.histplot(df[df['label']==1]['words'],color = 'blue')#垃圾短信
<matplotlib.axes._subplots.AxesSubplot at 0x7fce63f4bed0>



sns.pairplot(df,hue='label')

#删除数据集中存在的一些异常值
i=df[df['char']>500].index
df.drop(i,axis=0,inplace=True)
df=df.reset_index()
df.drop("index",inplace=True,axis=1)
#相关系数矩阵
sns.heatmap(df.corr(),annot=True)
<matplotlib.axes._subplots.AxesSubplot at 0x7fce606d0250>

我们这里看到存在多重共线性,因此,我们不使用所有的列,在这里选择与label相关性最强的char

3.数据预处理

对于英文文本数据,我们常用的数据预处理方式如下

  • 去除标点符号
  • 去除停用词
  • 去除专有名词
  • 变换成小写
  • 分词处理
  • 词根、词缀处理

下面我们来看看如何实现这些步骤

nltk.download('stopwords')
[nltk_data] Downloading package stopwords to /root/nltk_data...
[nltk_data]   Unzipping corpora/stopwords.zip.True
# 首先导入需要使用到的包
from nltk.corpus import stopwords
from nltk.stem import PorterStemmer
from wordcloud import WordCloud
import string,time
# 标点符号
string.punctuation
'!"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~'
# 停用词
stopwords.words('english')

3.1清洗文本数据

  • 去除web链接
  • 去除邮件
  • 取掉数字

下面使用正则表达式来处理这些数据。

def remove_website_links(text):no_website_links = text.replace(r"http\S+", "")#去除网络连接return no_website_linksdef remove_numbers(text):removed_numbers = text.replace(r'\d+','')#去除数字return removed_numbersdef remove_emails(text):no_emails = text.replace(r"\S*@\S*\s?",'')#去除邮件return no_emails
df['message'] = df['message'].apply(remove_website_links)
df['message'] = df['message'].apply(remove_numbers)
df['message'] = df['message'].apply(remove_emails)
df.head()
label message char words sen
0 0 Go until jurong point, crazy.. Available only ... 111 24 2
1 0 Ok lar... Joking wif u oni... 29 8 2
2 1 Free entry in 2 a wkly comp to win FA Cup fina... 155 37 2
3 0 U dun say so early hor... U c already then say... 49 13 1
4 0 Nah I don't think he goes to usf, he lives aro... 61 15 1

3.2 文本特征转换

def message_transform(text):text = text.lower()#转换为小写text = nltk.word_tokenize(text)#分词处理# 去除停用词和标点y = []#创建一个空列表for word in text:stopwords_punc = stopwords.words('english')+list(string.punctuation)#存放停用词和标点if word.isalnum()==True and word not in stopwords_punc:y.append(word)# 词根变换message=y[:]y.clear()for i in message:ps=PorterStemmer()y.append(ps.stem(i))return " ".join(y)#返回字符串形式
df['message'] = df['message'].apply(message_transform)
df['num_words_transform']=df['message'].apply(lambda x: len(str(x).split()))
df.head()
label message char words sen
0 0 Go until jurong point, crazy.. Available only ... 111 24 2
1 0 Ok lar... Joking wif u oni... 29 8 2
2 1 Free entry in 2 a wkly comp to win FA Cup fina... 155 37 2
3 0 U dun say so early hor... U c already then say... 49 13 1
4 0 Nah I don't think he goes to usf, he lives aro... 61 15 1

4.词频统计

4.1绘制词云

#绘制信息中出现最多的词的词云
from wordcloud import WordCloud
#首先,创建一个object
wc=WordCloud(width=500,height=500,min_font_size=10,background_color='white')
# 垃圾信息的词云
spam_wc=wc.generate(df[df['label']==1]['message'].str.cat(sep=""))
plt.figure(figsize=(18,12))
plt.imshow(spam_wc)
<matplotlib.image.AxesImage at 0x7fce5d938710>

可以看出,这些垃圾邮件出现频次最多的单词是:free、call等这种具有诱导性的信息

# 正常信息的词云
ham_wc = wc.generate(df[df['label']==0]['message'].str.cat(sep=''))
plt.figure(figsize=(18,12))
plt.imshow(ham_wc)
<matplotlib.image.AxesImage at 0x7fce607af190>

可以看出正常信息出现频次较多的单词为u、go、got、want等一些传达信息的单词

为了简化词云图的信息,我们现在分别统计垃圾短信和正常短信频次top30的单词

4.2找出词数top30的单词

垃圾短信:

# 统计词频
spam_corpus=[]
for i in df[df['label']==1]['message'].tolist():for word in i.split():spam_corpus.append(word)
from collections import Counter
Counter(spam_corpus)#记数
Counter(spam_corpus).most_common(30)#取最多的30个单词
plt.figure(figsize=(10,7))
sns.barplot(y=pd.DataFrame(Counter(spam_corpus).most_common(30))[0],x=pd.DataFrame(Counter(spam_corpus).most_common(30))[1])
plt.xticks()
plt.xlabel("Frequnecy")
plt.ylabel("Spam Words")
plt.show()

正常短信

ham_corpus=[]
for i in df[df['label']==0]['message'].tolist():for word in i.split():ham_corpus.append(word)
from collections import Counter
plt.figure(figsize=(10,7))
sns.barplot(y=pd.DataFrame(Counter(ham_corpus).most_common(30))[0],x=pd.DataFrame(Counter(ham_corpus).most_common(30))[1])
plt.xticks()
plt.xlabel("Frequnecy")
plt.ylabel("Ham Words")
plt.show()

下面进一步分析垃圾短信和非垃圾短信的单词和字符数分布情况

# 字符数
fig,(ax1,ax2)=plt.subplots(1,2,figsize=(15,6))
text_len=df[df['label']==1]['text'].str.len()
ax1.hist(text_len,color='green')
ax1.set_title('Original text')
text_len=df[df['label']==0]['text'].str.len()
ax2.hist(text_len,color='red')
ax2.set_title('Fake text')
fig.suptitle('Characters in texts')
plt.show()

#单词数
fig,(ax1,ax2)=plt.subplots(1,2,figsize=(15,6))
text_len=df[df['label']==1]['num_words_transform']
ax1.hist(text_len,color='red')
ax1.set_title('Original text')
text_len=df[df['label']==0]['num_words_transform']
ax2.hist(text_len,color='green')
ax2.set_title('Fake text')
fig.suptitle('Words in texts')
plt.show()

总结
经过上面分析,我们可以得出结论,垃圾短信文本与非垃圾短信文本相比具有更多的单词和字符。

  • 垃圾短信中包含的平均字符数约为 90 个字符
  • 垃圾短信中包含的平均字数约为 15 个字

5.模型构建

根据历史经验,在文本数据上朴素贝叶斯算法效果很好,因此我们将使用它,但在此过程中还将它与不同的算法进行比较。
在统计学中,朴素贝叶斯分类器是一系列简单的“概率分类器”,它们基于应用贝叶斯定理和特征之间的(朴素)条件独立假设。它们是最简单的贝叶斯网络模型之一,但与核密度估计相结合,它们可以达到更高的准确度水平。

首先,我们这里的输入数据是文本数据,不能够直接建立模型。因此,我们必须将这些文本数据进行特征提取。比较常用的几种方法:

  • 词袋模型(Bag of words) 存在稀疏性问题
  • TF-IDF
  • Word2vec

因为是实战训练,在这里不具体展开的几种方法的原理,在这里我选择TF-IDF

我也试了一下Word embedding,结合一些深度学习的方法,精度能够有所提高,感兴趣的小伙伴可以自己尝试一下,基本步骤类似。下面我们首先建立贝叶斯模型。

5.1 构建贝叶斯模型

from sklearn.feature_extraction.text import TfidfVectorizer
tfidf = TfidfVectorizer(max_features=3000)
X = tfidf.fit_transform(df['message']).toarray()
y = df['label'].values
array([0, 0, 1, ..., 0, 0, 0])
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=2)#训练集测试集划分
from sklearn.naive_bayes import GaussianNB,MultinomialNB,BernoulliNB
from sklearn.metrics import accuracy_score,confusion_matrix,precision_score

这里我们比较三种不同的贝叶斯模型的各个评估指标结果

#GaussianNB
gnb = GaussianNB()
gnb.fit(X_train,y_train)
y_pred1 = gnb.predict(X_test)
print("Accuracy Score -",accuracy_score(y_test,y_pred1))
print("Precision Score -",precision_score(y_test,y_pred1))
print(confusion_matrix(y_test,y_pred1))
Accuracy Score - 0.8456014362657092
Precision Score - 0.47038327526132406
[[807 152][ 20 135]]
#MultinomialNB
mnb = MultinomialNB()
mnb.fit(X_train,y_train)
y_pred2 = mnb.predict(X_test)
print("Accuracy Score -",accuracy_score(y_test,y_pred2))
print("Precision Score -",precision_score(y_test,y_pred2))
print(confusion_matrix(y_test,y_pred2))
Accuracy Score - 0.9793536804308797
Precision Score - 0.9925373134328358[[958   1][ 22 133]]
#Bernuli
bnb = BernoulliNB()
bnb.fit(X_train,y_train)
y_pred3 = bnb.predict(X_test)
print("Accuracy Score -",accuracy_score(y_test,y_pred3))
print("Precision Score -",precision_score(y_test,y_pred3))
print(confusion_matrix(y_test,y_pred3))
Accuracy Score - 0.9829443447037702
Precision Score - 1.0
[[959   0][ 19 136]]

从上述结果来看,我选择了BNB来建模

5.2 模型比较

下面我们继续比较其他几种常见的分类模型的效果

#导入基本库
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.naive_bayes import MultinomialNB
from sklearn.tree import DecisionTreeClassifier
from sklearn.neighbors import KNeighborsClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import AdaBoostClassifier
from sklearn.ensemble import BaggingClassifier
from sklearn.ensemble import ExtraTreesClassifier
from sklearn.ensemble import GradientBoostingClassifier
from xgboost import XGBClassifier
from sklearn.metrics import precision_score, recall_score, plot_confusion_matrix, classification_report, accuracy_score, f1_score
from sklearn.model_selection import cross_val_score
# 构建多个分类器
classifiers={"svc":SVC(kernel='sigmoid', gamma=1.0),"knc": KNeighborsClassifier(),"bnb" : BernoulliNB(),"dtc" : DecisionTreeClassifier(max_depth=5),"lr" : LogisticRegression(solver='liblinear', penalty='l1'),"rfc" : RandomForestClassifier(n_estimators=50, random_state=2),"adb" : AdaBoostClassifier(n_estimators=50, random_state=2),"xgb" : XGBClassifier(n_estimators=50,random_state=2),"gbc" : GradientBoostingClassifier(n_estimators=50,random_state=2)}
# 训练分类器函数
def train_classifier(clf,X_train,y_train,X_test,y_test):clf.fit(X_train,y_train)y_pred = clf.predict(X_test)accuracy = accuracy_score(y_test,y_pred)precision = precision_score(y_test,y_pred)train_accuracy = clf.score(X_train,y_train)return accuracy,precision,train_accuracy
# 得到各个模型的评估结果
accuracy_scores = []
precision_scores = []
train_accuracy_score=[]for name,clf in classifiers.items():current_accuracy,current_precision,current_train_score = train_classifier(clf, X_train,y_train,X_test,y_test)print("For ",name)print("Accuracy - ",current_accuracy)print("Precision - ",current_precision)accuracy_scores.append(current_accuracy)precision_scores.append(current_precision)train_accuracy_score.append(current_train_score)print()
For  svc
Accuracy -  0.9802513464991023
Precision -  0.9784172661870504For  knc
Accuracy -  0.9093357271095153
Precision -  1.0For  bnb
Accuracy -  0.9829443447037702
Precision -  1.0For  dtc
Accuracy -  0.9299820466786356
Precision -  0.8811881188118812For  lr
Accuracy -  0.9622980251346499
Precision -  0.959349593495935For  rfc
Accuracy -  0.9721723518850988
Precision -  0.9920634920634921For  adb
Accuracy -  0.966786355475763
Precision -  0.9338235294117647For  xgb
Accuracy -  0.9443447037701975
Precision -  0.9514563106796117For  gbc
Accuracy -  0.9542190305206463
Precision -  0.9642857142857143


为了方便对比,将上述结果存放到dataframe中

df1=pd.DataFrame({'Algorithm':classifiers.keys(),'Precision':precision_scores,'Test Accuracy':accuracy_scores}).round(3)
df2=df1.sort_values(['Precision','Test Accuracy'],ascending=False)#排序
df2
Algorithm Precision Test Accuracy
2 bnb 1.000 0.983
1 knc 1.000 0.909
5 rfc 0.992 0.972
0 svc 0.978 0.980
8 gbc 0.964 0.954
4 lr 0.959 0.962
7 xgb 0.951 0.944
6 adb 0.934 0.967
3 dtc 0.881 0.930

通过对比,选择BNB模型,模型的precision为100%,accuracy为98.3%

6.模型部署

import pickle
pickle.dump(tfidf,open('vectorizer.pkl','wb'))
pickle.dump(mnb,open('model.pkl','wb'))

然后打开 IDE 并创建自己的虚拟环境。使用 pip 或 conda 安装所需的所有包。我们将使用 streamlit 构建我们的网站。

设置完成后,创建app.py文件

import streamlit as st
import pickle
import string
from nltk.corpus import stopwords
import nltk
from nltk.stem.porter import PorterStemmer
ps = PorterStemmer()
def transform_text(text):text = text.lower()text = nltk.word_tokenize(text)y = []for i in text:if i.isalnum():y.append(i)text = y[:]y.clear()for i in text:if i not in stopwords.words('english') and i not in string.punctuation:y.append(i)text = y[:]y.clear()for i in text:y.append(ps.stem(i))return " ".join(y)
tfidf = pickle.load(open('vectorizer.pkl','rb'))
model = pickle.load(open('model.pkl','rb'))
st.title("垃圾短信/邮件分类器")
input_sms = st.text_area("输入你要检测的内容")
if st.button('Predict'):# 1. preprocesstransformed_sms = transform_text(input_sms)# 2. vectorizevector_input = tfidf.transform([transformed_sms])# 3. predictresult = model.predict(vector_input)[0]# 4. Displayif result == 1:st.header("垃圾短信!")else:st.header("正常短信~")

然后在本地运行

streamlit run app.py

然后就能到达下面这个界面了,将短信或者邮件输入点击预测就可以了

篇幅有限,完整代码可以在我的github上面查看,欢迎大家star,fork。

github地址:完整代码

如果访问不了github的可以私信我获取源码。

【数据科学项目02】:NLP应用之垃圾短信/邮件检测(端到端的项目)相关推荐

  1. 实战:垃圾短信分类检测

    上次我们讲到朴素贝叶斯分类,忘记的同学参考一文搞懂朴素贝叶斯分类,今天就通过朴素贝叶斯分来来实现一个简单的垃圾短信分类器. 数据预处理 实现这个分类器我们使用的数据集来自伦敦大学学院的机器学习数据集( ...

  2. Python数据科学库02(matplotlib)

    Python数据科学库02 学习02 matplotlib 对比常用统计图 折线图的更多应用场景: 1.呈现公司产品(不同区域)每天活跃用户数 2.呈现app每天下载数量 3.呈现产品新功能上线后,用 ...

  3. 大数据垃圾短信自动化识别系统的研发与应用

    申报单位: 中移(苏州)软件技术有限公司 中国移动信息安全管理与运营中心 第一部分 项目背景及挑战 一.企业简介 中国移动通信集团公司信息安全管理与运行中心(以下简称"中移信安中心" ...

  4. 如何利用数据挖掘平台,通过数据建模,解决垃圾短信带来的困扰

    如今,手机已经成为人们日常生活必不可少的工具之一.虽然各种社交APP层次不穷,但手机短信以其操作简单.方便快捷等诸多优点一直都是用户间沟通的基础方式.手机短信在为人们带来极大便利的同时,随之而来的诸多 ...

  5. 【基于文本内容的垃圾短信识别】

    这个作业属于那个课程 自然语言处理 这个作业要求在哪里 NLP作业02:课程设计报告-CSDN社区 我在这个课程的目标是 学会如何实现基本的文本分类,学会如何对文本数据进行处理 这个作业在那个具体方面 ...

  6. 强封锁之后,华为正寻求10亿美元贷款;苹果发布iOS 12.3.1正式版,出击垃圾短信;联想CFO为“联想搬出中国”言论道歉;...

    关注并标星星CSDN云计算 极客头条:速递.最新.绝对有料.这里有企业新动.这里有业界要闻,打起十二分精神,紧跟fashion你可以的! 每周三次,打卡即read 更快.更全了解泛云圈精彩news g ...

  7. 机器学习—— SVM分类垃圾短信

    机器学习-- SVM分类算法 垃圾短信分类问题 Python语言凭借其强大的特性,其众多的外部库支持下,在机器学习和数据挖掘等领域发挥着强大的作用.本文基于python的机器学习库scikit-lea ...

  8. 使用GPT-3训练一个垃圾短信分类器

    平时我们都会收到很多短信,由于微信等即时通讯工具的普及,短信已经成为了一个验证码接收器,但是偶尔也有不少垃圾短信,所以对短信进行分类和屏蔽是一个很简单又很重要的需求. 目前在AppStroe上有很多实 ...

  9. 【实战】英文垃圾短信分类

    我又回来了,这次进行英文垃圾短信分类任务.下面将分别用机器学习和深度学习的方法进行操作,此外深度学习的方法又分别用RNN和CNN的方法进行展示,Let's go!!! 充满活力的冲啊!!! 一.英文垃 ...

最新文章

  1. Struts2如何实现MVC,与Spring MVC有什么不同?
  2. RAM, SRAM, SDRAM工作原理
  3. 事务管理:事务的状态相关知识笔记
  4. BAT Java面试完整汇总:面试准备(心态+简历)+面试题目+6条面试经验
  5. 从Wireshark看TCP连接的建立与关闭
  6. git/ssh捋不清的几个问题
  7. SilverLight中的数据绑定
  8. 计算机调剂到材料科学与工程,2019年郑州大学材料科学与工程专业考研调剂信息...
  9. Linux 命令(73)—— ps 命令
  10. 解决cmd命令行窗口和 powershell 汉字显示乱码问题
  11. 使用Rancher搭建Kubernetes集群
  12. websocket 如何知道对方断开_在爱情里你知道该如何和对方相处吗?
  13. js生成二维码 中间有logo
  14. FFmpeg实现音视频同步的精准片段拼接
  15. 简单迭代法求解非线性方程组
  16. 用matlab求光谱的一阶导数二阶导数
  17. Focal Loss讲解
  18. Bringing up interface eth0: Device eth0 does not seem to be present, delaying initialization.
  19. 雷观(二十五):定义和分析问题,往往比解决具体问题更重要
  20. 【云原生概念和技术】1.1 云原生的概述

热门文章

  1. redis 基础+进阶
  2. Windows Server 2003为什么识别不了的移动硬盘
  3. 如何做搜索引擎优化(SEO)
  4. 华北电力大学计算机排名,华电考研计算机专业排名
  5. 我的世界潜影盒计算机存储器,我的世界:除了箱子这8种都能做储存道具,最拉风的不是潜影盒!...
  6. 渗透测试-文件上传之getimagesize函数绕过
  7. html字段后面加个红星,数字报纸HTML版本
  8. Angular2 兼容 UC浏览器、QQ浏览器、猎豹浏览器
  9. 数据库:连接join的使用
  10. C语言 socket编程实例