1.股票预测

预测股市是机器学习在金融领域最重要的应用之一。在本文中,我将带您了解一个关于使用机器学习 Python 进行股票价格预测的简单数据科学项目。

在本文的最后,您将学习如何通过实现 Python 编程语言使用线性回归模型来预测股票价格。

自股市诞生以来,对其进行预测一直是投资者的祸根和目标。每天都有数十亿美元在股票交易所进行交易,每一美元背后都有一位投资者希望以某种方式获利。

整个公司每天的涨跌都取决于市场行为。如果一个投资者能够准确地预测市场走势,他就提供了一个诱人的财富和影响力的承诺。

1.1 数据准备

在上面的部分中,我通过导入python库开始了股票价格预测的任务。现在,我将编写一个函数来准备数据集,以便我们可以轻松地将其放入线性回归模型中:

def prepare_data(df,forecast_col,forecast_out,test_size):label = df[forecast_col].shift(-forecast_out) #creating new column called label with the last 5 rows are nanX = np.array(df[[forecast_col]]) #creating the feature arrayX = preprocessing.scale(X) #processing the feature arrayX_lately = X[-forecast_out:] #creating the column i want to use later in the predicting methodX = X[:-forecast_out] # X that will contain the training and testinglabel.dropna(inplace=True) #dropping na valuesy = np.array(label)  # assigning YX_train, X_test, Y_train, Y_test = train_test_split(X, y, test_size=test_size, random_state=0) #cross validationresponse = [X_train,X_test , Y_train, Y_test , X_lately]return response
df = pd.read_csv("prices.csv")
df = df[df.symbol == "GOOG"]

现在,我们需要准备三个输入变量,就像上面小节中创建的函数中准备的那样。我们需要声明一个输入变量,说明我们想预测哪一列。我们需要声明的下一个变量是我们希望预测的距离。

我们需要声明的最后一个变量是测试集的大小应该是多少。现在让我们声明所有的变量:

1.2 将机器学习应用于股票价格预测

现在我将对数据进行分割,并拟合到线性回归模型中:

X_train, X_test, Y_train, Y_test , X_lately =prepare_data(df,forecast_col,forecast_out,test_size); #calling the method were the cross validation and data preperation is in
learner = LinearRegression() #initializing linear regression modellearner.fit(X_train,Y_train) #training the linear regression model

现在让我们预测产出,看看股票价格的价格:

score=learner.score(X_test,Y_test)#testing the linear regression model
forecast= learner.predict(X_lately) #set that will contain the forecasted data
response={}#creting json object
response['test_score']=score
response['forecast_set']=forecastprint(response)
{‘test_score’: 0.9481024935723803, ‘forecast_set’: array([786.54352516, 788.13020371, 781.84159626, 779.65508615, 769.04187979])}

2.美国总统身高统计

如果你是数据科学的初学者,你必须解决这个项目,因为你将学到很多关于处理来自csv文件或任何其他格式的数据的知识。

该数据可在文件height.Csv中找到,它是标签和值的简单逗号分隔列表:

链接:https://pan.baidu.com/s/1tW-3TBzCzyeX1U2vtdEhFw
提取码:qz25

data = pd.read_csv("heights.csv")
print(data.head())

我们将使用Pandas package 读取文件并提取此信息 (请注意,高度以厘米为单位):

height = np.array(data["height(cm)"])
print(height)

现在我们有了这个数据数组,我们可以计算各种摘要统计信息:

print("Mean of heights =", height.mean())
print("Standard Deviation of height =", height.std())
print("Minimum height =", height.min())
print("Maximum height =", height.max())


请注意,在每种情况下,聚合操作将整个数组简化为一个汇总值,这为我们提供了有关值分布的信息。我们也可以计算分位数:

print("25th percentile =", np.percentile(height, 25))
print("Median =", np.median(height))
print("75th percentile =", np.percentile(height, 75))

我们看到美国总统的平均身高是182厘米,或略低于6英尺。当然,有时查看这些数据的可视化表示会更有用,我们可以使用Matplotlib中的工具来完成:

import matplotlib.pyplot as plt
import seaborn as sns
sns.set()
plt.hist(height)
plt.title("Height Distribution of Presidents of USA")
plt.xlabel("height(cm)")
plt.ylabel("Number")
plt.show()

这些集合是探索性数据科学的一些基本部分,我们将在以后的项目中更深入地探讨。

3.出生率分析

让我们来看看美国疾病控制中心 (CDC) 提供的免费出生数据。这些数据可以在born s.csv中找到

链接:https://pan.baidu.com/s/1lrCuMvGGqtxfmuVHocZCpA
提取码:8ovj

import pandas as pd
births = pd.read_csv("births.csv") print(births.head()) births['day'].fillna(0, inplace=True) births['day'] = births['day'].astype(int)

births['decade'] = 10 * (births['year'] // 10)
births.pivot_table('births', index='decade', columns='gender', aggfunc='sum')
print(births.head())

我们立即看到,每十年男性出生数超过女性出生数。为了更清楚地看到这一趋势,我们可以使用Pandas 中的内置绘图工具来可视化按年出生的总数:

import matplotlib.pyplot as plt
import seaborn as sns
sns.set()
birth_decade = births.pivot_table('births', index='decade', columns='gender', aggfunc='sum')
birth_decade.plot()
plt.ylabel("Total births per year")
plt.show()

3.1 进一步数据探索:

这里有一些有趣的特性,我们可以使用Pandas工具从这个数据集中提取出来。我们必须从清理数据开始,删除由于输入错误的日期或丢失的值而引起的异常值。一个简单的方法是一次性删除这些异常值,我们将通过一个健壮的sigma-clipping操作来做到这一点:

import numpy as np
quartiles = np.percentile(births['births'], [25, 50, 75])
mu = quartiles[1]
sig = 0.74 * (quartiles[2] - quartiles[0])

最后这条线是样本均值的稳健估计,其中0.74来自高斯分布的四分位数范围。这样我们就可以使用query()方法来过滤出这些值之外的诞生行:

births = births.query('(births > @mu - 5 * @sig) & (births < @mu + 5 * @sig)')
births['day'] = births['day'].astype(int)
births.index = pd.to_datetime(10000 * births.year +100 * births.month +births.day, format='%Y%m%d')births['dayofweek'] = births.index.dayofweek

利用这个数据,我们可以连续几十年按工作日计算出生人数:

births.pivot_table('births', index='dayofweek',columns='decade', aggfunc='mean').plot()
plt.gca().set_xticklabels(['Mon', 'Tues', 'Wed', 'Thurs', 'Fri', 'Sat', 'Sun'])
plt.ylabel('mean births by day');
plt.show()

显然,周末出生的孩子比工作日出生的要少一些!需要注意的是,由于CDC的数据只包含了从1989年开始的出生月份,所以没有包括1990年代和2000年代。
另一个有趣的观点是画出每年的平均出生人数。让我们首先将数据按月和日分别分组:

births_month = births.pivot_table('births', [births.index.month, births.index.day])
print(births_month.head())
births_month.index = [pd.datetime(2012, month, day)
for (month, day) in births_month.index]
print(births_month.head())

只关注月和日,我们现在有了一个时间序列,反映了每年出生的平均人数。由此,我们可以使用plot方法来绘制数据。它揭示了一些有趣的趋势:

fig, ax = plt.subplots(figsize=(12, 4))
births_month.plot(ax=ax)
plt.show()

4.时间序列数据科学项目-自行车计数

作为处理时间序列数据的一个例子,让我们看看西雅图弗里蒙特桥上的自行车数量。这些数据来自于2012年底安装的一个自动自行车计数器,它在大桥的东西两侧人行道上安装了感应传感器。每小时的自行车计数可以在这里下载。

一旦下载了这个数据集,我们就可以使用Pandas将CSV输出读取到一个DataFrame中。我们将指定我们想要的日期作为索引,并且我们想要这些日期被自动解析:

import pandas as pd
data = pd.read_csv("fremont-bridge.csv", index_col= 'Date', parse_dates=True)
data.head()

为方便起见,我们将通过缩短列名并添加 “总计” 列来进一步处理此数据集:

data.columns = ["West", "East"]
data["Total"] = data["West"] + data["East"]
data.head()

现在,让我们看一下此数据的摘要统计信息:

data.dropna().describe()

4.1 可视化数据

我们可以通过可视化来深入了解数据集。让我们从绘制原始数据开始:

import matplotlib.pyplot as plt
import seaborn
seaborn.set()
data.plot()
plt.ylabel("Hourly Bicycle count")
plt.show()

每小时约25000个样本的密度太大了,我们无法理解。我们可以通过将数据重新采样到一个粗糙的网格来获得更多的见解。让我们按周重新取样:

weekly = data.resample("W").sum()
weekly.plot(style=[':', '--', '-'])
plt.ylabel('Weekly bicycle count')
plt.show()

这向我们展示了一些有趣的季节趋势:如你所料,人们在夏天比在冬天骑自行车更多,甚至在一个特定的季节里,自行车的使用每周都不同。

另一种便于聚合数据的方法是使用滚动平均数,利用pd.rolling_mean()函数。这里我们将对我们的数据做一个30天的滚动平均值,确保窗口居中:

daily = data.resample('D').sum()
daily.rolling(30, center=True).sum().plot(style=[':', '--', '-'])
plt.ylabel('mean hourly count')
plt.show()

结果的锯齿状是由于窗户的硬切断。我们可以使用窗口函数得到滚动均值的平滑版本——例如高斯窗。

daily.rolling(50, center=True,
win_type='gaussian').sum(std=10).plot(style=[':','--', '-'])
plt.show()

4.2 挖掘数据

虽然平滑数据视图有助于了解数据的总体趋势,但它们隐藏了许多有趣的结构。例如,我们可能希望将平均流量看作是一天中时间的函数。我们可以使用GroupBy功能来做到这一点:

import numpy as np
by_time = data.groupby(data.index.time).mean()
hourly_ticks = 4  60  60 * np.arange(6)
by_time.plot(xticks= hourly_ticks, style=[':', '--', '-'])
plt.ylabel("Traffic according to time")
plt.show()

5.区域与人口分析

在这个项目中,我们将使用点的大小来指示加利福尼亚城市的面积和人口。我们想要一个指定点大小比例的图例,我们将通过绘制一些没有条目的标记数据来实现这一点。

您可以从此处下载此项目所需的数据集。

链接:https://pan.baidu.com/s/1_KoQ7zTT8fJpRYrxksr0aQ
提取码:guqw

import pandas as pd
cities = pd.read_csv("california_cities.csv")
print(cities.head())

5.1 提取我们感兴趣的数据

latitude, longitude = cities["latd"], cities["longd"]
population, area = cities["population_total"], cities["area_total_km2"]

5.2 分散点,使用尺寸和颜色,但不使用标签

import numpy as np
import matplotlib.pyplot as plt
import seaborn
seaborn.set()
plt.scatter(longitude, latitude, label=None, c=np.log10(population),
cmap='viridis', s=area, linewidth=0, alpha=0.5)
plt.axis(aspect='equal')
plt.xlabel('Longitude')
plt.ylabel('Longitude')
plt.colorbar(label='log(population)')
plt.clim(3, 7)

5.3 现在我们将创建一个图例,我们将绘制具有所需大小和标签的空列表

for area in [100, 300, 500]:
plt.scatter([], [], c='k', alpha=0.3, s=area, label=str(area) + 'km')
plt.legend(scatterpoints=1, frameon=False, labelspacing=1, title='City Areas')
plt.title("Area and Population of California Cities")
plt.show()

6.一个完整的Python机器学习项目实战

在本文中,我将带您完成一个使用Python编程语言的完整机器学习项目演练。这个完整的机器学习项目演练包括由Scikit-Learn提供的算法的实现,Scikit-Learn是用于机器学习的最佳Python库之一。

以下是本机器学习项目演练中涵盖的步骤:

  1. 导入数据
  2. 数据可视化
  3. 数据清理和转换
  4. 对数据进行编码
  5. 将数据拆分为训练和测试集
  6. 微调算法
  7. 使用KFold交叉验证
  8. 对测试集的预测

使用Python的机器学习项目演练

现在,在本节中,我将带您完成一个使用Python编程语言的完整机器学习项目演练。我将首先导入必要的Python库和数据集:

链接:https://pan.baidu.com/s/1ShfQd-ig8JhLqwigxfP_-g
提取码:3zgw

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline
data_train = pd.read_csv('train.csv')
data_test = pd.read_csv('test.csv')

现在让我们看看如何可视化这些数据。数据可视化对于识别适当训练机器学习模型的基础模式至关重要:

sns.barplot(x="Embarked", y="Survived", hue="Sex", data=data_train)
plt.show()

6.1 数据清理和转换

现在下一步是根据我们需要的输出来清理和转换数据。以下是我将在此步骤中考虑的步骤:

  1. 为了避免过度匹配,我将把人们分成合乎逻辑的人类年龄组。
  2. 每个展位都以一封信开头。我打赌这封信比后面的数字大得多,让我们把它剪掉。
  3. 关税是另一个应该简化的连续值。
  4. 从 “名称” 函数中提取信息。我没有使用全名,而是提取了姓氏和名字前缀 (Mr,Mrs等),然后将它们添加为特征。
  5. 最后,我们需要删除不必要的功能。
def simplify_ages(df):
df.Age = df.Age.fillna(-0.5)
bins = (-1, 0, 5, 12, 18, 25, 35, 60, 120)
group_names = ['Unknown', 'Baby', 'Child', 'Teenager', 'Student', 'Young Adult', 'Adult', 'Senior']
categories = pd.cut(df.Age, bins, labels=group_names)
df.Age = categories
return df
def simplify_cabins(df):
df.Cabin = df.Cabin.fillna('N')
df.Cabin = df.Cabin.apply(lambda x: x[0])
return df
def simplify_fares(df):
df.Fare = df.Fare.fillna(-0.5)
bins = (-1, 0, 8, 15, 31, 1000)
group_names = ['Unknown', '1_quartile', '2_quartile', '3_quartile', '4_quartile']
categories = pd.cut(df.Fare, bins, labels=group_names)
df.Fare = categories
return df
def format_name(df):
df['Lname'] = df.Name.apply(lambda x: x.split(' ')[0])
df['NamePrefix'] = df.Name.apply(lambda x: x.split(' ')[1])
return df
def drop_features(df):
return df.drop(['Ticket', 'Name', 'Embarked'], axis=1)
def transform_features(df):
df = simplify_ages(df)
df = simplify_cabins(df)
df = simplify_fares(df)
df = format_name(df)
df = drop_features(df)
return df
data_train = transform_features(data_train)
data_test = transform_features(data_test)

6.2 编码特征

下一步是标准化标签。标签编码器将每个唯一的字符串转换为一个数字,使数据更加灵活,可用于各种算法。对人类来说,结果是一个可怕的数字数组,但对机器来说却很漂亮:

rom sklearn import preprocessing
def encode_features(df_train, df_test):features = ['Fare', 'Cabin', 'Age', 'Sex', 'Lname', 'NamePrefix']df_combined = pd.concat([df_train[features], df_test[features]])for feature in features:le = preprocessing.LabelEncoder()le = le.fit(df_combined[feature])df_train[feature] = le.transform(df_train[feature])df_test[feature] = le.transform(df_test[feature])return df_train, df_testdata_train, data_test = encode_features(data_train, data_test)

现在下一步是将数据分成训练集和测试集。在这里,我将使用一个变量来存储所有特征减去我们想要预测的值,而另一个变量只存储我们想要预测的值。

对于这项任务,我将把这些数据随机混合成四个变量。在这种情况下,我训练80% 的数据,然后测试剩余的20%:

from sklearn.model_selection import train_test_split
X_all = data_train.drop(['Survived', 'PassengerId'], axis=1)
y_all = data_train['Survived']
num_test = 0.20
X_train, X_test, y_train, y_test = train_test_split(X_all, y_all, test_size=num_test, random_state=23)

6.3 拟合和调整机器学习算法:

现在是确定哪种算法将提供最佳模型的时候了。在此任务中,我将使用randomforest分类器,但是您也可以在此处使用任何其他分类器,例如支持向量机或朴素贝叶斯:


from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import make_scorer, accuracy_score
from sklearn.model_selection import GridSearchCV# Choose the type of classifier.
clf = RandomForestClassifier()# Choose some parameter combinations to try
parameters = {'n_estimators': [4, 6, 9], 'max_features': ['log2', 'sqrt','auto'], 'criterion': ['entropy', 'gini'],'max_depth': [2, 3, 5, 10], 'min_samples_split': [2, 3, 5],'min_samples_leaf': [1,5,8]}# Type of scoring used to compare parameter combinations
acc_scorer = make_scorer(accuracy_score)# Run the grid search
grid_obj = GridSearchCV(clf, parameters, scoring=acc_scorer)
grid_obj = grid_obj.fit(X_train, y_train)# Set the clf to the best combination of parameters
clf = grid_obj.best_estimator_# Fit the best algorithm to the data.
clf.fit(X_train, y_train)RandomForestClassifier(bootstrap=True, class_weight=None, criterion='entropy',
max_depth=5, max_features='log2', max_leaf_nodes=None,
min_samples_leaf=1, min_samples_split=2,
min_weight_fraction_leaf=0.0, n_estimators=9, n_jobs=1,
oob_score=False, random_state=None, verbose=0,
warm_start=False)predictions = clf.predict(X_test)
print(accuracy_score(y_test, predictions))
0.804469273743

现在我们需要使用KFold交叉验证来验证我们的机器学习模型。KFold交叉验证有助于理解我们的模型好吗?这使得使用KFold验证算法的效率成为可能。这将把我们的数据分成10个隔间,然后使用不同的隔间作为每次迭代的测试集来运行算法:

from sklearn.cross_validation import KFold
def run_kfold(clf):
kf = KFold(891, n_folds=10)
outcomes = []
fold = 0
for train_index, test_index in kf:
fold += 1
X_train, X_test = X_all.values[train_index], X_all.values[test_index]
y_train, y_test = y_all.values[train_index], y_all.values[test_index]
clf.fit(X_train, y_train)
predictions = clf.predict(X_test)
accuracy = accuracy_score(y_test, predictions)
outcomes.append(accuracy)
print("Fold {0} accuracy: {1}".format(fold, accuracy))
mean_outcome = np.mean(outcomes)
print("Mean Accuracy: {0}".format(mean_outcome))
run_kfold(clf)
Fold 1 accuracy: 0.8111111111111111
Fold 2 accuracy: 0.8764044943820225
Fold 3 accuracy: 0.8089887640449438
Fold 4 accuracy: 0.8764044943820225
Fold 5 accuracy: 0.8314606741573034
Fold 6 accuracy: 0.8089887640449438
Fold 7 accuracy: 0.7865168539325843
Fold 8 accuracy: 0.7528089887640449
Fold 9 accuracy: 0.8764044943820225
Fold 10 accuracy: 0.8089887640449438
Mean Accuracy: 0.8238077403245943

6.4 测试模型

现在我们需要根据实际测试数据进行预测:

ids = data_test['PassengerId']
predictions = clf.predict(data_test.drop('PassengerId', axis=1))
output = pd.DataFrame({ 'PassengerId' : ids, 'Survived': predictions })
output.head()
PassengerId   Survived
0   892 0
1   893 1
2   894 0
3   895 0
4   896 1

我希望你喜欢这篇关于初学者的完整机器学习项目演练的文章。

7.使用Python进行文本摘要

文本摘要是创建包含原文最重要信息的特定文档摘要的过程,其目的是获得文档要点的摘要。在本文中,我将向您介绍一个关于Python文本摘要的机器学习项目。

7.1 文本摘要

有大量的数据以数字方式显示,因此有必要开发一种独特的程序来立即总结长文本,同时保持主要思想。文本摘要还可以缩短阅读时间,加快信息搜索速度,并获得尽可能多的关于一个主题的信息。

使用机器学习进行文本摘要的主要目标是将参考文本简化为较小的版本,同时保持其知识和含义。提供了多个文本摘要描述,例如,将报告解释为从一个或多个文档生成的文本,这些文档在第一个文本中传达了相关知识,这不超过正文的一半,通常比这更有限。

我希望您现在知道什么是文本摘要,以及为什么我们需要使用机器学习。在下面的部分中,我将带您完成一个有关Python文本摘要的机器学习项目。

7.2 使用Python进行文本摘要

现在,我将带您完成Python的文本摘要任务。我将首先导入必要的Python库:

import nltk
import string
from heapq import nlargest

我们不需要在这里使用大量的机器学习。我们可以轻松地总结文本,而无需训练模型。但是,我们仍然需要使用一些自然语言处理,为此,我将使用Python中的NLTK库。
现在让我们执行一些从文本中删除标点符号的步骤,然后我们需要执行一些文本处理步骤,最后,我们将简单地对文本进行标记,然后您可以看到使用Python进行文本摘要的结果:

text = "Enter Text to Summarize"
if text.count(". ") > 20:length = int(round(text.count(". ")/10, 0))
else:length = 1nopuch =[char for char in text if char not in string.punctuation]
nopuch = "".join(nopuch)processed_text = [word for word in nopuch.split() if word.lower() not in nltk.corpus.stopwords.words('english')]word_freq = {}
for word in processed_text:if word not in word_freq:word_freq[word] = 1else:word_freq[word] = word_freq[word] + 1max_freq = max(word_freq.values())
for word in word_freq.keys():word_freq[word] = (word_freq[word]/max_freq)sent_list = nltk.sent_tokenize(text)
sent_score = {}
for sent in sent_list:for word in nltk.word_tokenize(sent.lower()):if word in word_freq.keys():if sent not in sent_score.keys():sent_score[sent] = word_freq[word]else:sent_score[sent] = sent_score[sent] + word_freq[word]summary_sents = nlargest(length, sent_score, key=sent_score.get)
summary = " ".join(summary_sents)
print(summary)

上面的代码将为您提供需要存储在变量 “文本” 中的所需文本的摘要。

小白必看的经典机器学习入门项目相关推荐

  1. 小白必看!数据库自学入门教程,免费的SQL认证课程

    在数据库国产化浪潮下,你是否想尽快更新你的知识体系?好程序员整理了免费的SQL认证教程,方便大家按需选择学习,证明自己的实力,获得更多职场机会! 1.SQL数据分析- Udacity 2.SQL入i] ...

  2. micropython视频_零基础如何优雅入门“网红”Python?小白必看的MicroPython视频合集:从入门到精通!...

    零基础如何优雅入门"网红"Python?小白必看的MicroPython视频合集:从入门到精通! 若问时下最火的一门编程语言是什么?答案一定是Python. 就连高考都开始考Pyt ...

  3. centos7 mysql创建表_CentOS7 MySQL数据库入门 小白必看

    昨天网盾科技发布的一篇关于CentOS7配置ssh的文章,有很多小伙伴都收藏了,想必是对大家很有帮助,那么今天网盾科技再给大家分享一篇关于CentOS7配置MySQL数据库入门的文章,小白必看哟! l ...

  4. 雷霆h5服务器名称修改,雷霆传奇H5 修改思路教程(雷霆修改小白必看的入门教学)...

    雷霆传奇H5 修改思路教程(雷霆修改小白必看的入门教学) 这篇应该算是雷霆修改的大纲 适用于大部分的修改方法 依然是写给小白看的 大神直接略过 1.首先你得先准备两个工具 Notepad++和翻译 N ...

  5. 新手python爬虫代码_新手小白必看 Python爬虫学习路线全面指导

    爬虫是大家公认的入门Python最好方式,没有之一.虽然Python有很多应用的方向,但爬虫对于新手小白而言更友好,原理也更简单,几行代码就能实现基本的爬虫,零基础也能快速入门,让新手小白体会更大的成 ...

  6. 智能车小白必看,该竞赛相关宝贵经验+资源借鉴总结1

    文章目录 智能车小白必看,该竞赛相关宝贵经验+资源借鉴总结1 竞赛准备的大体流程 做智能车竞赛的宏观建议整合 摄像头组的具体建议 学习资源链接 后记 经验参考来源 智能车小白必看,该竞赛相关宝贵经验+ ...

  7. 2018年家用计算机推荐,【小白必看】2018年各价位笔记本电脑推荐!

    原标题:[小白必看]2018年各价位笔记本电脑推荐! 转眼就8月初了,马上就是一年一度的大学新生入学季了. 对于即将踏入大学校门的学生来说,笔记本电脑可以说是大学生活必不可少的电子产品. 但目前的笔记 ...

  8. 关于文件访问无权限,无法枚举容器内对象,访问被拒绝等问题的傻瓜式解决办法,超级简单,小白必看!

    关于文件访问无权限,无法枚举容器内对象,访问被拒绝等问题的傻瓜式解决办法,超级简单,小白必看! 以win10为例,其他windows系统原理基本相同 1.右键需要更改的文件夹-属性-安全-高级-权限, ...

  9. 消息队列 常见问题分析(小白必看)

    如果对消息队列的基础知识还不了解的话建议先阅读下文: 消息队列 基础入门(小白必看) 一.简介 很久以前也写过一篇关于消息队列的文章,这里的文章,这篇文章是对消息队列使用场景,以及一些模型做过一点介绍 ...

  10. 计算机硬件知识硬盘,DIY硬件知识:小白必看的硬盘基础知识大全

    硬盘是DIY硬件最为重要的存储设备,如果没有硬盘,虽然能够点亮机器,但是你不能进入系统并且保存任何资料文件.众所周知,目前主流的硬盘类型有两种,一种为机械硬盘,另一种为固态硬盘,固态硬盘是目前最流行的 ...

最新文章

  1. C程序演示产生僵死进程的过程
  2. 完美设置“Word表格中文字上下居中”
  3. 父类中“this” 指向问题
  4. 服务器被修改,我的世界
  5. 武汉网络推广优化中网站关键词如何更合理布局分布?
  6. 每个即将成为或想成为网络工程师最想看的文章
  7. python中的urlencode和urldecode的用法
  8. Android 利用sharepreference保存应用程序状态
  9. leetcode 622. Design Circular Queue | 622. 设计循环队列(Ring Buffer)
  10. java selenium用js点击_Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?...
  11. linux 查看ip_如何在 Linux 中查看可用的网络接口 | Linux 中国
  12. android快速搭建界面,怎么样能快速搭建一个Android APP的界面和框架?
  13. 写给大家看的设计模式
  14. Rasa 3.x 学习系列-Rasa 3.1+ ElasticSearch 8.2.0 对话机器人实战六
  15. android 动态磁贴,善用动态磁贴和Xbox游戏
  16. 全国计算机考试上传不了照片,报考2018计算机等级考试对上传照片有何要求?...
  17. 计算机无法连接因特网络,有网但是无法连接到internet
  18. layer的btn按钮
  19. 程序员去哪接私活?分享10个兼职平台,人已赚麻
  20. 数学之美--数学大师与漂亮的分形几何学

热门文章

  1. 【Websocket编程】基于libwebsockets实现客户端数据通信
  2. 数据库实验五-数据库设计实验
  3. 用envi裁剪下来的图像是黑色的_ENVI进行图像裁剪.doc
  4. ENVI5.2裁剪遥感图像指定区域
  5. 卸载vuecli3_针对遇到安装或卸载vue-cli失败的解决方案
  6. 《Using OpenRefine》翻译~17
  7. C++无法打开库文件/无法打开源文件
  8. UE4 C++无法打开包括文件 C1083
  9. opencms mysql_IDO分享 | 如何在centos下安装OpenCMS
  10. 自己写的一个GPS卫星地图