srilm 阅读文档15
文档作者:jianzhu
修改时间: 08.12.15-08.12.17
修正了原文档中存在的一些错误,并扩充了部分内容;
阅读该文档前,建议先阅读srilm的ngram-discount.7.html手册
或者查看jianzhu的翻译文档Ngram折扣平滑算法
--------------
1、基本类
--------------
Discount.h Discount.cc 这两个文件主要实现了最重要的几个折扣算法, 包括
a. Katz Discount (基于 Good-Turing Discounting)
b. Absolute Discounting
c. Natural law of succession [Eric Sven Ristad, 1995]
d. Additive Discounting [Lidstone-Johnson-Jeffrey]
e Witten-Bell Discounting
f. Kneser-Ney Discounting
g. Modified Kneser-Ney Discounting, [Chen, Goodman, 1998]
2、类接口说明
----------------
class Discount
{
public:
/**
* @brief 构造函数
* 通过成员初始化列表的方式将interpolate初始化为false,表示不支持插值平滑
*/
Discount() : interpolate(false) {};
virtual ~Discount() {};
/* 使用折扣算法, 返回频率 count 对应的折扣系数
* @param count 当前 ngram 频率 ( C(a_z) )
* @param totalCount 历史 n-1gram 频率 ( C(a_) )
* @param oberservedVocab 语料中统计到的历史ngram a_ 后接的 z 的类型数
* */
virtual double discount(Count count, Count totalCount, Count observedVocab);
virtual double discount(FloatCount count, FloatCount totalCount,
Count observedVocab);
*
* @param min2Vocab 频率>=2 的ngram type 数目
* @param min3Vocab 频率>=3 的ngram type 数目
* */
virtual double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab);
virtual double lowerOrderWeight(FloatCount totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab);
virtual Boolean nodiscount();
virtual void write(File &file);
virtual Boolean read(File &file);
*
* @param counts ngram 计数器
* @param order 对 order 阶ngram 进行平滑计算
* */
virtual Boolean estimate(NgramStats &counts, unsigned order);
virtual Boolean estimate(NgramCounts<FloatCount> &counts, unsigned order);
virtual void prepareCounts(NgramCounts<NgramCount> &counts,
unsigned order, unsigned maxOrder);
virtual void prepareCounts(NgramCounts<FloatCount> &counts,
unsigned order, unsigned maxOrder);
Boolean interpolate;
protected:
static unsigned vocabSize(Vocab &vocab);
};
<src>
class GoodTuring: public Discount
{
public:
/* 构造函数,该构造函数中并未修改从父类继承的interploate值,
* 因此interpolate为false,表示不支持插值平滑
*/
GoodTuring(unsigned mincount = GT_defaultMinCount,
unsigned maxcount = GT_defaultMaxCount);
/* 折扣系数估算函数
* jianzhu added 2008-12-15
*/
Boolean estimate(NgramStats &counts, unsigned order);
/* 小于该值的频率将被设置为 0 */
Count minCount;
Count maxCount;
Array<double> discountCoeffs;
};
</src>
a. 该函数实现标准的基于图灵平滑的 Katz 平滑算法
b. 图灵平滑算法为 r* = (r + 1) * n_(r+1) / n_r, Katz 平滑算法如下
r_katz = |-- r (r > k)
|-- alpha (r = 0)
commonTerm = (k+1) * n_(k+1) / n_1
<src>
Boolean
GoodTuring::estimate(NgramStats &counts, unsigned order)
{
Array<Count> countOfCounts;
* First tabulate count-of-counts for the given order of ngrams
* Note we need GT count for up to maxCount + 1 inclusive, to apply
* the GT formula for counts up to maxCount.
*/
makeArray(VocabIndex, wids, order + 1);
NgramCount *count;
Count i;
countOfCounts[i] = 0;
}
if (counts.vocab.isNonEvent(wids[order - 1])) {
continue;
} else if (counts.vocab.isMetaTag(wids[order - 1])) {
unsigned type = counts.vocab.typeOfMetaTag(wids[order - 1]);
* process count-of-count
*/
if (type > 0 && type <= maxCount + 1) {
countOfCounts[type] += *count;
}
} else if (*count <= maxCount + 1) {
countOfCounts[*count] ++;
}
}
dout() << "Good-Turing discounting " << order << "-grams/n";
for (i = 0; i <= maxCount + 1; i++) {
dout() << "GT-count [" << i << "] = " << countOfCounts[i] << endl;
}
}
cerr << "warning: no singleton counts/n";
maxCount = 0;
}
cerr << "warning: count of count " << maxCount + 1 << " is zero "
<< "-- lowering maxcount/n";
maxCount --;
}
cerr << "GT discounting disabled/n";
} else {
double commonTerm = (maxCount + 1) *
(double)countOfCounts[maxCount + 1] /
(double)countOfCounts[1];
double coeff;
cerr << "warning: count of count " << i << " is zero/n";
coeff = 1.0;
} else {
double coeff0 = (i + 1) * (double)countOfCounts[i+1] /
(i * (double)countOfCounts[i]);
coeff = (coeff0 - commonTerm) / (1.0 - commonTerm);
if (!finite(coeff) || coeff <= Prob_Epsilon || coeff0 > 1.0) {
cerr << "warning: discount coeff " << i
<< " is out of range: " << coeff << "/n";
coeff = 1.0;
}
}
discountCoeffs[i] = coeff;
}
}
}
</src>
功能:估算NgramStats中特定元数(order)的,从1到maxCount的所有折扣系数,并
将该折扣系数保存到discountCoeffs数组中
细解:
注:阅读以下部分,如有疑问可以参考srilm ngram-discount.7.html文档,或jianzhu的
Ngram折扣平滑算法翻译文档。另外关于katz的折扣计算公式可以参考speech and language
processing一书的第四章 N-GRAMS
commonTerm = (maxCount + 1) * (double)countOfCounts[maxCount+1]/(double)countOfCounts[1];
这里:
commonTerm -- A
maxCount -- gtmax
countOfCounts[maxCount+1] -- countOfCounts[gtmax+1] -- n[gtmax+1]
countOfCounts[1] -- n[1]
A = (gtmax+1)*(double)n[gtmax+1]/(double)n[1]
这里:
i -- c(a_z)
i+1 -- c(a_z)+1
countOfCounts[i+1] -- n[c(a_z)+1]
countOfCounts[i] -- n[c(a_z)]
因此
coeff0 = (c(a_z)+1) * (double)n[c(a_z)+1]/(c(a_z) * (double)n[c(a_z)])
= [ (c(a_z)+1) * (double)n[c(a_z)+1]/(c(a_z) * (double)n[c(a_z)])
- (gtmax+1)*(double)n[gtmax+1]/(double)n[1] ] / [ 1.0 - (gtmax+1)*(double)n[gtmax+1]/(double)n[1] ]
C' = [ (c(a_z)+1) * (double)n[c(a_z)+1]/(double)n[c(a_z)]
- c(a_z)*(gtmax+1)*(double)n[gtmax+1]/(double)n[1] ] / [ 1.0 - (gtmax+1)*(double)n[gtmax+1]/(double)n[1] ]
又因为有coeff = C'/C,因为目标为 C * coeff -> C'
class ConstDiscount: public Discount
{
public:
double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab)
{ return _discount * observedVocab / totalCount; }
/* 打折的常数项 */
double _discount;
double _mincount;
};
说明:
a. 此折扣算法即为 Absolute Discounting
b. 算法思想就是对每个频数count, 将其减去一个常数 _discount, _discount介于
0和1之间,所以变为 (count - _discount), 则折扣系数为 (count-_discount) / count
c. 常数_discount一般设为
_discount = n1 / (n1 + 2*n2)
上式中
n1代表出现次数为1次的ngram数目
n2代表出现次数为2次的ngram数目
<src>
double discount(Count count, Count totalCount, Count observedVocab)
{
return (count <= 0) ? 1.0 :
(count < _mincount) ? 0.0 :
(count - _discount) / count; };
</src>
功能:上述函数用于返回频数为count的ngram的折扣系数
1) 若count <= 0 则返回折扣系数1.0,表示不折扣
2) 若count < _mincount 则返回折扣系数0.0,表示将该频数折扣为0
3) 否则根据公式 (count - _discount) / count 计算折扣系数并返回。
<src>
double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab)
{
return _discount * observedVocab / totalCount;
}
</src>
功能:计算用于估算插值平滑时,低阶ngram权重的函数
为了理解该函数,可以参考Ngram折扣平滑算法文档中Ney的绝对折扣算法这一部分
bow(a_) = 1 - Sum_Z1 g(a_z) ; Eqn.5
= D n(a_*) / c(a_)
因此 _discount -- D
n(a_*) -- observedVocab
c(a_) -- totalCount
interpolate设为true的函数,后面的其他折扣算法类也有同样的问题,我猜测可能是
因为父类存在lowerOrderWeight函数,而且返回为0.0,若子类未重新定义该函数,则
沿用父类中的函数,直接返回0.0,表示不支持插值平滑。
2.4) NaturalDiscount 类主要接口
class NaturalDiscount: public Discount
{
public:
unsigned _vocabSize; /* vocabulary size */
double _mincount; /* minimum count to retain */
};
</src>
a. 此平滑算法为 Natural law of succession [Eric Sven Ristad, 1995]
b. 算法思想就是对每个频率count, 使用如下固定的平滑系数
d = ( n(n+1) + q(1-q) ) / ( n^2 + n + 2q )
其中 n 为 totalCount(总频率), q 为 observedVocab(ngram type 数)
该类中用于估算折扣系数的函数
<src>
double
NaturalDiscount::discount(Count count, Count totalCount, Count observedVocab)
{
double n = totalCount;
double q = observedVocab;
return 0.0;
} else if (q == _vocabSize) {
return 1.0;
} else {
return (n * (n+1) + q * (1 - q)) / (n * (n + 1) + 2 * q);
}
}
</src>
功能:上述函数用于返回频数为count的ngram的折扣系数
1) 若count 小于_mincount值,则返回折扣系数0.0,表示将该频数折扣为0
2) n 和 q 介绍
要理解这里的 n 和 q 首先需要了解一下Natural Discount的公式
该公式如下表示
c(a_)(c(a_) + 1) + n(a_*)(1 - n(a_*))
---------------------------------------
c(a_)^2 + c(a_) + 2 n(a_*)
因此 n 就相当于上述公式中的c(a_),q 相当于上述公式中的 n(a_*)
因此 n 就相当于所有出现的n元 c(a_*) token的频数和
q 就相当于所有出现的n元 c(a_*) 中 * 这个词的种类数,即不同
的n元 c(a_*)的个数
2.5) AddSmooth 类主要接口
class AddSmooth: public Discount
{
public:
AddSmooth(double delta = 1.0, unsigned mincount = 0)
: _delta(delta < 0.0 ? 0.0 : delta),
_mincount(mincount) {};
double _mincount; /* minimum count to retain */
unsigned _vocabSize; /* vocabulary size */
};
a. 此平滑算法为 Additive smoothing, 可以视为 Laplace add 1 smoothing 的扩展
b. 算法思想就是对每个频率c, 使用如下方法计算概率
p = (c + delta) / (T + N * delta)
其中 T 为 totalCount(总频率), N 为 _vocabSize(ngram 中包含的不同词条数)
由此, 折扣系数为
计算折扣系数的函数
<src>
double discount(Count count, Count totalCount, Count observedVocab)
{
return (count <= 0) ?
1.0 : (count < _mincount) ?
0.0 : (1.0 + _delta/count) / (1.0 + _vocabSize*_delta/totalCount);
}
</src>
功能:上述函数用于返回频数为count的ngram的折扣系数
1) 若count <= 0,则返回1.0,表示不做任何折扣
2) 若count < _mincount,这返回0.0,表示将频数折扣为0
3) 否则返回(1.0 + _delta/count) / (1.0 + _vocabSize*_delta/totalCount)
上述公式即为中count 即为c(a_z),totalCount即为c(a_)。c(a_) 即为所有
c(a_*)的叠加,_vocabSize即为所有n元包含的不同词条数。
2.6) Witten-Bell 折扣算法
class WittenBell: public Discount
{
public:
WittenBell(unsigned mincount = 0) : _mincount(mincount) {};
/** 用于估算回退平滑时的折扣系数 */
double discount(Count count, Count totalCount, Count observedVocab);
/** 用于估算插值平滑时,计算低阶ngram权重的函数 */
double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab);
protected:
/* 低于此频数的频数被置为0 */
double _mincount; /* minimum count to retain */
};
<src>
double discount(Count count, Count totalCount, Count observedVocab)
{
return (count <= 0) ? 1.0 : (count < _mincount) ? 0.0 :
((double)totalCount / (totalCount + observedVocab));
}
</src>
功能:估算回退平滑时的折扣系数
1) 当count <= 0 时,直接返回1.0表示不做折扣计算
2) 当count < _mincount时,直接返回0.0,表示折扣为0
3) 否则witten-bell回退平滑下有如下概率折扣计算公式
f(a_z) = c(a_z) / (n(a_*) + c(a_)) (参考Ngram折扣平滑算法文档)
上式中c(a_z)相当于count,n(a_*)相当于observedVocab,c(a_)相当于totalCount
又因为p(a_z) = c(a_z)/c(a_),因此有f(a_z)*c(a_) = c'(a_z),这里的c'(a_z)
为折扣以后的频数值,因此有:
c'(a_z) = c(a_z)*c(a_) / (n(a_*) + c(a_))
又因为折扣系数d
d = c'(a_z)/c(a_z) = c(a_) / (n(a_*) + c(a_))
= ((double)totalCount / (totalCount + observedVocab))
<src>
double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab)
{
return (double)observedVocab / (totalCount + observedVocab);
}
</src>
功能:用于插值平滑时,计算低阶ngram权重的函数
witten-bell插值平滑下,低阶权重有如下估算公式:
bow(a_) = n(a_*) / (n(a_*) + c(a_)) (参考Ngram折扣平滑算法文档)
上式中n(a_*)相当于observedVocab,c(a_)相当于totalCount,因此有:
(double)observedVocab / (totalCount + observedVocab)
class KneserNey: public Discount
{
public:
/** 用于估算回退平滑时的折扣系数 */
virtual double discount(Count count, Count totalCount, Count observedVocab);
/** 用于估算插值平滑时,计算低阶ngram权重的函数 */
virtual double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab);
virtual Boolean estimate(NgramStats &counts, unsigned order);
/* 低于此数值的频数将被设为0 */
Count minCount;
/* 折扣常数 */
double discount1;
};
<src>
Boolean
KneserNey::estimate(NgramStats &counts, unsigned order)
{
if (!prepareCountsAtEnd) {
prepareCounts(counts, order, counts.getorder());
}
* First tabulate count-of-counts
*/
Count n1 = 0;
Count n2 = 0;
NgramsIter iter(counts, wids, order);
NgramCount *count;
if (counts.vocab.isNonEvent(wids[order - 1])) {
continue;
} else if (counts.vocab.isMetaTag(wids[order - 1])) {
unsigned type = counts.vocab.typeOfMetaTag(wids[order - 1]);
* process count-of-count
*/
if (type == 1) {
n1 ++;
} else if (type == 2) {
n2 ++;
}
} else if (*count == 1) {
n1 ++;
} else if (*count == 2) {
n2 ++;
}
}
dout() << "Kneser-Ney smoothing " << order << "-grams/n"
<< "n1 = " << n1 << endl
<< "n2 = " << n2 << endl;
}
cerr << "one of required KneserNey count-of-counts is zero/n";
return false;
}
dout() << "D = " << discount1 << endl;
}
prepareCounts(counts, order, counts.getorder());
}
return true;
}
</src>
功能:根据Kneser-Ney折扣常数计算公式有:
D = n1 / (n1 + 2*n2) (参考Ngram折扣平滑算法文档)
上式中:
D为discount1
n1代表出现次数为1次的ngram数目
n2代表出现次数为2次的ngram数目
<src>
double
KneserNey::discount(Count count, Count totalCount, Count observedVocab)
{
if (count <= 0) {
return 1.0;
} else if (count < minCount) {
return 0.0;
} else {
return (count - discount1) / count;
}
}
</src>
功能:估算回退平滑时的折扣系数
1) 当count <= 0 时,直接返回1.0表示不做折扣计算
2) 当count < _mincount时,直接返回0.0,表示折扣为0
3) 否则根据Knesery-Ney的回退平滑时对应的折扣概率计算公式
f(a_z) = (c(a_z) - D0) / c(a_) (参考Ngram折扣平滑算法文档)
上式中c(a_z)相当于count, D0相当于discount1,c(a_)相当于totalCount
又因为p(a_z) = c(a_z)/c(a_),因此有c(a_) * f(a_z)= c'(a_z),这里的c'(a_z)
为折扣以后的频数值,因此有:
c'(a_z) = c(a_) * (c(a_z) - D0) / c(a_) = (c(a_z) - D0)
又因为折扣系数d
d = c'(a_z)/c(a_z) = (c(a_z) - D0)/ c(a_z)
= (count - discount1) / count;
估算插值平滑时,计算低阶ngram权重的函数
<src>
double
KneserNey::lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab)
{
return (discount1 * observedVocab / totalCount);
}
</src>
功能:估算插值平滑时,计算低阶ngram权重
根据Kneser-Ney插值平滑时对应的低阶ngram权重计算公式:
bow(a_) = D n(a_*) / c(a_)
上式中 D 相当于discount1,n(a_*)相当于observedVocab
c(a_)相当于totalCount。因此有
bow(a_) = (discount1 * observedVocab / totalCount)
class ModKneserNey: public KneserNey
{
public:
/** 估算回退平滑时的折扣系数的函数 */
double discount(Count count, Count totalCount, Count observedVocab);
/** 估算插值平滑时,计算低阶ngram权重的函数 */
double lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab);
/** 用于估算Modified Kneser-Ney平滑算法中的三个常数 */
Boolean estimate(NgramStats &counts, unsigned order);
protected:
/** 除discount1之外的其他两个discount参数 */
double discount2;
double discount3plus;
};
<src>
Boolean
ModKneserNey::estimate(NgramStats &counts, unsigned order)
{
if (!prepareCountsAtEnd) {
prepareCounts(counts, order, counts.getorder());
}
* First tabulate count-of-counts
*/
Count n1 = 0;
Count n2 = 0;
Count n3 = 0;
Count n4 = 0;
NgramsIter iter(counts, wids, order);
NgramCount *count;
if (counts.vocab.isNonEvent(wids[order - 1])) {
continue;
} else if (counts.vocab.isMetaTag(wids[order - 1])) {
unsigned type = counts.vocab.typeOfMetaTag(wids[order - 1]);
* process count-of-count
*/
if (type == 1) {
n1 ++;
} else if (type == 2) {
n2 ++;
} else if (type == 3) {
n3 ++;
} else if (type == 4) {
n4 ++;
}
} else if (*count == 1) {
n1 ++;
} else if (*count == 2) {
n2 ++;
} else if (*count == 3) {
n3 ++;
} else if (*count == 4) {
n4 ++;
}
}
dout() << "Kneser-Ney smoothing " << order << "-grams/n"
<< "n1 = " << n1 << endl
<< "n2 = " << n2 << endl
<< "n3 = " << n3 << endl
<< "n4 = " << n4 << endl;
}
cerr << "one of required modified KneserNey count-of-counts is zero/n";
return false;
}
* Compute discount constants (Ries 1997, Chen & Goodman 1998)
*/
double Y = (double)n1/(n1 + 2 * n2);
discount2 = 2 - 3 * Y * n3 / n2;
discount3plus = 3 - 4 * Y * n4 / n3;
dout() << "D1 = " << discount1 << endl
<< "D2 = " << discount2 << endl
<< "D3+ = " << discount3plus << endl;
}
cerr << "one of modified KneserNey discounts is negative/n";
return false;
}
prepareCounts(counts, order, counts.getorder());
}
return true;
}
</src>
功能:估算Modified Kneser-Ney平滑算法中的三个常数 discount1 discount2 discount3plus
根据Modified Kneser-Ney折扣平滑算法这个三个常数的计算公式,有:
Y = n1/(n1+2*n2)
D1 = 1 - 2Y(n2/n1)
D2 = 2 - 3Y(n3/n2)
D3+ = 3 - 4Y(n4/n3)
上述等式中D1相当于discount1,D2相当于discount2,D3相当于discount3plus,因此
该函数的主要用于统计n1、n2、n3、n4这个几个常数,并根据其计算获得discount1,discount2
和discount3plus。
<src>
double
ModKneserNey::discount(Count count, Count totalCount, Count observedVocab)
{
if (count <= 0) {
return 1.0;
} else if (count < minCount) {
return 0.0;
} else if (count == 1) {
return (count - discount1) / count;
} else if (count == 2) {
return (count - discount2) / count;
} else {
return (count - discount3plus) / count;
}
}
</src>
功能:估算回退平滑时的折扣系数
1) 当count <= 0 时,直接返回1.0表示不做折扣计算
2) 当count < _mincount时,直接返回0.0,表示折扣为0
3) 由于当前为Modified Kneser-Ney算法,所以对于
count为1的ngram其概率值存在如下计算公式
f(a_z) = (c(a_z) - D1) / c(a_) (参考Ngram折扣平滑计算文档)
上式中c(a_z)相当于count,D1相当于discount1,c(a_)相当于totalCount
又因为p(a_z) = c(a_z)/c(a_),因此有c(a_) * f(a_z)= c'(a_z),这里的c'(a_z)
为折扣以后的频数值,因此有:
c'(a_z) = c(a_) * (c(a_z) - D1) / c(a_) = (c(a_z) - D1)
又因为折扣系数d
d = c'(a_z)/c(a_z) = (c(a_z) - D1)/ c(a_z)
= (count - discount1) / count;
对于count为2的ngram其概率值存在如下计算公式
f(a_z) = (c(a_z) - D2) / c(a_) (参考Ngram折扣平滑计算文档)
因此通过和上面类似的推导,可得:
d = (count - discount2) / count;
对于count为3和大于3的ngram其概率值存在如下计算公式
f(a_z) = (c(a_z) - D3+) / c(a_) (参考Ngram折扣平滑计算文档)
因此通过和上面类似的推导,可得:
d = (count - discount3plus) / count;
估算插值平滑时,计算低阶ngram权重的函数
<src>
double
ModKneserNey::lowerOrderWeight(Count totalCount, Count observedVocab,
Count min2Vocab, Count min3Vocab)
{
return (discount1 * (observedVocab - min2Vocab) +
discount2 * (min2Vocab - min3Vocab) +
discount3plus * min3Vocab) / totalCount;
}
</src>
功能:估算插值平滑时,计算低阶ngram权重
根据Modified Kneser-Ney插值平滑对应的低阶ngram权重计算公式,有:
(discount1 * (observedVocab - min2Vocab) +
discount2 * (min2Vocab - min3Vocab) +
discount3plus * min3Vocab) / totalCount;
关于该计算公式Ngram折扣平滑算法中并无详细说明,因此目前还无法
得知该公式的正确性。
srilm 阅读文档15相关推荐
- srilm 阅读文档9
Prob.h Prob.cc 文档作者:jianzhu 创立时间:08.09.11 -------------------------------------- 1.概述 -------------- ...
- activiti 7中文文档_如何阅读文档-以Pandas库为例
阅读文档指南-以Pandas为例 0.1相信文档 有时候我们并不完全知道该如何阅读文档,甚至不会读文档.遇到问题只会到百度上查找解决,百度上答案你抄我我抄你,简单问题反复重复,复杂问题无人问津. 这儿 ...
- 阅读文档时遇到的英文单词 -Words in Documents
阅读文档时遇到的英文单词 - Words in Documents 本文记录在阅读文档时的一些单词,借此提高英文阅读水平 (持续更新) 本文记录在阅读文档时的一些单词,借此提高英文阅读水平 Treat ...
- 开发的阅读文档来源灵感
开发的阅读文档来源于网络,同时开发技术则核心来源于官方的英文文档,规范而系统,细读则益处多多. 分类: 项目管理 本文转自快乐就好博客园博客,原文链接:http://www.cnblogs.com/h ...
- Java8 API在线中文阅读文档
Java8 API在线中文阅读文档 Java8 API chm格式 链接: https://pan.baidu.com/s/1vvxrBtf0we0Y6Q19q0k2Yw 提取码: etnw
- 仿百度文档豆丁在线阅读文档
仿百度文档在线阅读文档 最近在做一个在线培训的项目有一个功能需要在线阅服务器上的文档,自己想做一个类似百度问库一样的在线阅读器,找了很多资料最后找到一个很好决绝方案,很多牛人都在博客园里发表了些了一些 ...
- zynq阅读文档之通过中断读GPIO输入的编程指导
ug585的14.3.4中给了从GPIO输入引脚读数据的第二种方法--中断 把MIO引脚12配置成上升沿中断 把触发类型设置为上升沿 向中断类型寄存器写1设置为边沿触发,INT_TYPE_0 [12] ...
- IPad GoodReader阅读文档实现即点即译取词在线翻译
最近需要用在IPad上读些英文的pdf文档,如果IPad上能像用电脑电脑一样即点即译就太方便了.我想要的即点即译取词翻译这个功能在安卓上已经有pdf阅读软件可以实现了,无奈安卓手机屏幕大小有限,实在没 ...
- PhysX3.4文档(15) -- Vehicles
Vehicles Introduction PhysX对车辆的支持在3.x中得到了显着的重新设计.为了取代 NxWheelShape 类 2.8.x,已经开发出核心 PhysX SDK 和车辆仿真代码 ...
最新文章
- springMVC项目国际化(i18n)实现方法
- 触摸屏mtp文件转c语言,F28335与上位机(触摸屏)之间的通讯遵循modbus协议使用C语言编程...
- Building COM Objects in C#
- nginx-rtmp常用指令
- idea错误提示不明显_微信公众号扫一扫功能提示:10003 redirect_uri域名与后台配置不一致错误解决方案...
- 光线求交加速算法:kd-树
- pyspark 手写Apriori算法
- poj1847 最短路
- redo log 和undo log_MySQL 持久化保障机制-redo 日志
- jquery-weui的学习与使用
- 视频解码测试软件,视频解码:视频解码性能测试_平板电脑评测-中关村在线
- Illustrator CS3自学实例高清视频教程
- c++win32项目 如何显示后再删除一个绘图_以weblogic为中间件,部署一个项目,需如何做?...
- XTU 1148 三角形
- js闭包循环原因_「js基础」JavaScript入门,难不难你来说
- 「金融科技50+」新网银行李秀生:第三次金融业信息技术革新
- 步进电机五根线怎么接_第一讲:老冯三分钟教会你步进电机接线
- HED边缘检测:Holistically-nested Edge Detection 解读
- Nand Flash 通过调整阈值的Retry方法简单描述
- 【Cadence17.2】Padstack Editor制作焊盘和过孔
热门文章
- 压缩算法在单片机升级中的应用
- 阿里再爆调整组织架构;苹果秘密研究卫星传输iPhone数据,想摆脱运营商网络;联发科天玑1000:首款采用4颗A77的芯片……...
- win10远程桌面连接计算机密码错误,win10远程桌面连接不上怎么办?windows10远程桌面连接不上的解决方法...
- 《象与骑象人》摘要及一点想法
- 清除linux挖矿木马[crypto]的过程
- 搭建springcloud微服务下的网关Netfilx Zuul
- 诺基亚5310XM基本属性
- 使用交叉编译工具链编译并调试linux内核
- 西北乱跑娃 -- mysql常用操作命令
- 西北乱跑娃 -- python识别二维码