UCAS - AI学院 - 自然语言处理专项课 - 第8讲 - 课程笔记
UCAS-AI学院-自然语言处理专项课-第8讲-课程笔记
- 句法分析·短语结构分析
- 概述
- 线图分析法
- CYK分析法
- 基于PCFG的分析法
- 句法分析性能评估
- 局部句法分析
- 句法分析·依存句法分析
- 概述
- 依存关系分析方法
- 依存关系分析性能评估
- 短语结构与依存关系
- 基于深度学习的句法分析
- 英汉句法结构特点对比
句法分析·短语结构分析
概述
- 完全句法分析:获得句子完整的句法分析树
- 目标:实现高准确率、高鲁棒性、快速句子结构自动分析过程
- 困难:结构歧义(Catalan Number)
- 基本方法
- CFG规则分析方法
- 线图分析
- CYK
- Earley
- LR / Tomita
- PCFG规则分析方法
- NN改进的分析方法
- CFG规则分析方法
线图分析法
- 三种策略
- bottom-up:词到句子的规约
- top-down:句子到词的推导
- combining
- 自底向上Chart分析算法
- 给定一组CFG规则
- 给定一个句子的词性序列(保留多个词性)
- 构造一个线图(结点和边的组合,边为对应词的词性)
- 建立一个二维表(每一条边的起始和终止)
- 操作:查看任意相邻几条边上的词性串是否与某条重写规则右部相同,则增加一条跨边,标记为重写规则的左部,直到没有新的边产生
- 点规则:用于表示规则右部被归约的程度
- 活性边:规则右部未被完全匹配
- 非活性边:规则右部完全匹配
- 数据结构
- 线图Chart:分析过程中已经建立的成分、位置,n×nn \times nn×n数组
- 代理表Ageda:重写规则代表的成分,栈或者队列
- 活动边集Active Arc:未完全匹配的处理规则,数组或者列表
- 算法P28
- 时间复杂度分析
- CCC式非终结符数目,nnn为句子长度,SSS为点规则状态数目
- Agenda表中最大元素个数Cn2C n^2Cn2
- Active Arc表中最大元素个数Sn2S n^2Sn2
- Chart表中最大元素个数Cn2C n^2Cn2
- 操作·非终结符插入到Agenda表,最多CCC次(规则个数)
- 操作·取出Agenda表中的一个元素,最多1次操作
- 操作·每条规则加入Active Arc表,最多Sn2S n^2Sn2次操作
- 操作·扩展弧·非终结符插入Chart表,最多1次操作
- 操作·扩展弧·将扩展的活动便插入Agenda表,最多Sn2S n^2Sn2次操作
- 操作·扩展弧·扩展点规则插入Active Arc表,最多Sn2S n^2Sn2次操作
- 每处理一个单词,需要最多操作数2+C+3Sn22 + C + 3 S n^22+C+3Sn2
- 对整个句子,总最大操作数n×(2+C+3Sn2)n \times (2 + C + 3 S n^2)n×(2+C+3Sn2)
- 时间复杂度O(Kn3)O(K n^3)O(Kn3)
- 优点:简单易于实现
- 弱点:效率低、需要高质量规则、难以区分歧义结构(可以得到多个分析结果,但是无法确定哪个是对的)
CYK分析法
- 算法
- 对Chomsky文法进行规范化
- A→wA \to wA→w,标记
- A→BCA \to BCA→BC,多标记展开
- 自下而上的分析方法
- (n+1)×(n+1)(n + 1) \times (n + 1)(n+1)×(n+1)识别方阵,nnn为句子长度
- 对Chomsky文法进行规范化
- 识别矩阵构成
- 主对角线以下全部为0
- 主对角线以上由文法GGG的非终结符狗哼
- 主对角线上元素由句子终结符构成
- 识别矩阵构造
- t0,0=0t_{0, 0}=0t0,0=0,从t1,1t_{1,1}t1,1到tn,nt_{n, n}tn,n放入单词wiw_iwi
- 靠主对角线元素ti,i+1t_{i, i+1}ti,i+1,开始分析
- 对规则A→w1A \to w_1A→w1,那么t0,1=At_{0, 1} = At0,1=A
- 后续以此类推,沿平行主对角线方向推导(无规则可用时,直接复制没分析的那一项)
- 对规则A→BCA \to BCA→BC,B∈ti,kB \in t_{i,k}B∈ti,k,C∈tk,jC \in t_{k, j}C∈tk,j,则ti,j=At_{i, j} = Ati,j=A
- 句子由GGG生成,当且仅当t0,n=St_{0, n} = St0,n=S
- 优点:实现简单,执行效率高
- 缺点:需要对文法范式化处理,无法区分歧义
基于PCFG的分析法
概率上下文无关文法
- A→α,pA \to \alpha, \ pA→α, p
- ∑αp(A→α)=1\sum_\alpha p(A \to \alpha) = 1∑αp(A→α)=1
计算分析数概率的基本假设
- 位置不变性:子树的概率与其管辖的词在句子中的位置无关
- 上下文无关性:子树概率与管辖范围以外的词无关
- 祖先无关性:子树概率推导与子树祖先结点无关
将子树视为独立事件,子树概率计算可以使用其包含子树概率连乘得到
三个问题
- 给定句子WWW和PCFGGGG,快速计算p(W∣G)p(W|G)p(W∣G)
- 给定句子WWW和PCFGGGG,快速选择最佳句法结构树
- 给定句子WWW和PCFGGGG,调节GGG使p(W∣G)p(W | G)p(W∣G)最大
假设文法只有两种形式(规范化,Chomsky范式)
- A→wA \to wA→w,标记
- A→BCA \to BCA→BC,多标记展开
快速计算句法树概率:内向或外向算法
- 内向算法:动态规划,计算由非终结符AAA推导出字串片段wi…wjw_i \dots w_jwi…wj的概率αij(A)\alpha_{ij}(A)αij(A),而句子的概率则是由SSS推导出字串的概率α1n(S)\alpha_{1n}(S)α1n(S)
- αij(A)=p(A⇒∗wi…wj)\alpha_{ij}(A) = p(A \Rightarrow^\ast w_i \dots w_j)αij(A)=p(A⇒∗wi…wj)
- 递推公式:αii(A)=p(A→wi)\alpha_{ii}(A) = p(A \to w_i)αii(A)=p(A→wi)
- 递推公式:αij(A)=∑B,C∈VN∑i≤k≤jp(A→BC)αik(B)α(k+1)j(C)\alpha_{ij}(A) = \sum_{B,C \in V_N} \sum_{i \le k \le j} p(A \to BC) \alpha_{ik}(B) \alpha_{(k+1)j}(C)αij(A)=∑B,C∈VN∑i≤k≤jp(A→BC)αik(B)α(k+1)j(C)
- 初始化:αii(A)\alpha_{ii}(A)αii(A)
- 归纳计算:j=1…n,i=1…n−jj = 1 \dots n,\ i = 1 \dots n - jj=1…n, i=1…n−j,计算αi(i+j)(A)\alpha_{i(i + j)}(A)αi(i+j)(A)
- 终止:p(S⇒∗w1…wn)=α1n(S)p(S \Rightarrow^\ast w_1 \dots w_n) = \alpha_{1n}(S)p(S⇒∗w1…wn)=α1n(S)
- 内向归纳,自底向上
- 外向算法:外箱变量βij(A)\beta_{ij}(A)βij(A)是由文法初始符号SSS推导语句WWW的过程中,到达扩展符号串w1…wi−1Awj+1wnw_1 \dots w_{i - 1} A w_{j + 1} w_nw1…wi−1Awj+1wn的概率
- βij(A)=p(S⇒∗w1…wi−1Awj+1wn)\beta_{ij}(A) = p(S \Rightarrow^\ast w_1 \dots w_{i - 1} A w_{j + 1} w_n)βij(A)=p(S⇒∗w1…wi−1Awj+1wn)
- βij(A)=∑B,C∑k>jβik(B)p(B→AC)α(j+1)k(C)+∑B,C∑k<iβik(B)p(B→CA)αk(i−1)(C)\beta_{ij}(A) = \sum_{B,C} \sum_{k \gt j} \beta_{ik}(B) p(B \to AC) \alpha_{(j + 1)k}(C) + \sum_{B,C} \sum_{k \lt i} \beta_{ik}(B) p(B \to CA) \alpha_{k(i - 1)}(C)βij(A)=∑B,C∑k>jβik(B)p(B→AC)α(j+1)k(C)+∑B,C∑k<iβik(B)p(B→CA)αk(i−1)(C)
- 推导到BBB的概率,乘上扩展BBB的概率,再乘上扩展另外一侧到字串的概率
- 表示除了AAA为根节点的子树以外的概率
- 初始化:β1n(A)=δ(A,S)\beta_{1n}(A) = \delta(A, S)β1n(A)=δ(A,S)
- 归纳计算:j=n−1…0,i=1…n−jj = n-1 \dots 0,\ i = 1 \dots n - jj=n−1…0, i=1…n−j,计算βi(i+j)(A)\beta_{i(i + j)}(A)βi(i+j)(A)
- 终止:p(S⇒∗w1…wn)=∑Aβii(A)p(A→wi)p(S \Rightarrow^\ast w_1 \dots w_n) = \sum_A \beta_{ii}(A) p(A \to w_i)p(S⇒∗w1…wn)=∑Aβii(A)p(A→wi)
- 自顶向下,外向扩展
- 内向算法:动态规划,计算由非终结符AAA推导出字串片段wi…wjw_i \dots w_jwi…wj的概率αij(A)\alpha_{ij}(A)αij(A),而句子的概率则是由SSS推导出字串的概率α1n(S)\alpha_{1n}(S)α1n(S)
最佳搜索:Viterbi算法
- γij(A)\gamma_{ij}(A)γij(A)是由非终结符AAA推导出语句WWW中字串wi…wjw_i \dots w_jwi…wj的最大概率
- Ψi,j\Psi_{i,j}Ψi,j用于保存Viterbi分析结果
- 注意与α\alphaα的区别:前者算综合,后者算最大
- 初始化:γii(A)=p(A→wi)\gamma_{ii}(A) = p(A \to w_i)γii(A)=p(A→wi)
- 归纳计算:j=1…n,i=1…n−jj = 1 \dots n,\ i = 1 \dots n - jj=1…n, i=1…n−j,γi(i+j)(A)=maxB,C∈VN,i≤k≤i+jp(A→BC)γik(B)γ(k+1)j(C)\gamma_{i(i + j)}(A) = \max_{B,C \in V_N,\ i \le k \le i + j} p(A \to BC) \gamma_{ik}(B) \gamma_{(k+1)j}(C)γi(i+j)(A)=maxB,C∈VN, i≤k≤i+jp(A→BC)γik(B)γ(k+1)j(C),Ψi(i+j)(A)=argmaxB,C∈VN,i≤k≤i+jp(A→BC)γik(B)γ(k+1)j(C)\Psi_{i(i + j)}(A) = \arg\max_{B,C \in V_N,\ i \le k \le i + j} p(A \to BC) \gamma_{ik}(B) \gamma_{(k+1)j}(C)Ψi(i+j)(A)=argmaxB,C∈VN, i≤k≤i+jp(A→BC)γik(B)γ(k+1)j(C)
- 终止:maxp(S⇒∗w1…wn)=γ1n(S)\max p(S \Rightarrow^\ast w_1 \dots w_n) = \gamma_{1n}(S)maxp(S⇒∗w1…wn)=γ1n(S)
参数估计:内外向算法
使用大量语料直接估计参数
- p^(Nj→ζ)=C(Nj→ζ)∑γC(Nj→γ)\widehat p(N^j \to \zeta) = \frac {C(N^j \to \zeta)}{\sum_\gamma C(N^j \to \gamma)}p(Nj→ζ)=∑γC(Nj→γ)C(Nj→ζ)
没有大量语料,EM算法
初始随机赋值,得到模型
训练语料,得到期望值
最大似然估计
得到新的模型,迭代训练
C(A→BC)=∑1≤i≤k≤j≤np(Aij,Bik,C(k+1)j∣w1…wn,G)=1p(w1…n∣G)∑1≤i≤k≤j≤np(Aij,Bik,C(k+1)j,w1…wn∣G)=1p(w1…n∣G)∑1≤i≤k≤j≤nβij(A)p(A→BC)αik(B)α(k+1)j(C)\begin{aligned} C(A \to BC) &= \sum_{1 \le i \le k \le j \le n} p(A_{ij}, B_{ik}, C_{(k+1)j} | w_1 \dots w_n, G) \\ &= \frac {1}{p(w_1 \dots _n | G)} \sum_{1 \le i \le k \le j \le n} p(A_{ij}, B_{ik}, C_{(k+1)j} , w_1 \dots w_n | G) \\ &= \frac {1}{p(w_1 \dots _n | G)} \sum_{1 \le i \le k \le j \le n} \beta_{ij}(A) p(A \to BC) \alpha_{ik}(B) \alpha_{(k + 1)j}(C) \end{aligned} C(A→BC)=1≤i≤k≤j≤n∑p(Aij,Bik,C(k+1)j∣w1…wn,G)=p(w1…n∣G)11≤i≤k≤j≤n∑p(Aij,Bik,C(k+1)j,w1…wn∣G)=p(w1…n∣G)11≤i≤k≤j≤n∑βij(A)p(A→BC)αik(B)α(k+1)j(C)
- 推导到AAA的概率,扩展AAA的概率,全部扩展到字串的概率
C(A→a)=∑1≤i≤k≤j≤np(Aii∣w1…wn,G)=1p(w1…n∣G)∑1≤i≤k≤j≤np(Aii,w1…wn∣G)=1p(w1…n∣G)∑1≤i≤k≤j≤nβii(A)p(A→a)δ(a,wi)\begin{aligned} C(A \to a) &= \sum_{1 \le i \le k \le j \le n} p(A_{ii}| w_1 \dots w_n, G) \\ &= \frac {1}{p(w_1 \dots _n | G)} \sum_{1 \le i \le k \le j \le n} p(A_{ii}, w_1 \dots w_n | G) \\ &= \frac {1}{p(w_1 \dots _n | G)} \sum_{1 \le i \le k \le j \le n} \beta_{ii}(A) p(A \to a) \delta(a, w_i) \end{aligned} C(A→a)=1≤i≤k≤j≤n∑p(Aii∣w1…wn,G)=p(w1…n∣G)11≤i≤k≤j≤n∑p(Aii,w1…wn∣G)=p(w1…n∣G)11≤i≤k≤j≤n∑βii(A)p(A→a)δ(a,wi)
p^(A→μ)=C(A→μ)∑μC(A→μ)\widehat p(A \to \mu) = \frac {C(A \to \mu)}{\sum_\mu C(A \to \mu)}p(A→μ)=∑μC(A→μ)C(A→μ)
Learning Algorithm -> PCFG -> CYK / Chart
优点:利用概率进行剪枝,减少搜索空间,加快分析效率;可以定量比较两个句法分析器性能(概率置信度)
缺点:对概率计算条件比较苛刻(三个假设)
句法分析性能评估
- PARSEVAL评测
- 精度:正确短语个数占比
- 召回率:正确短语个数占正确答案比例
- F-值:常取F-1值
- 交叉括号数:分析树中与其他分析树边界交叉成分个数的平均值
- 标记格式XP−(SP,TP)XP-(SP,TP)XP−(SP,TP)
- 短语标记,起始位置,终止位置
- 汉语句子分析性能低于英文
局部句法分析
- 浅层句法分析 / 语块划分
- 语块识别 + 语块之间依存关系分析
- 英语语块
- 词
- 非递归名词短语、动词词组
- Base NP,简单、非嵌套名词短语,看作基本分类问题识别(序列标注,IOB,)
- 非递归副词短语、介词短语
- 子句
- 基于SVM的识别方法(Base NP)
- 三类特征:词、词性、Base NP标志
句法分析·依存句法分析
概述
- 一切接结构句法现象可以概括为关联、组合和转位三个核心
- 关联——词之间的从属关系
- 动词是句子的中心,并支配其他成分,本身不受任何成分支配
- “价”的概念:动词所能支配的行动元(名词词组)的个数
- 依存关系:词语之间支配和被支配的关系
- 有向图表示:有向弧表示两个成分的依存关系,由支配者出,到达被支配者
- 依存树表示:子节点依存于父节点,也可以表示成依存投射树
- 依存语法的4条公理
- 一个句子只有一个独立的成分(单一父节点)
- 句子的其他成分都从属于某一成分(联通)
- 任何一成分都不能依存于两个或多个成分(无环)
- 如果成分A直接从属于成分B,而成分C在句子中位于A和B之间,那么,成分C或者从属于A,或者从属于B,或者从属于A和B之间的某一成分(可投射)
- 不可投射的:依存关系树中虚线于实线相交的情形
- 优势
- 简单,天然此会化的
- 不过多强调句子中的固定顺序
- 受深层语义结构驱动
- 形式化程度较浅,更加灵活
依存关系分析方法
- 输入:句子
- 输出:依存结构,有向图描述
- 生成式分析方法
- 采用联合概率模型Score(x,y∣θ)\operatorname{Score}(x, y| \theta)Score(x,y∣θ),生成一系列语法树,赋予概率分值,取最大概率作为最终结果
- 优点:大规模样本可以获得好的性能
- 弱点
- 联合概率模型,需要各种假设简化,不易加入语言特征
- 全局搜索,复杂度较高,O(n3)O(n^3)O(n3)或O(n5)O(n^5)O(n5)
- 判别式分析方法
- 采用条件概率模型Score(x∣y,θ)\operatorname{Score}(x| y, \theta)Score(x∣y,θ),使目标最大的θ\thetaθ作为模型的参数
- 最大生成树模型
- 整棵树的分值s(x,y)=∑(i,j)∈ys(i,j)=∑(i,j)∈yw⋅f(i,j)s(\bold x, \bold y) = \sum_{(i, j) \in y} s(i, j) = \sum_{(i, j) \in y} \bold w \cdot \bold f(i, j)s(x,y)=∑(i,j)∈ys(i,j)=∑(i,j)∈yw⋅f(i,j)
- s(i,j)s(i, j)s(i,j)两节点之间的边的分值,f(i,j)\bold f(i, j)f(i,j)为二元特征函数向量,w\bold ww为对应特征函数的权值
- 优点
- 避开了联合概率需要的独立性假设
- 较好的可计算性,可应用更多方法,可处理非投射现象
- 分析准确率较高
- 弱点
- 整句内全局搜索,不易使用动态特征
- 算法复杂度较高
- 决策式分析方法
- 模仿人的认知过程,按照特定方向每次读入一个词,每一步由当前状态做出决策(判断依存关系),不再改变
- 移进-规约算法(Shift-Reduce)
- 三元组:S(栈顶词),I(当前词),A(依存弧集合)
- 两种动作:规约(左 / 右的依存关系建立)、移进(移入栈中)
- 改进(Arc-eager)四个动作:LArc(依存弧向左指)、RArc(依存弧向右指)、规约(退出当前考察,非根词移出栈)、移进,由stack和queue维护
- 算法P23
- 基于动作转移的方法(决策之间逐步专业)
- 优点
- 之前产生的所有句法结构作为特征
- 新型时间复杂度O(n)O(n)O(n)
- 弱点
- 局部最优代替全局最优,导致错误传递
- 不可处理非投射现象
- 依存句法分析器实现(Arc-eager)
- 动作转换
- 足够多的训练集
- 每个数据结构维护两个指针(顶和次顶)
- 左弧——可直接规约
- 右弧——不可直接规约,需等待判断进一步的右弧
依存关系分析性能评估
- 无标记依存准确率UA:所有词中正确支配词所占百分比,未找到支配词的词也算在内
- 带标记依存准确率LA:所有词中正确支配且依存关系类型也正确的百分比,根节点也算在内
- 依存正确率DA:所有非根结点词中找到其正确支配词的词所占的百分比
- 根正确率RA
- 定义1:正确根结点的个数与句子个数的比值
- 定义2:所有句子中找到正确根结点的句子所占的百分比
- 对单根节点语言,二者等价
- 完全匹配率CM:所有句子中无标记依存结构完全正确的句子所占的百分比
短语结构与依存关系
- 短语结构可转换为依存结构
- 定义中心词抽取规则,产生中心词表(中文短语中,中心词往往在最后)
- 根据中心词表,为句法树中每个节点选择中心子节点(中心词自底向上传递得到)
- 将非中心子节点的中心词依存到中心子节点的中心词上,得到相应的依存结构
基于深度学习的句法分析
- 面向决策式依存分析的离散特征和连续特征相结合方法
- 结合词向量中的非线性关系
- Word2vec(融入连续特征) + CRFs(动作序列分类)
- 连续特征离散化后于原离散特征相结合(利用离散特征的鲁棒稀疏优势)
- 连续特征隐层向量与原离散特征结合(计算各动作的分值)
- 基于机器翻译原理的句法分析方法
- 句法树——短语标记序列
- 机器翻译——句子翻译成短语标记序列
英汉句法结构特点对比
- 不考虑汉语分词和词性兼类带来的影响
- 汉语更少地使用功能词,且没有形态变化;不适用限定词的名词普遍存在,复数标记有限且很少出现
- 英语短语绝大部分以左部为中心;汉语比较复杂,大多数以右部为中心,动词和介词的补语在中心词的后面
- 汉语句子普遍存在没有主语的情况——难以判断是句子还是短语
- 英语是结构性语言,分句间结构联系;汉语是表意型语言,分句间结构独立
- 汉语长句分析方法:句群——分析森林
- 对包含“分割”标点的长句进行分割
- 对分割后的各个子句分别进行句法分析(第一级分析),各个最大概率的子树根节点的词类或短语类别标记作为第二级句法分析的输入
- 通过第二遍分析各子句或短语之间的结构关系,从而获得整句的最大概率分析树
UCAS - AI学院 - 自然语言处理专项课 - 第8讲 - 课程笔记相关推荐
- UCAS - AI学院 - 自然语言处理专项课 - 第7讲 - 课程笔记
UCAS-AI学院-自然语言处理专项课-第7讲-课程笔记 形态分析.汉语分词与词性标注 概述 英语形态分析 汉语自动分词 概要 性能评价方法 未登录词识别 现状和未来 词性标注 形态分析.汉语分词与词 ...
- UCAS - AI学院 - 知识图谱专项课 - 第8讲 - 课程笔记
UCAS - AI学院 - 知识图谱专项课 - 第8讲 - 课程笔记 关系抽取 概述 面向非结构化文本的关系抽取 预定义关系抽取 开放式关系抽取 面向半结构化文本的关系抽取 数据和评测 关系抽取 概述 ...
- UCAS - AI学院 - 计算机视觉专项课 - 第1讲 - 课程笔记
UCAS-AI学院-计算机视觉专项课-第1讲-课程笔记 课程介绍 什么是计算机视觉 计算机视觉发展的四个重要历程 课程介绍 线上讲授+答疑 编程作业+文献阅读作业 30% 课堂开卷 70% 什么是计算 ...
- AIQ - deeplearning.ai 全套吴恩达老师的深度学习课程笔记及资源在线阅读
http://www.6aiq.com/deeplearning_ai/html/SUMMARY.html 深度学习笔记目录 第一门课 神经网络和深度学习(Neural Networks and De ...
- AIQ - deeplearning.ai 全套吴恩达老师的深度学习课程笔记
http://www.6aiq.com/deeplearning_ai/html/SUMMARY.html 深度学习笔记目录 第一门课 神经网络和深度学习(Neural Networks and De ...
- AIQ - deeplearning.ai 全套吴恩达老师的深度学习课程笔记及资源在线
http://www.6aiq.com/deeplearning_ai/html/SUMMARY.html 深度学习笔记目录 第一门课 神经网络和深度学习(Neural Networks and De ...
- 七月在线--金融风控实战--第二课 风控数据挖掘方法--课程笔记
决策树的定义: 分类决策树模型是一种描述对实例进行分类的树形结构.决策树由结点(node)和有向边(directed edge)组成.结点有两种类型:内部结点(internal node)和叶结点(l ...
- 斯坦福自然语言处理习题课1——绪论
对于技术人员来说,如果要问当前最热门的技术是什么?我想大家一定会回答是人工智能技术.而在人工智能技术中,哪个技术方向最火呢?大家肯定会回答是深度学习技术.如果我们要问在深度学习技术中,哪些应用方向最火 ...
- Coursera-吴恩达-自然语言处理(NLP)专项课-课程笔记与编程实战-汇总
1.介绍: 本文主要基于Coursera上deeplearning.ai的课程 自然语言处理 专项课程(Natural Language Processing Specialization),将全部课 ...
最新文章
- 套接字编程——基于UDP协议
- 前端学习(1301):gulp建立任务csso和less
- 每日一题(C语言基础篇)1
- rocketmq常用命令
- oracle面试题关于课程表获取最高分和名字并且去掉重复,oracle复杂查询练习题
- linux克隆后没有eth0,解决linux机器克隆后eth0不见的问题
- 将20M文件从30秒压缩到1秒,我是如何做到的?
- 45. Element isDefaultNamespace() 方法
- NETSCREEN用L2TP方式建立×××
- 自动驾驶仿真软件汇总-2021
- 主机箱前置耳机插孔没有声音的解决方案
- 如何学好Linux内核?
- 神州数码交换机的数据备份
- cad的计算机功能,CAD的基本功能有哪些
- 台式计算机进入安全模式蓝屏,电脑进入安全模式时蓝屏怎么解决
- Display 亮度调节
- @Scripts “does not exist”
- Latex 常用(插入图片、参考文献等)
- python学习课件
- 基于springboot小型车队管理系统毕业设计源码061709
热门文章
- 第5讲、STM32、MPU9250等器件的Symbol绘制
- 2014-04-17多益游戏实习生招聘(游戏技术方向)题目及解析
- 短视频自导自演,分镜脚本如何设计
- 计算机二级考试有截图工具吗,计算机二级等级考试上机考试操作步骤(带详细操作截图).docx...
- 用PS设置宽480像素*高640像素,分辨率300dpi,24位真彩色 大小限制20K到40K之间的照片
- 郑州大学远程教育计算机专业英语,郑州大学远程教育专业英语1考试.doc
- ansible安装mysql 8.0.0.20
- 支付后但是显示未支付,再次支付如果又支付成功了怎么办? 后端代码逻辑是什么?【杭州多测师_王sir】【杭州多测师】...
- UVA445 JAVA版本 Marvelous Mazes
- routeros KVM安装LEDE 20191030最新版应用