【2021.03.07】看论⽂神器知云⽂献翻译、百度翻译API申请、
机器学习术语库
最近在看论⽂,因为论⽂都是全英⽂的,所以需要论⽂查看的软件,在macOS上到⼀款很好⽤的软件叫做知云⽂献翻译
知云⽂献翻译
界⾯长这样,可以长段翻译,总之很不错
百度翻译API申请
使⽤⾃⼰的api有两个好处:
⼀、更加稳定
⼆、可以⾃定义词库,我看的是医疗和机器学习相关的英⽂⽂献,可以⾃定义
api申请
在上⽅控制台、根据流程申请后
可以在这⾥看到⾃⼰的ID和密钥
填⼊就可以了
⾃定义术语库
我看的是机器学习的⽂献,因此在术语库⾥添加,导⼊⽂件(我会把⽂本放在后⾯
导⼊后完成,有部分词语不翻译,⽐如MNIST这样的专有词语,就会报错,忽略掉就可以了
开启术语库就⾏了
机器学习术语库
Supervised Learning|||监督学习
Unsupervised Learning|||⽆监督学习
Semi-supervised Learning|||半监督学习
Reinforcement Learning|||强化学习
Active Learning|||主动学习
Online Learning|||在线学习
Transfer Learning|||迁移学习
Automated Machine Learning (AutoML)|||⾃动机器学习
Representation Learning|||表⽰学习
Minkowski distance|||闵可夫斯基距离
Gradient Descent|||梯度下降
Stochastic Gradient Descent|||随机梯度下降
Over-fitting|||过拟合
Regularization|||正则化
Cross Validation|||交叉验证
Perceptron|||感知机
Logistic Regression|||逻辑回归
Maximum Likelihood Estimation|||最⼤似然估计Newton’s method|||⽜顿法
K-Nearest Neighbor|||K近邻法
Mahanalobis Distance|||马⽒距离
Decision Tree|||决策树
Naive Bayes Classifier|||朴素贝叶斯分类器Generalization Error|||泛化误差
PAC Learning|||概率近似正确学习
Empirical Risk Minimization|||经验风险最⼩化
Growth Function|||成长函数
VC-dimension|||VC维
Structural Risk Minimization|||结构风险最⼩化Eigendecomposition|||特征分解
Singular Value Decomposition|||奇异值分解
Moore-Penrose Pseudoinverse|||摩尔-彭若斯⼴义逆Marginal Probability|||边缘概率
Conditional Probability|||条件概率
Expectation|||期望
Variance|||⽅差
Covariance|||协⽅差
Critical points|||临界点
Support Vector Machine|||⽀持向量机
Decision Boundary|||决策边界
Convex Set|||凸集
Lagrange Duality|||拉格朗⽇对偶性
KKT Conditions|||KKT条件
Coordinate ascent|||坐标下降法
Sequential Minimal Optimization (SMO)|||序列最⼩化优化Ensemble Learning|||集成学习
Bootstrap Aggregating (Bagging)|||装袋算法
Random Forests|||随机森林
Boosting|||提升⽅法
Stacking|||堆叠⽅法
Decision Tree|||决策树
Classification Tree|||分类树
Adaptive Boosting (AdaBoost)|||⾃适应提升
Decision Stump|||决策树桩
Meta Learning|||元学习
Gradient Descent|||梯度下降
Deep Feedforward Network (DFN)|||深度前向⽹络Backpropagation|||反向传播
Activation Function|||激活函数
Multi-layer Perceptron (MLP)|||多层感知机
Perceptron|||感知机
Mean-Squared Error (MSE)|||均⽅误差
Chain Rule|||链式法则
Logistic Function|||逻辑函数
Hyperbolic Tangent|||双曲正切函数
Rectified Linear Units (ReLU)|||整流线性单元
Residual Neural Networks (ResNet)|||残差神经⽹络
Regularization|||正则化
Overfitting|||过拟合
Data(set) Augmentation|||数据增强
Parameter Sharing|||参数共享
Ensemble Learning|||集成学习
Dropout|||
L2 Regularization|||L2正则化
Taylor Series Approximation|||泰勒级数近似
Taylor Expansion|||泰勒展开
Bayesian Prior|||贝叶斯先验
Bayesian Inference|||贝叶斯推理
Gaussian Prior|||⾼斯先验
Maximum-a-Posteriori (MAP)|||最⼤后验
Linear Regression|||线性回归
L1 Regularization|||L1正则化
Constrained Optimization|||约束优化
Lagrange Function|||拉格朗⽇函数
Denoising Autoencoder|||降噪⾃动编码器
Label Smoothing|||标签平滑
Eigen Decomposition|||特征分解
Convolutional Neural Networks (CNNs)|||卷积神经⽹络
Semi-Supervised Learning|||半监督学习
Generative Model|||⽣成模型
Discriminative Model|||判别模型
Multi-Task Learning|||多任务学习
Bootstrap Aggregating (Bagging)|||装袋算法
Multivariate Normal Distribution|||多元正态分布
Sparse Parametrization|||稀疏参数化
Sparse Representation|||稀疏表⽰
Student-t Prior|||学⽣T先验
KL Divergence|||KL散度
Orthogonal Matching Pursuit (OMP)|||正交匹配追踪算法
Adversarial Training|||对抗训练
Matrix Factorization (MF)|||矩阵分解
Root-Mean-Square Error (RMSE)|||均⽅根误差
Collaborative Filtering (CF)|||协同过滤
Nonnegative Matrix Factorization (NMF)|||⾮负矩阵分解
Singular Value Decomposition (SVD)|||奇异值分解
Latent Sematic Analysis (LSA)|||潜在语义分析
Bayesian Probabilistic Matrix Factorization (BPMF)|||贝叶斯概率矩阵分解Wishart Prior|||Wishart先验
Sparse Coding|||稀疏编码
Factorization Machines (FM)|||分解机
second-order method|||⼆阶⽅法
cost function|||代价函数
training set|||训练集
objective function|||⽬标函数
expectation|||期望
data generating distribution|||数据⽣成分布
empirical risk minimization|||经验风险最⼩化
generalization error|||泛化误差
empirical risk|||经验风险
overfitting|||过拟合
feasible|||可⾏
loss function|||损失函数
derivative|||导数
gradient descent|||梯度下降
surrogate loss function|||代理损失函数
early stopping|||提前终⽌
Hessian matrix|||⿊塞矩阵
second derivative|||⼆阶导数
Taylor series|||泰勒级数
Ill-conditioning|||病态的
critical point|||临界点
local minimum|||局部极⼩点
local maximum|||局部极⼤点
saddle point|||鞍点
local minima|||局部极⼩值
global minimum|||全局最⼩点
convex function|||凸函数
weight space symmetry|||权重空间对称性
Newton’s method|||⽜顿法
activation function|||激活函数
fully-connected networks|||全连接⽹络
Resnet|||残差神经⽹络
gradient clipping|||梯度截断
recurrent neural network|||循环神经⽹络
long-term dependency|||长期依赖
eigen-decomposition|||特征值分解
feedforward network|||前馈⽹络
vanishing and exploding gradient problem|||梯度消失与爆炸问题contrastive divergence|||对⽐散度
validation set|||验证集
stochastic gradient descent|||随机梯度下降
learning rate|||学习速率
momentum|||动量
gradient descent|||梯度下降
poor conditioning|||病态条件
nesterov momentum|||Nesterov 动量
partial derivative|||偏导数
moving average|||移动平均
quadratic function|||⼆次函数
positive definite|||正定
quasi-newton method|||拟⽜顿法
conjugate gradient|||共轭梯度
steepest descent|||最速下降reparametrization|||重参数化
standard deviation|||标准差
coordinate descent|||坐标下降
skip connection|||跳跃连接convolutional neural network|||卷积神经⽹络convolution|||卷积
pooling|||池化
feedforward neural network|||前馈神经⽹络maximum likelihood|||最⼤似然
back propagation|||反向传播
artificial neural network|||⼈⼯神经⽹络deep feedforward network|||深度前馈⽹络hyperparameter|||超参数
sparse connectivity|||稀疏连接parameter sharing|||参数共享
receptive field|||接受域
chain rule|||链式法则
tiled convolution|||平铺卷积
object detection|||⽬标检测
error rate|||错误率
activation function|||激活函数
overfitting|||过拟合
attention mechanism|||注意⼒机制transfer learning|||迁移学习autoencoder|||⾃编码器
unsupervised learning|||⽆监督学习
back propagation|||反向传播
pretraining|||预训练
dimensionality reduction|||降维正则化正交匹配追踪
curse of dimensionality|||维数灾难feedforward neural network|||前馈神经⽹络encoder|||编码器
decoder|||解码器
cross-entropy|||交叉熵
tied weights|||绑定的权重
PCA|||PCA
principal component analysis|||主成分分析singular value decomposition|||奇异值分解SVD|||SVD
singular value|||奇异值
reconstruction error|||重构误差covariance matrix|||协⽅差矩阵
Kullback-Leibler (KL) divergence|||KL散度denoising autoencoder|||去噪⾃编码器sparse autoencoder|||稀疏⾃编码器contractive autoencoder|||收缩⾃编码器conjugate gradient|||共轭梯度
fine-tune|||精调
local optima|||局部最优
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论