发信人: GzLi (笑梨), 信区: DataMining
标 题: [合集]上载了Intro. to SVMs的术语列表的翻译
发信站: 南京大学小百合站 (Sat May 10 18:51:40 2003)
GzLi (笑梨) 于Sat May 3 12:07:00 2003)
提到:
为了能够在学习SVM的过程中,有统一中文的说法,我尝试把
Intro. to svms的一本书中的术语翻译了出来,
请感兴趣的同仁,能够抽空看看,大家多提意见。
http://bbs.nju.edu.cn/file/svm.pdf
术语列表的翻译,请大家多指正。
email: lgz@sjtu.edu.cn
详细如下:
active set methods & 活动集方法 \\
adaboost & \\
Adatron & \\
affine function & 仿射函数 \\
ANOVA kernels & \\
& \\
Bayes formula & 贝叶斯公式 \\
bias & 偏置 \\
bioinformatics & 生物信息学 \\
box constraint algorithm & 盒约束算法 \\
& \\
capacity & 容量 \\ % 张学工的本质
capacity control & 容量控制 \\
chunking & 块 \\
classification & 分类 \\
compression & 压缩 \\
computational learning theory & 计算学习理论 \\
computer vision & 计算机视觉 \\
consistent hypothesis & 一致性假设 \\
constraint & 约束 \\
constraint active and inactive & 活动和不活动约束 \\
constraint box & 约束盒 \\
constrain equality and inequality & 约束等式和不等式 \\
convex combination & 凸优化 \\
convex function & 凸方程 \\
convex null & 凸壳 \\
convex programming & 凸规划 \\
convex set & 凸集 \\
convex optimisation problem & 凸优化问题 \\
covariance matrix & 协方差矩阵 \\
cover & 覆盖 \\
covreing number & 覆盖个数 \\
& \\
data dependent analysis & 数据依赖分析 \\
decision function & 决策函数 \\
decomposition & 分解 \\
dimension fat-shattering & 肥打散维 \\
dimension VC & VC 维 \\
dimension reduction & 维数约简 \\
distribution free & 自由分布 \\
dot product & 点积 \\
dual optimisation problem & 对偶优化问题 \\
dual problem & 对偶问题 \\
dual variables & 对偶变量 \\
duality & 对偶性 \\
duality gap & 对偶间距 \\
& \\
effective VC dimension & 有效VC维 \\
eigenvalue, eigenvectors & 特征值,特征向量 \\
empirical risk minimisation & 经验风险最小化 \\
error of a hypothesis & 假设的误差 \\
& \\
fat-shattering dimension & 肥打散维 \\
feasibility gap & 可行间距 \\
feasible region & 可行区域 \\
features & 特征 \\
flexibility & 弹性 \\
& \\
Gaussian kernel & 高斯核 \\
Gaussian prior & 高斯先验知识 \\
Gaussian process & 高斯过程 \\
generalisation & 推广性 \\
gradient ascent & 梯度上升 \\
Gram matrix & Gram 矩阵 \\
growth function & 生长函数 \\
& \\
hand written digit recognition & 手写数字识别 \\
hard margin & 硬间隔 \\
Hilbert space & Hilbert 空间 \\
hinge loss & 铰链损失 \\
hyperplane & 超平面 \\
hyperplane canonical & 规范超平面 \\
hypothesis space & 假设空间 \\
& \\
image classification & 图像分类 \\
implicit mapping & 隐式映射 \\
inner product & 内积 \\
input distribution & 输入分布 \\
insensitive loss & 不敏感损失 \\
insensitive loss function & 不敏感损失函数 \\
& \\
Karush-Kuhn-Tucker(KKT) conditions & KKT条件 \\
kernel & 核 \\
kernel Adatron & 核Adatron \\
kernel making & 核构造 \\
kernel matrix & 核矩阵 \\
kernel Mercer & Mercer核 \\
kernel reproducting & 再生核 \\
Krieging & Krieging \\
Kuhn-Tucker theorem & Kuhn-Tucker定理 \\
& \\
Lagrange multipliers & 拉格朗日乘子 \\
Lagrange theorem & 拉格朗日定理 \\
Lagrange theory & 拉格朗日理论 \\
Lagrangian dual problem & 拉格朗日对偶问题 \\
Lagrangian generalised & 广义拉格朗日理论 \\ % generalised Lagrangian
learning algorithm & 学习算法 \\
learning bias & 学习偏置 \\
learning machines & 学习机器 \\
learning methodology & 学习方法 \\
learning probably approximately correct(pac) & 概率逼近正确学习 \\
learning rate & 学习率 \\
learning theory & 学习理论 \\
least squares & 最小二乘 \\
leave-one-out & 留一法 \\
linear learning machines & 线性学习机器 \\
linear Programme & 线性规划 \\
linear Programming SVMs & 线性规划SVMs \\
linearly separable & 线性可分 \\
Lovelace, Lady & Lovelace女士 \\
luckiness & 幸运 \\
& \\
margin bounds on generalisation & 推广性的间隔界 \\
margin distribution & 间隔分布 \\
margin error & 间隔误差 \\
margin functional & 误差泛函 \\
margin geometric & 几何误差 \\
margin slack variable & 间隔松弛变量 \\
margin soft & 软间隔 \\
margin soft and hard & 软硬间隔 \\
matrix positive definite & 正定矩阵 \\
matrix positive half-definite & 半正定矩阵 \\
maximal margin bounds & 最大间隔界 \\
maximal margin classifier & 最大间隔分类器 \\
maximum a posteriori & 最大后验概率 \\
Mercer's conditions & Mercer条件 \\
Mercer's theorem & Mercer定理 \\
Model selection & 模型选择 \\
multi-class classification & 多类分类 \\
& \\
neural newwork & 神经网络 \\
noisy data & 噪声数据 \\
nonseparable & 不可分 \\
Novikoff's theorem & Novikoff定理 \\
& \\
objective dual & 对偶目标 \\
objective function & 目标函数 \\
on-line learning & 在线学习 \\
operator linear & 线性算法 \\
operator positive & 正算子 \\
optimisation theory & 优化理论 \\
& \\
pac learning & pac 学习 \\
perceptron & 感知器 \\
primal form & 原始形式 \\
primal problem & 原始问题 \\
& \\
quadratic optimisation & 二次优化 \\
quadratic programming & 二次规划 \\
& \\
recursive kernels & 回归核 \\
regression & 回归 \\
reproducing kernel Hilbert space & 再生核Hilbert空间 \\
redge regression & 岭回归 \\
risk functional & 风险泛函 \\
& \\
saddle point & 鞍点 \\
sample complexity & 样本复杂度 \\
sample compression scheme & 样本压缩方案 \\
scalar product & 尺度积 \\
sequential minimal optimization(SMO) & 序列最小优化 \\
shattering & 打散 \\
Skilling & \\
slack variables & 松弛变量 \\
slack vector & 松弛向量 \\
soft margin algorithm, 1-norm & 一阶范数软间隔算法 \\
soft margin algorithm, 2-norm & 二阶范数软间隔算法 \\
soft margin bounds & 软间隔界 \\
soft margin optimisation & 软间隔优化 \\
sparseness & 稀疏性 \\
statistical learning theory & 统计学习理论 \\
stopping criteria & 停止条件 \\
structural risk minimisation & 结构风险最小 \\
structural risk minimisation data dependent & 数据依赖的结构风险最小 \\
supervised learning & 监督学习 \\
Support Vectors Machines & 支持向量机 \\
support vectors & 支持向量 \\
& \\
target function & 目标函数 \\
text categorisation & 文本分类 \\
Turing & 图灵 \\
& \\
uniform convergence & 统一收敛 \\
unsuperviesed learning & 无监督学习 \\
& \\
value of an optimisation problem & 优化问题的值 \\
VC dimension & VC维 \\
VC theorem & VC 定理 \\
& \\
Widrow-Hoff algorithm & Widrow-Hoff算法 \\
working set methods & 工作集方法 \\
fpzh (fpzh) 于Sat May 3 15:38:59 2003)
提到:
呵呵,斑竹辛苦了。隔离期满了没有啊,兄弟们都狠挂念你啊
草草看了一下,uniform convergence似乎应翻为“一致收敛”,见<统计学习理论的本
质>P226,scalar product好像一般翻为“数积”,和inner product, dot product同
指一个概念。不知妥否?
txytxy (nils) 于Sun May 4 11:01:29 2003)
提到:
感觉翻译后的效果是,这些术语均需要理解两偏,英文一遍,中文一遍,特别是中文术语
忧为拗口,eg.仿射,盒约束,让人头大,如果能够加上通俗易懂的解释,即便不太准确,对
初雪者一定是大功一见。
难道制造学术术语的目的就是让人觉得“这是个神秘世界”吗?我觉得,任何东西,如果
不能让一个农民听懂,它就不是“好”的。经管我们需要严谨的所谓“术语”,但更需要
直观的行话,因为我们并不是天天都在写论文。