• The Baeldung Logo
  • 从这里开始
  • 指南 ▼▲
    • Persistence

      Spring持久化指南

    • REST

      使用Spring构建REST API指南

    • Security

      Spring Security指南

  • 关于
  •  English

分类: Ml

>>  开源AI引擎

>>  Scikit-Learn和TensorFlow的区别

>>  特征与标签的区别

>>  什么是TinyML?

>>  如何为SVM选择核函数类型?

>>  K-均值算法的缺点

>>  机器学习:分析学习

>>  机器学习中的特征选择

>>  什么是数据湖?

>>  Sklearn.pipeline.Pipeline究竟是什么?

>>  从RNN到Transformer

>>  Transformer的碳足迹是什么,如何减少它?

>>  值迭代 vs. Q学习

>>  如何在神经网络中使用K折交叉验证?

>>  大型语言模型中的幻觉:原因、挑战和缓解

>>  径向基函数

>>  如何在TensorFlow和Keras中使用学习率预热?

>>  处理随机森林中的过拟合

>>  二元分类器的概率校准

>>  Luong注意力和Bahdanau注意力的区别

>>  铰链损失和逻辑损失的区别

>>  One-Hot编码解释

>>  概率:联合vs边缘vs条件

>>  组合优化

>>  为什么AI不能说每种语言?

>>  神经网络权重衰减和学习率的区别

>>  机器学习中的Bagging、Boosting和Stacking

>>  NER 命名实体识别

>>  如何在scikit-learn中进行特征选择?

>>  机器学习:主动学习

>>  什么是自回归模型?

>>  如何在TensorFlow中使用噪声对比估计损失?

>>  如何计算分类器的VC维?

>>  训练过程中NaN错误的常见原因

>>  强化学习中的值迭代与策略迭代

>>  什么是方差比例?

>>  监督学习、半监督学习、无监督学习和强化学习简介

>>  特征缩放

>>  数据集分割前后的数据归一化

>>  如何计算两个文本文档之间的相似度?

>>  神经网络中的偏置

>>  卷积神经网络简介

>>  机器学习中的学习曲线是什么?

>>  支持向量机(SVM)

>>  SVM vs 神经网络

>>  强化学习中的策略是什么?

>>  多类分类的F-1分数

>>  分类和聚类的区别

>>  神经网络架构:选择隐藏层数量和大小的标准

>>  神经网络相对于SVM的优缺点

>>  什么是交叉熵?

>>  使用神经网络的强化学习

>>  使用支持向量机进行多类分类

>>  神经网络权重的随机初始化

>>  神经网络中的周期(Epoch)

>>  解决K臂赌博机问题

>>  自然语言处理中的编码器-解码器模型

>>  将数据集分割为训练集和测试集

>>  机器学习模型中损失和准确率的解释

>>  弱监督学习

>>  逻辑回归中的梯度下降方程

>>  字符串相似度度量:基于标记的方法

>>  规范化表格特征

>>  使用Word2Vec进行主题建模

>>  丑小鸭定理

>>  如何提高朴素贝叶斯分类的性能?

>>  字符串相似度度量:基于序列的方法

>>  词嵌入:CBOW与Skip-Gram的比较

>>  线性回归中的归一化与标准化

>>  为什么SVM需要特征缩放?

>>  两个短语的语义相似性

>>  生成式vs判别式算法

>>  Transformer文本嵌入

>>  开源神经网络库

>>  SVM中准确性和支持向量数量之间的权衡

>>  SVM中使用硬间隔vs软间隔

>>  状态机:组件、表示和应用

>>  k近邻和高维数据

>>  LL vs LR解析

>>  如何创建智能聊天机器人?

>>  时间序列中的模式识别

>>  期望最大化(EM)技术的直观解释

>>  为什么小批量大小比单个"批量"包含所有训练数据更好

>>  文本分类的特征选择和降维

>>  Q学习与动态规划的比较

>>  如何从词向量获取句子向量

>>  如何计算线性回归中的正则化参数

>>  "20个问题"AI算法是如何工作的?

>>  机器学习中的欠拟合和过拟合

>>  选择学习率

>>  异常值检测和处理

>>  机器学习中的分层抽样

>>  马尔可夫链聊天机器人是如何工作的?

>>  主题建模中何时认为连贯性分数好或坏?

>>  机器学习中的偏见

>>  贝叶斯网络

>>  机器学习中的准确率与AUC比较

>>  决策树与朴素贝叶斯分类器的比较

>>  集成学习

>>  马尔可夫决策过程:值迭代是如何工作的?

>>  机器学习中的漂移、异常和新颖性

>>  Word2vec词嵌入操作:添加、连接还是平均词向量?

>>  学习率与批量大小的关系

>>  机器学习中的特征、参数和类别

>>  双向和单向LSTM的区别

>>  使用GAN进行数据增强

>>  随机森林中树的深度和数量的影响

>>  神经网络中的线性可分数据

>>  SGD和反向传播的区别

>>  Q学习 vs. SARSA

>>  机器学习:训练、验证和测试

>>  使用K均值算法用于分类

>>  生成对抗网络简介

>>  机器学习中的信息增益

>>  图像处理:遮挡

>>  图像比较算法

>>  机器学习中核函数的直观理解

>>  机器学习的基本概念

>>  梯度提升树 vs. 随机森林

>>  对比学习简介

>>  激活函数:Sigmoid vs Tanh

>>  成本函数、损失函数和目标函数之间的区别

>>  深度学习中的潜在空间

>>  自监督学习简介

>>  人工智能、机器学习、统计学和数据挖掘之间的区别是什么?

>>  机器学习中的归纳偏置是什么?

>>  决策树 vs. 随机森林

>>  监督学习和无监督学习的真实生活例子

>>  神经网络中的隐藏层

>>  目标检测中的平均精度均值

>>  神经网络中的"瓶颈"是什么?

>>  自然语言处理中的循环神经网络与递归神经网络

>>  比较朴素贝叶斯和SVM用于文本分类

>>  离线策略与在线策略强化学习

>>  交叉验证:K折与留一法

>>  反向传播和前馈网络的区别

>>  缺失数据和稀疏数据的区别

>>  决策树中的节点不纯度

>>  轮廓图

>>  机器学习:什么是消融研究?

>>  尺度不变特征变换

>>  神经网络:卷积层和全连接层的区别

>>  使用威胁空间搜索赢得五子棋

>>  神经网络:什么是权重衰减损失?

>>  如何使用Gabor滤波器为机器学习生成特征

>>  神经网络中的微调是什么?

>>  数据增强

>>  机器学习中的特征重要性是什么?

>>  什么是单类SVM,它是如何工作的?

>>  什么是基于内容的图像检索?

>>  神经网络中的骨干网络是什么意思?

>>  什么是没有免费午餐定理?

>>  为什么使用代理损失

>>  什么是受限玻尔兹曼机?

>>  机器学习:灵活和不灵活的模型

>>  机器学习:如何格式化训练用图像

>>  图注意力网络

>>  参数模型和非参数模型的区别

>>  什么是独立成分分析(ICA)?

>>  强化学习和最优控制的区别

>>  硬投票vs软投票分类器

>>  PAC学习理论真正意味着什么?

>>  ADAM优化器

>>  什么是信用分配问题?

>>  词嵌入的维度

>>  神经网络:池化层

>>  三元组损失简介

>>  学习率预热是什么意思?

>>  什么是神经风格迁移?

>>  什么是下游任务?

>>  Q学习 vs. 深度Q学习 vs. 深度Q网络

>>  懒惰学习 vs. 急切学习

>>  神经网络中密集和稀疏的概念

>>  如何分析损失vs轮次图?

>>  自组织映射如何工作?

>>  Softmax中的温度是什么以及为什么使用它?

>>  支持向量机中的C参数

>>  脉冲神经网络简介

>>  高斯混合模型

>>  如何进行早停?

>>  统计学在机器学习中的重要性

>>  数据质量解释

>>  用于聚类的高斯混合模型

>>  核主成分分析相比标准主成分分析有什么优势?

>>  神经网络:步进卷积

>>  什么是霍普菲尔德网络?

>>  交叉熵和KL散度有什么区别?

>>  如何在逻辑回归中处理缺失数据?

>>  什么是噪声对比估计损失?

>>  GELU激活函数解释

>>  TensorFlow中的Maxout实现

>>  我们应该在高维空间中使用欧几里得度量吗?

>>  如何在TensorFlow和PyTorch中为图像和文本处理实现填充?

>>  什么是检索增强生成(RAG)?

>>  如何执行线性判别分析?

>>  焦点损失简介

>>  强化学习中的贝尔曼算子是什么?

>>  情感分析的训练数据

>>  如何使用SMOTE处理不平衡数据?

>>  DBSCAN聚类:它是如何工作的?

>>  神经网络输入的归一化

>>  偏差和误差的区别

>>  什么是不可训练参数?

>>  自动机器学习解释

>>  敏感性和特异性

>>  随机样本一致性算法解释

>>  什么是回归器?

>>  多层感知器与深度神经网络的比较

>>  遗传算法的实际应用

>>  变分自编码器中的重参数化技巧

>>  自编码器解释

>>  随机森林 vs. 极随机树

>>  如何计算CNN的感受野大小

>>  实例归一化 vs 批量归一化

>>  线性回归 vs. 逻辑回归

>>  什么是联邦学习?

>>  神经网络:二进制 vs. 离散 vs. 连续输入

>>  在线学习 vs. 离线学习

>>  ε-贪心Q学习

>>  共现矩阵及其在自然语言处理中的应用

>>  如何将文本序列转换为向量

>>  0-1损失函数解释

>>  梯度下降、随机梯度下降和小批量梯度下降的区别

>>  预训练神经网络是什么意思?

>>  稀疏编码神经网络

>>  分类模型评估简介

>>  Top-N 准确率指标

The Baeldung logo

分类

  • Spring
  • REST
  • Java
  • Security
  • Persistence
  • Jackson
  • HTTP Client-Side

系列教程

  • Java “回归基础” 教程
  • Jackson JSON 教程
  • HttpClient 4 教程
  • REST 与 Spring 教程
  • Spring 持久化教程
  • Security 与 Spring

关于

  • 关于 Baeldung
  • 课程
  • 工作
  • 归档
  • 为Baeldung写作
  • 编辑
  • 合作伙伴
  • GitHub中文社区
  • Terms of Service
  • Privacy Policy
  • Company Info
  • Contact
The Baeldung Logo