雅虎香港 搜尋

搜尋結果

  1. 关注者. 1. 被浏览. 1,290. 1 个回答. 默认排序. sunshinelala. 3d slam、tvm. 3 人赞同了该回答. 对于多 神经网络 级联,loss的优化一般可以通过以下几种方法实现: 参数调优:通过调整神经网络的参数,如学习率、正则化系数等,来提高模型的拟合能力和 鲁棒性 ,从而优化loss。 网络架构调整:通过调整神经网络的架构,如增加隐藏层数量、增加隐藏层 神经元 数量等,来提高模型的表达能力和 泛化能力 ,从而优化loss。 训练数据增强:通过对训练数据进行增强,如随机旋转、随机裁剪等,来增加模型的泛化能力和鲁棒性,从而优化loss

  2. 1 训练的时候 loss 不下降. 模型结构 问题。 当模型结构不好、规模小时,模型对数据的拟合能力不足。 训练时间问题。 不同的模型有不同的计算量,当需要的计算量很大时,耗时也会很大. 权重初始化问题。 常用的初始化方案有 全零初始化 、正态分布初始化和均匀分布初始化等,合适的初始化方案很重要,之前提到过 神经网络初始化为0可能会带来的影响. 正则化问题。 L1、L2以及Dropout是为了防止 过拟合 的,当训练集loss下不来时,就要考虑一下是不是正则化过度,导致模型欠拟合了。 正则化相关可参考 正则化之L1 & L2. 激活函数问题。 全连接层 多用ReLu,神经网络的输出层会使用 sigmoid 或者 softmax。 激活函数可参考 常用的几个激活函数 。

  3. 2017年6月2日 · 1 个回答. 默认排序. seeds. 专家级标签工程师. 12 人赞同了该回答. 这个可能性就太多了, loss 是训练集还是 测试集. 有几个分析方向: 1. 模型可以学习到,只是 剃度震荡 导致降不到最优,这种可以考虑降低学习率,增大 batch 的大小。 2. 数据可以学习到,但是 模型拟合 能力不够强。 可以考虑增大cnn深度,比如换成vgg16测试下,另外lstm也可以换成双向的加强拟合能力. 3.训练集能百分百但是测试集只能89%,这种最有效的方法是增大训练数据,当然也可以试试一些正则方法比如bn,dropout等. 发布于 2017-06-02 07:30. 我用cnn + 3层lstm 训练识别。

  4. a. 首先AUC代表的是模型把全部样本放在一起排序的能力,但是你要的其实是每个用户在每一刷里面,把更好的内容排在前面的这样一个模型。 所以很简单,不要光用AUC来评估,用UAUC(把每个用户所有的样本分别算个AUC再加权平均)或者PageAUC(把每一刷的10条样本算个AUC再平均)来看,新的模型是不是比原有的模型更好。 这两个指标是更有个性化判断能力的 离线指标 。 b. 检查线上线下的数据是否计算一致,比如线上打分器打出来的分数和你离线模型用 离线log 数据打出来的是不是一样。 这是相当一部分模型错误的主要原因。 2. userId和 feeds 下拉深度是否是一个好的特征,该怎么用. 当然是好的特征,因为他们含有信号,不知道你的 ctr 模型是用在广告还是推荐。

  5. 2021年3月1日 · 机器学习. 神经网络. 深度学习(Deep Learning) TensorFlow 学习. Keras. loss一下子下降,然后loss基本维持不变,accuracy也一直不变,可能是什么原因? 基于TensorFlow框架,导入Keras搭建了单层LSTM神经网络,神经元数目为32个。 使用金融数据进行时间序列预测时,train loss在前几… 显示全部 . 关注者. 4. 被浏览. 8,230. 6 个回答. 默认排序. nlp的小学生. NLP读研党. 数据太过简单,直接收敛? 发布于 2021-03-01 09:14. Me1817. E~朵奇葩. 谢邀 @布瓜不瓜. 失恋了. 发布于 2021-03-01 23:32. 知乎用户. 优化器换成SGD试试.

  6. 一、Focal Loss解析 在文本分类中不同类别的样本数量往往是不均衡的,比较常用且简单的解决方案是为每类样本赋予不同的权重,已二分类的交叉熵损失函数为例,具体做法如下: 在分类任务中常见的除了样本不均… 阅读全文 . 烛之文. a worker in NLP. 1 关于Focal Loss Focal Loss 是一个在交叉熵 (CE)基础上改进的损失函数,来自ICCV2017的Best student paper——Focal Loss for Dense O… 阅读全文 . Jarvix.

  7. 2020年12月9日 · 深度学习. 卷积 生成网络为例. 在想要约束的中间层下添加一层1*1卷积核层 与 下采样 后的样本求loss. GAN的话参考MSGGAN. 发布于 2021-08-26 19:30. 1 个回答被折叠. ( 为什么? 例如神经网络共9层,在训练时使用的loss是MSE,但是在第3,5,7层后想要加一个额外的小loss,那么如何代码…