基于深度学习的聊天机器人参数和超参数搜索Seq2Seq模型
梯度下降法Epochbatchasizeiterations参数和超参数Seq2Seq模型梯度下降法学习率:步长越大则学习率越高误差函数不断减小。如果训练数据过多,无法一次性将所有数据送入计算。故将数据分成几个部分:batch,分多个batch,逐一送入计算训练。Epoch一个 epoch(回合) 表示:将全部数据送入神经网络模型中,完成了一次 前向计算 + 反向传播 的(完整训练)过程。由于一个 epoch 通常太大,所有会分成几个小的 baches。将所有数据迭代训练一次是不够的,需.