nn.BCEWithLogitsLoss()和nn.CrossEntropyLoss()最后一层都不需要激活函数,这两个函数中都带有激活函数的计算,softmax函数如果被执行两次,可能会数据溢出精度 样本需要先归一化,特别是sigmoid输出时,否者也会溢出,反正会出问题 增加中间的神经元数量可以提高效果,1%到2%的提升 使用nn.BCEWithLogitsLoss()函数时,计算每一次训练的准确度,需要手动sigmoid一次