This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.
nn.BCEWithLogitsLoss()和nn.CrossEntropyLoss()最后一层都不需要激活函数,这两个函数中都带有激活函数的计算,softmax函数如果被执行两次,可能会数据溢出精度
样本需要先归一化,特别是sigmoid输出时,否者也会溢出,反正会出问题
增加中间的神经元数量可以提高效果,1%到2%的提升
使用nn.BCEWithLogitsLoss()函数时,计算每一次训练的准确度,需要手动sigmoid一次