我目前正在构建一个深度学习模型来识别图像.根据我的阅读,数据增加(如随机裁剪图像)将减少模型的过度拟合.但是,我不确定如果过度这样做会导致更糟糕的模型.当然,我可以尝试更多
是否可以从尺寸为n x n的图像中制作尺寸为m x m的所有可能作物,从而获得更好的模型性能?
我相信它会.我的理由是:当我们训练深度学习模型时,我们会查看火车损失和验证损失并训练模型,直到损失非常低.假设最初我们有一组1000个图像的火车,模型需要100个时期来训练.现在,我们从原始火车组中裁剪出10倍的额外图像.现在可以将每个时期看作等同于先前模型中具有较少训练数据的10个时期.然而,与之前模型中的10倍重复相比,这10个时期的每个训练数据略有不同.当然,这将导致过度拟合.我的推理是否正确?
在这种情况下,假设我们有足够的计算资源,是否存在裁剪所有可能较小尺寸图像的缺点?
目前我正在寻找从72×72的图像裁剪所有可能的64×64图像,这给我每个原始图像总共64个新图像.
我还没有看到任何与之相关的论文.如果有人能指出我,我将不胜感激.谢谢.
回答你的问题,没有.它不会损害性能,但它会为一般过程增加几毫秒.也许你能得到的最佳答案是尝试不同的方法.