目前AI领域 的一大趋势是什么?没错,就是扩大数据集规模。然而最近Geogle reserach 的一篇论文,却认为对超大规模数据集进行整理的趋势,反而会阻碍有效开发人工智能系统。
数据规模真的越大越好?
算力和数据是人工智能两大主要驱动力。无论是计算机视觉,还是自然语言处理等AI系统似乎都离不开数据集。
在超大规模数据时代,数据和学习结果是这样的关系:
数据规模越大,AI模型越精准、高效。在大部分人眼里,这似乎是个不争的事实。
数据规模和模型精确度难道真的是呈现正相关关系吗?