对小数据而言,最基本最重要的要求就是减少错误,保证质量。因为收集的信息量比较少,所以我们必须确保记下来的数据尽量精确。无论是确定天体的位置还是观测显微镜下物体的大小,为了使结果更加准确,很多科学家都致力于优化测量的工具。在采样的时候,对精确度的要求就更苛刻了。因为收集信息的有限意味着细微的错误会被放大,甚至有可能影响整个结果的准确性。然而,在不断涌现的新情况里,允许不精确性的出现已经成为一个新的亮点,而非缺点。因为放松了容错的标准,人们掌握的数据也多了起来,还可以利用这些数据做更多新的事情。这样就不是大量数据优于少量数据那么简单了,而是大量数据创造了更好的结果。谷歌的翻译更好并不是因为它拥有一个更好的算法机制,是因为谷歌翻译增加了各种各样的数据。2006年,谷歌发布的上万亿的语料库,就是来自于互联网的一些废弃内容。谷歌将其作为“训练集”,可以正确地推算出英语词汇搭配在一起的可能性。谷歌的这个语料库是一个质的突破,使用庞大的数据库使得自然语言处理这一方向取得了飞跃式的发展。同时,我们需要与各种各样的混乱做斗争。
如果您发现该资源为电子书等存在侵权的资源或对该资源描述不正确等,可点击“私信”按钮向作者进行反馈;如作者无回复可进行平台仲裁,我们会在第一时间进行处理!
加入交流群
请使用微信扫一扫!