在AI系统过度审查之后YouTube带回了更多的人类主持人

YouTube表示,由于公司的AI过滤器无法达到其准确性,正在带回在大流行期间“脱机”的人类主持人。

早在3月,YouTube表示它将更多地依靠机器学习系统来标记和删除在仇恨言论和错误信息等方面违反其政策的内容。但是YouTube在本周告诉英国《金融时报》,更多地使用AI审核已导致视频删除量和不正确删除次数显着增加。

说,大约11万个视频被从YouTube四月至六月间拆除,FT,或约两倍于正常的速度。这些下架中约有32万被上诉,其中一半被恢复的视频已恢复。英国《金融时报》再次表示,这大约是通常数字的两倍:这表明AI系统在发现有害内容方面过于狂热。

正如YouTube的首席产品官Neal Mohan告诉英国《金融时报》:“(在大流行初期)我们做出的其中一项决定是,机器无法像人类一样精确,我们会在一方面要确保我们的用户受到保护,即使这样做可能会导致[a]视频数量略有下降。”

这种失败的承认是值得注意的。从Twitter到Facebook到YouTube,所有主要的在线社交平台都面临越来越大的压力,以应对其网站上仇恨和误导性内容的传播。所有人都说算法过滤器和自动过滤器可以帮助应对其平台的巨大规模。

然而,一次又一次地,人工智能和中庸专家对这些说法表示怀疑。他们说,判断关于阴谋论的视频是否包含对种族主义信仰的微妙暗示,对人类而言可能是一个挑战,而计算机缺乏我们了解这些主张的确切文化背景和细微差别的能力。自动化系统可以发现最明显的罪犯,这无疑是有用的,但更精细的判断仍然需要人员。

即使做出更简单的决定,机器仍然会混乱。例如,早在5月,YouTube就承认它会自动删除包含某些批评中国共产党(CCP)的短语的评论。该公司后来将错误归咎于“我们的执行系统有错误”。

但是正如Mohan告诉英国《金融时报》,即使只是删除最明显的违规者,机器学习系统也绝对有其位置。他说:“实际YouTube用户在这1100万个视频中,有超过50%的视频被删除而没有一个视图,而在少于10个的视图中被删除了80%以上。”“这就是机器的力量。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢