B站的事,AI审稿,怎么还需要人24小时盯着?

admin

B站今天再次回应员工“暮色木心”离世:

第一,公司将用最大力度扩招审核人员,今年增加招聘1000人。人手的增加,可以有效降低人均工作压力。

第二,加强关注审核员工的身体健康。除公司每年常规体检外,从本月开始,组织内容安全中心的全员进行加强体检。同时,增设全天候的健康咨询室,保证员工的身心健康。

“暮色木心”所在的AI图文审核组负责B站投稿的内容合规审查,既然AI都能自动审核内容了,为什么人还这么累?

AI内容审核啥水平,还得轮班盯着看?

现在,各大AI公司基本都提供了内容安全审核的服务,我们先从阿里官方的介绍来看下,目前的AI能力边界都到哪了。

阿里巴巴的内容审核技术基于视觉分析技术和深度识别技术,并经过阿里集团内和云上客户的多领域、多场景的广泛应用,提供风险和治理领域的图像识别、定位、检索等全方位服务能力,不仅能帮助用户降低色情、广告、垃圾、敏感信息等违规风险,而且能大幅度降低人工审核成本。

阿里本身的电商平台,商品详情、用户评论、直播录播视频等内容,都需要耗费大量的精力去审核,就文字内容审核来说,AI做的已经相对完善了。

首先最基础的就是基于词库的关键词过滤,比如涉及敏感军事、政治以及辱骂的话语,经过多年的积累,词库已经相对完善,一旦触发就能报警或者禁掉,这种方法的好处是简单高效。

第二个层级就是基于AI模型的检测,内容发布者对文字内容进行了一定程度的修改,比如多音字、异形字,这部分通过机器训练的AI模型,可以检测出来,但是准确率不好保证。

如果是图文混排的,或者将一些文字图片化、图片扭曲、旋转等操作,AI识别的难度就更大了,要识别就需要OCR,而OCR的前提是噪音不大,如果图片本身的噪点很多,图片的预处理就会耗费很大的精力,步骤越多累积的误差可能就越大,而有些内容是绝对不允许出错的,目前的AI内容审核不能适用这些苛刻的场景,100个风险漏掉一个就会出事。

第三个层级,AI图文审核总体的计算资源需求比较小,一到了音视频,计算量就会呈指数级增长,视频的内容分析可以大致看成切分成了一张张图片,可实际上因为空间和时间的序列关系,视频的审核并不是简单的图片内容分析,视频的内容审核难度要高于图片内容审核。

内容审核的流程

上面说的几个都是技术理论上的可行性,在一些中小规模的内容平台也许够用了,但是到了微博、知乎、B站这些用户过亿的渠道,AI就有点捉襟见肘。

一是这些平台的内容创作者,手法、技巧都更上一层楼,比如将中心思想隐喻在历史故事、将敏感信息加密等,机器很难识别到,二是这些平台的影响范围广,稍有不慎就会让舆论偏向,所以大平台的内容安全审核工作都需要人的协作。

创造生产力还是自掘坟墓,AI与人类合作得还好吗?

根据B站发布的公告也说了,这个工作基本是7*24小时的,轮班不分昼夜,因为内容发布没有固定的时间,而且审核的时间还不能太长,所以压力就到了审核员身上。

从公司的角度讲,AI能帮助整个工作流节省简单、重复的工作,所以优化原来的人员结构在所难免,但是AI不能优化的部分,工作复杂度就会上升,导致平摊到单个人身上的工作量增多,不过,公司总体是获益的。

人工智能与人类的合作已经开始,《哈佛商业评论》做过一项涉及1500家企业的研究,结果显示,当人类和机器一起工作时,企业受益最大,调查同时指出,人类有某些特征,机器无法承担,反之亦然。一个简单的例子是,一个人开玩笑讽刺某个人,我们轻易就能搞懂,但机器很难理解,而分析海量的数据对机器来说很容易,对人类来说几乎是不可能。

有人享受着人工智能带来的生产力提升,也有人承受着额外的工作压力,说AI是一柄双刃剑一点也不为过,就内容审核这项工作来说,因为人员的减少,员工并没有享受到人工智能带来的福利。

而且,大部分人工智能是没有人类感情的,也谈不上会对工作负责,不管机器做出什么决策,负责的都是具体的人。

某些行业和特定职业在未来很有可能完全自动化,这样的情景也很令人担心,2014年,斯蒂芬 · 霍金说,“强人工智能的发展可能意味着人类的终结。”

我们创造智能,是为了更好地生活,而不是为了自掘坟墓,对AI社会伦理的探讨,应该成为AI应用开发的重要一步。返回搜狐,查看更多

Copyright © 2088 南美洲世界杯预选赛程_世界杯2 - ycfcjt.com All Rights Reserved.
友情链接