9月18日,谷歌、脸书和推特三家科技公司再次前往美国国会参加听证会。三家科技公司在听证会上表示,他们正在采取更多措施来防止和移除可能导致平台发生严重事故的暴力和极端内容。

在听证会上,该技术公司表示,使用更多的技术工具可以让平台更快地采取行动打击暴力和极端内容。

据路透社9月19日报道,批评者认为,支持极端组织的暴力视频和帖子不能立即从社交媒体网站上删除。对此,民主党参议员理查德·布卢门塔尔表示,社交媒体公司需要采取更多措施来防止暴力内容。

facebook全球政策管理负责人莫尼卡·比克特(Monika bickert)表示,其软件检测系统“使用人工智能将在facebook直播中发现暴力内容的速度降低到平均12秒,过去几个月平均检测时间减少了90%。

在2019年5月的新西兰恐怖袭击中,一名持枪歹徒杀害了51人,并在其脸书页面上直播了他的袭击,引发了国际抗议。事件发生后,facebook表示暂时禁止被禁用户播放直播视频。

比克特还表示,facebook希望执法机构帮助他们获取“有助于培训工具的视频”,并改善机器学习以检测暴力视频。

据《华尔街日报》报道,脸书CEO马克·扎克伯格(mark zuckerberg)将于当地时间9月19日重返美国国会,就温和的互联网监管发表自己的观点。这条消息首先由网站axios披露。

脸书发言人说,“马克将在华盛顿特区会见决策者,讨论互联网监管的未来。没有计划的公共行动。”

除脸谱网外,在9月18日的听证会上,推特公共政策总监尼克·皮克尔斯(nick pickles)表示,该平台从2015年8月至2018年底已经禁止了150多万个宣扬暴力恐怖主义的账户,其中“90%以上的账户因为我们采取的积极措施而被禁止。

字母表子公司谷歌全球信息政策主管德里克·斯莱特(Derek slater)表示,答案是“技术和人的结合,技术可以越来越准确地发现模式,人可以帮助处理正确的细节”。

自2019年以来,谷歌子公司优酷每三个月就删除900万个视频,其中87%是人工智能视频。