《罗布乐思》这个大型游戏制作平台进行语音交流审核已有段时间,使用了机器学习AI技术。尽管AI的效果显著,但在某些情况下,人工审核的作用还是不能被取代。这其中的奥秘是什么?我们来深入了解一下。
AI审核开启语音监管新时代
罗布乐思公司在GDC 2024大会上公布了他们使用AI进行语音审查的信息。这项AI审查已经持续了一年之久。此外,审查范围广泛,涉及31个国家和地区。由于该平台有很多儿童用户,他们的语音内容存在被滥用的问题。幸运的是,AI技术的应用在一定程度上帮助监管了聊天内容。

Kiran Bhat,罗布乐思的高级技术总监,提到实时监控语音是一项挑战。AI技术能够在海量的语音数据中找出潜在的风险。它不受情感影响,也不会感到疲惫,因此在处理明显违规行为时,它的效率和稳定性都超过了人类,为游戏语音环境的监管开辟了新的途径。
语音审核的复杂挑战
语音审核要精准辨别不良信息并不简单。Kiran Bhat指出,判断语音是否含有恶意,既要关注内容本身,也要注意说话者的语气和音量。比如,同样是强硬的语气,如果是无害的言辞,那与在温和语气下发出的威胁性话语,其判断标准是有所区别的。
判断话语是否冒犯,上下文同样重要。在对话的不同场景里,相同的词句可能表达的意思各异,这大大提升了审核的复杂性。因此,审核系统必须具备高度智能化,才能有效应对这些挑战。
违规内容分类策略
《罗布乐思》公司采取了将违规内容分为四大类别的做法。调查发现,大约有85%的违规内容都落在这四大类别之中,而且大部分违规内容都可以通过50个关键词来识别。
掌握这50个关键词对审核工作大有裨益。公司可利用这些词构建AI审核模型,使系统更精确地识别违规信息,提升审核的效率和精确度。这些关键词如同衡量违规内容的尺子。
AI审核显著成果

一年过去,AI监管成效显著。《罗布乐思》的语音安全负责人指出,违规举报量在“活跃聊天时间”减少了半数。这一数据直接展示了AI的效能,它净化了游戏中的语音聊天环境,为玩家,尤其是儿童用户,带来了更佳的体验。
AI在处理海量数据时速度极快,能够即时监控语音内容。面对众多违规行为,它能迅速做出判断并处理,有效阻止恶意信息的传播。这些都是维护游戏语音环境的关键因素。
人工审核不可替代的优势
尽管AI在审核方面表现不错,但在解读意图和作出判断上,人类的能力还是胜过机器。语音安全负责人指出,当遇到边缘情况、数据不足或机器学习系统难以有效训练的罕见状况时,就需要依赖审核员的专业知识和丰富经验来做出判断。
一些含有文化内涵和隐晦意义的语言,机器难以洞察其深层的恶意。而人类审核员凭借丰富的知识储备和敏锐的判断力,能更精确地识别这些内容。人类的应变能力和适应性强,是当前人工智能所无法达到的。
两者结合的未来之路

将来,《罗布乐思》公司打算融合人工智能审核与人工审核的长处,确保玩家尤其是儿童的网络安全。面对明显违规内容,它将借助AI的高效与稳定性迅速筛选;而在情况复杂、边界模糊时,则依赖审核员的专业判断。
这种融合方式不仅提升了审查速度,还确保了审查品质。同时,它还为其他游戏平台的语音审查提供了参考。在全球众多游戏平台和开发者中,找到人工智能与人工审查的恰当平衡至关重要。
总体而言,《罗布乐思》在语音审核方面的尝试为我们提供了不少借鉴。关于未来游戏语音审核,AI与人工审核谁将主导,大家有何高见?不妨在评论区留言交流。同时,若觉得内容有价值,请点赞并转发,让更多人知晓这些信息。
版权说明:本文章为昆明鱼豆网所有,未经允许不得转载。