如何评价腾讯AI在博鳌论坛担任同声传译的表现?
作为曾经的人肉翻译我留意到,腾讯的同声传译据说初战失利,很多地方出现了乱码式翻译,比如整个屏幕上一再重复没有意义的单词。另外,“Yes,please”被译成“是的,求你了”,这样的文体不当也被传为笑谈。很多曾担心下课的同传一看这效果,觉得放心了。
不过我觉得,大家不要过早唱衰机器同传。从同传失误的相关报道上我看到,大部分问题出在语音识别上。总体上来说,这个领域的发展是有目共睹的。如今大家都习惯了通过Siri或者“谷歌助手”等方式操作自己的手机,让其拨打电话、搜索信息、输入文字。人的语言识别越来越准确,越来越普及。
和人一样,机器也需要“训练”。输入者稍微改变自己的说话方式,包括降低语速,甚至是把话筒距离调整得更恰当一些,识别的准确率会提高很多。早些年,我第一次使用语音转文字的软件Dragon Naturally Speaking的时候,第一个任务是“训练”该软件。该训练过程让软件接受我的发音方式,并通过我自己的纠正让机器了解什么语音对应什么文字。腾讯的同传据说在腾讯年会上使用过,效果不错,那为什么这次露怯了呢?我猜是因为后者的使用环境下,机器缺乏必要的“训练”。如果在流程上进行改造,比如针对开会的发言人事先进行一些识别和纠错,准确率会提高很多。另外,语音识别也需要良好的声音环境,杂音和背景声音对于效果的干扰很大。大型会议上,语音识别系统能否采集到最佳的语音也是问题,这方面技术上完全可以调整和改良,这一点我信心十足。
另外,人的选择和人机交互都非常必要。不能把事情交给机器翻译后,人撂挑子。现在,我已经能够熟练地使用谷歌文档的语言输入功能。我也发现,Y outube的录像能够自动添加配音文字,即便对于我这个外国人说的英语来说,识别的准确率也还是不错的。不过,我无法想象把一切都交给这些工具,继而完全依赖它。理想的情况,是以机器为帮手,先解决掉它能做的粗活重活脏活。人应有智慧去识别什么是机器擅长,什么是人的特长,然后人与机器合理地分工合作。比如在语音输入上,我习惯在看书摘录的时候使用语音输入,因为我只是照着念而已。在写作本文的时候,我往往是边想边写,中间有所停顿,这时候就使用打字输入的方法。同理,那种大型、嘈杂的会议环境,不总是适合机器同传,那么是不是在个别发言时效果更佳?总体来说,在什么样的环境下,机器同传最为出彩?
机器同传的研发者,不应只考虑怎么取代人肉同传,而应利用机器的语音识别功能,改良相关流程,比如取代传统同传头痛的记忆和速记。机器同传的结果,如果准确率能够接受的话,将能够帮助人类同传更好地沟通,解放出人类同传的生产力,让其从事文字的精雕细琢,也释放同传过程中的惊人压力。人类同传也不能熟知讲话中所有术语、诗词、引用,强大的数据库不是人类的特长,是机器的特长,这方面可以交给机器去做。机器干完自己要干的事,人类会踩在巨人的肩膀上,站得更高、看得更远。
在机器同传上,我们必须摆脱是机器翻译还是人工翻译的错误思维,而是进入人类专业人员利用人工智能增强翻译的思维。机器同传应该有能力让人类同传做更出色的同传。设计机器人去取代人,不能把技术和人的优势各自尽情发挥,反而造成对技术和人的双重浪费。对机器同传技术进行改进的同时,也需要意识到,人类对于技术的应用能力之多寡,也会对技术的成效产生深远影响。
而今,关于人工智能的讨论方兴未艾,很多讨论的焦点是人工智能如何取代人工,比如某银行放弃所有大堂经理和人工柜员,凭借人脸或者身份证识别完成所有操作。在一个人口大国,取代人的方向是不可取的,社会应该反思“无人超市”、“无人银行”这样的思路。更需要思考的,是学习如何利用人工智能,让人在现有的职位或是新创造出来的职位上更强大、更优雅、更从容。机器如果不能让人更像人,而只能进行拙劣的模仿、效果让人抓狂,这种人工智能的走向就是死胡同,这种研发是不值得的,应该下课。Yes,please.是的,求你了。
(作者南桥,系旅美教育工作者)
本版言论仅代表作者个人观点