当前位置:首页 > 安防资讯 > 安防业界

语义识别有“偏见”微信翻译惹麻烦

任何事物都有好坏之分,但对于人工智能,人类对其的期望始终是积极向上的,规避那些不好的东西。但随着人工智能越来越智能,人类许多不好的习性全都学会了。

微信翻译惹麻烦

近日,微信平台因把“blackforeigner(外国黑人)”自动翻译成“黑鬼”进行道歉,再一次引发行业对于如何才能教会AI识别种族歧视问题?

事情是这样的,一位黑人戏剧总监在向同事发微信说“她迟到了”,。而同事用中文回答的时候,微信自动将信息翻译成“Theniggerislate(黑鬼迟到)”。Nigger和nigro来自“黑色”的拉丁语niger和nigra,引致英语里意思差不多是“黑色的东西”,是蔑称,带有侮辱性质。

不仅仅是微信的人工智能翻译软件,在2016年,测试谷歌文本算法时也是错误泛滥,“医生”翻译为“护士”,甚至更离谱的是“男人”被翻译成“女人”。人工智能语义识别实在是令人咂舌。

何为语义识别?

以语言学、计算机语言等学科为背景的,对自然语言进行词语解析、信息抽取、时间因果、情绪判断等等技术处理,最终达到让计算机“懂”人类语言的自然语言认知,以及把计算机数据转化为自然语言。

语义识别的应用领域十分广泛,既可以直接应用于医疗、教育等行业,也可以应用于所有智能语音交互场景,如智能家居、VR等。智能语音交互被看做未来人工智能技术中最值得期待的应用场景。但是,“AI可以说更像人类一样思考,可悲的是他们正在学习我们提供的最糟糕的东西。”有外媒记者指出。微信也表示翻译软件会充分考虑其上下文,所以很有可能会引发诽谤嫌疑。

消除“偏见”是条漫长的道路

归根究底AI在学习的是人类社会普遍存在的“偏见”现象,在修复AI“偏见”这一条路上,设计人员与编程人员必须反复琢磨其软件算法,才能达到以无偏差方式执行服务任务的要求。

我们正随着AI进入一个全新的人工智能领域,必须要发展出新的措施和原则来避免所谓的偏见。但我们必须要明白的一点是,只要有独立自主的思维都会有某些偏见,或是不喜欢的食物;或是不喜欢的人,严重的可能就是种族歧视等,我们在发展人工智能的时候,一方面期待它能够像人一个拥有灵活自主的思维,另一方面希望它遵从人类的希望发展(比如说:消除某些不好的思维)。

毫无疑问,人工智能在发展过程中的结果与期望是存在某些矛盾的,在修正的这条路还十分漫长。

来源:华强智慧网     编辑:     热度:  
更多.
工具资料
安防技术
热点资讯

更多.最新内容

更多.热门关注