006 领先全球语音技术
目录:我真不是科技巨星啊| 作者:武侠仙侠| 类别:武侠仙侠
第一时间,陈耀安装编程软件。
这款名叫“宇宙”的编程软件,是从黑科技U盘找到的,利用它,可以加快编程速度。
编写代码的时候,它会给你智能联想、智能补充、智能修复。
996加班码代码不存在的,Bug不存在的。
要说配音软件,网上一搜一大把,专业电影公司也有自己的专业配音软件,效果也非常不错。
陈耀开发的黑马配音,究竟牛逼在哪里?
一句话总结——AI智能配音!
说白了,就是利用人工智能语音,代替配音师完成电影、动漫的配音。
如此智能的配音技术,别说在国内,全世界没有一家公司能做得到。
因为,这里边涉及到非常复杂的“自然语音识别”技术啊!
在国内,做“自然语音”技术,百度和讯飞毫无疑问是最领先的,两家的语音输入法,好多人都在用,背后的技术就是来自于他们强大的AI语音识别引擎。
在国外,语音技术最牛逼的是亚马逊、谷歌和微软,微软小冰许多人都玩过。
这些公司已经是当今世界最前沿的科技公司了,但他们依然无法做出真正的智能配音软件。
想要让智能语音,像是真人一样完成电影、动漫的配音,需要解决两大难题。
第一,超高的智能化。
现在的所谓人工智能,直白点说,还真有点傻。
智能音箱,你向智能音箱提问,答案往往让人感觉滑稽可笑。
例如,你问问智能音箱:“在你的脚下有一张5元和一张100元的钞票,你会捡哪一张?”
语音助手的回答,要么是“不知道啦。”要么回答:“捡100元。”
正确的答案应该是:两张都捡了!
再问问智能音箱:“马路上开车,突然从左边冲出来一个人,右边冲出来一条狗,车子应该向左转还是向右转?”
智能音箱会回答不知道啦,要么回答向右转。
真正的答案应该是:刹车!
现在的所谓人工智能,给人的感觉更像是个智障,或者说是个死脑筋的呆子。
所有问答都是程序员在背后设定好的,不是真正的神经网络智能。
所谓的深度学习,也做不到灵活变通。
例如问他一个脑筋急转弯。
小明的爸爸有四个儿子,大儿子叫大明,二儿子叫二明,三儿子叫三明,四儿子叫什么?
语音助手根据逻辑算法,它会回答:“四明!”
有一种东西叫大数据,程序员完全可以把所有的脑筋急转弯采集下来啊,那样,上面的问题,智能音箱不就可以答对了吗?
但要是我换一个询问方式。
有一个人叫傻笔,傻笔的爸爸有三个儿子,大儿子叫大笔,二儿子叫二笔,三儿子叫什么?
然后智能音箱又不会回答了,要么不知道,要么胡说八道。
虽然配音不需要什么高智商,也不需要它回答问题,但它至少也要有图象分辨能力。
给电影、动漫做配音,配音师需要根据里边的场景,人物的表情等等调整说话的语气、语调。
现在的人工智能在文字识别很强,基本可以做到100%,看着电影字幕,机器人也能配音。
但问题是……
识别不了电影动漫里边的景象、表情,效果就会非常差劲。
在动态图象识别方面,当今世界没有一家公司真正做得好。
第二个问题,就是人工语音的感情。
真人说话的声音,抑扬顿挫、喜怒哀乐、有呼吸、有口水声,节奏或快或慢,这样的配音效果是当今的语音无法做到的。
现在的语音就是电子音,金属音,虽然某些公司做的语音做得很逼真,但还是能很明显听得出那种没人情味的“机器人”声音。
同一句话在不同的影视动漫场景,都会有不同的表现效果。
喜!
“今生得不到你的爱,来世再相见。”女主角在灾难现场找到了男主角,他还活着,她的语气是喜悦的。
怒!
“今生得不到你的爱,来世再相见。”反派被女主一剑刺穿胸膛,他语气充满了愤怒与不甘。
哀!
“今生得不到你的爱,来世再相见。”男主角向女主表白,被拒绝了,他语气低落。
乐!
“今生得不到你的爱,来世再相见。”男主角在愚人节戏弄女主成功,他得意大笑。
真人配音可以根据不同的场景,表现出不同的配音效果。
而AI语音只能根据文字配音,每说一次,它的语气、语调都是一样的,一样一样的。
如此呆板的语音,是不可能用在影视动漫配音的。
所以,人工智能想要应用在配音领域,在智能化和真感情方面都要有革命性的飞跃。
当今世界没有一家公司能做好,这就是留给初创者的机会。
陈耀手指飞快地在键盘上敲打着,一串串代码出现在编辑框当中。
他的大脑和手速都经过黑科技强化的,码字的速度那叫一个神速。
眨眨眼的时间,20行代码……眨眨眼的时间,50行代码……
换做普通人,别说有他那样的手速,眼睛都没这么快的速度啊,还没看清写了什么,就飞速滚屏刷新了。
陈耀完全沉浸在编写程序的境界中,体验着那种闪电一般的刷新快感。
大概三个小时后……
“啪!”陈耀重重敲下回车键:“OK,大功告成!”
黑马配音软件开发成功了!
更强大的是它内置的智能语音引擎,前者的任务量不算大,大部分的时间都花在了语音引擎上。
语音引擎的底层,是当今世界第一个,真正意义上的智能神经网络框架,算法的复杂程度堪比人类的大脑神经。
换做谷歌、微软,起码要20年的时间才能做出来。
陈耀揉了揉手指:“我花了3个小时,真是累啊。”
之所以这么快,除了他本身速度快,还有另外一个原因,里边许多的数据,都是来自宇宙U盘,直接导入,省去了不少功夫。
原本,陈耀想直接在U盘里边找配音软件的成品,这样就不用自己编写代码了。
可是,目前U盘只是解锁了第一个白羊座分区,这个分区并没有成品,想要解锁其他分区需要更多的积分。
其实转念一想,黑马配音软件有自己参与编写也挺好,成就感更强,反正也花不了多少时间。
现在配音软件有了,语音引擎也有了,接下来,生产发音角色。
……
PS:不知道大家有没有用过起点读书的语音朗读功能?不妨用语音听听一下感觉。
陈耀同学现在做的肯定比当今的语音技术强大很多很多。
求收藏、投票
这款名叫“宇宙”的编程软件,是从黑科技U盘找到的,利用它,可以加快编程速度。
编写代码的时候,它会给你智能联想、智能补充、智能修复。
996加班码代码不存在的,Bug不存在的。
要说配音软件,网上一搜一大把,专业电影公司也有自己的专业配音软件,效果也非常不错。
陈耀开发的黑马配音,究竟牛逼在哪里?
一句话总结——AI智能配音!
说白了,就是利用人工智能语音,代替配音师完成电影、动漫的配音。
如此智能的配音技术,别说在国内,全世界没有一家公司能做得到。
因为,这里边涉及到非常复杂的“自然语音识别”技术啊!
在国内,做“自然语音”技术,百度和讯飞毫无疑问是最领先的,两家的语音输入法,好多人都在用,背后的技术就是来自于他们强大的AI语音识别引擎。
在国外,语音技术最牛逼的是亚马逊、谷歌和微软,微软小冰许多人都玩过。
这些公司已经是当今世界最前沿的科技公司了,但他们依然无法做出真正的智能配音软件。
想要让智能语音,像是真人一样完成电影、动漫的配音,需要解决两大难题。
第一,超高的智能化。
现在的所谓人工智能,直白点说,还真有点傻。
智能音箱,你向智能音箱提问,答案往往让人感觉滑稽可笑。
例如,你问问智能音箱:“在你的脚下有一张5元和一张100元的钞票,你会捡哪一张?”
语音助手的回答,要么是“不知道啦。”要么回答:“捡100元。”
正确的答案应该是:两张都捡了!
再问问智能音箱:“马路上开车,突然从左边冲出来一个人,右边冲出来一条狗,车子应该向左转还是向右转?”
智能音箱会回答不知道啦,要么回答向右转。
真正的答案应该是:刹车!
现在的所谓人工智能,给人的感觉更像是个智障,或者说是个死脑筋的呆子。
所有问答都是程序员在背后设定好的,不是真正的神经网络智能。
所谓的深度学习,也做不到灵活变通。
例如问他一个脑筋急转弯。
小明的爸爸有四个儿子,大儿子叫大明,二儿子叫二明,三儿子叫三明,四儿子叫什么?
语音助手根据逻辑算法,它会回答:“四明!”
有一种东西叫大数据,程序员完全可以把所有的脑筋急转弯采集下来啊,那样,上面的问题,智能音箱不就可以答对了吗?
但要是我换一个询问方式。
有一个人叫傻笔,傻笔的爸爸有三个儿子,大儿子叫大笔,二儿子叫二笔,三儿子叫什么?
然后智能音箱又不会回答了,要么不知道,要么胡说八道。
虽然配音不需要什么高智商,也不需要它回答问题,但它至少也要有图象分辨能力。
给电影、动漫做配音,配音师需要根据里边的场景,人物的表情等等调整说话的语气、语调。
现在的人工智能在文字识别很强,基本可以做到100%,看着电影字幕,机器人也能配音。
但问题是……
识别不了电影动漫里边的景象、表情,效果就会非常差劲。
在动态图象识别方面,当今世界没有一家公司真正做得好。
第二个问题,就是人工语音的感情。
真人说话的声音,抑扬顿挫、喜怒哀乐、有呼吸、有口水声,节奏或快或慢,这样的配音效果是当今的语音无法做到的。
现在的语音就是电子音,金属音,虽然某些公司做的语音做得很逼真,但还是能很明显听得出那种没人情味的“机器人”声音。
同一句话在不同的影视动漫场景,都会有不同的表现效果。
喜!
“今生得不到你的爱,来世再相见。”女主角在灾难现场找到了男主角,他还活着,她的语气是喜悦的。
怒!
“今生得不到你的爱,来世再相见。”反派被女主一剑刺穿胸膛,他语气充满了愤怒与不甘。
哀!
“今生得不到你的爱,来世再相见。”男主角向女主表白,被拒绝了,他语气低落。
乐!
“今生得不到你的爱,来世再相见。”男主角在愚人节戏弄女主成功,他得意大笑。
真人配音可以根据不同的场景,表现出不同的配音效果。
而AI语音只能根据文字配音,每说一次,它的语气、语调都是一样的,一样一样的。
如此呆板的语音,是不可能用在影视动漫配音的。
所以,人工智能想要应用在配音领域,在智能化和真感情方面都要有革命性的飞跃。
当今世界没有一家公司能做好,这就是留给初创者的机会。
陈耀手指飞快地在键盘上敲打着,一串串代码出现在编辑框当中。
他的大脑和手速都经过黑科技强化的,码字的速度那叫一个神速。
眨眨眼的时间,20行代码……眨眨眼的时间,50行代码……
换做普通人,别说有他那样的手速,眼睛都没这么快的速度啊,还没看清写了什么,就飞速滚屏刷新了。
陈耀完全沉浸在编写程序的境界中,体验着那种闪电一般的刷新快感。
大概三个小时后……
“啪!”陈耀重重敲下回车键:“OK,大功告成!”
黑马配音软件开发成功了!
更强大的是它内置的智能语音引擎,前者的任务量不算大,大部分的时间都花在了语音引擎上。
语音引擎的底层,是当今世界第一个,真正意义上的智能神经网络框架,算法的复杂程度堪比人类的大脑神经。
换做谷歌、微软,起码要20年的时间才能做出来。
陈耀揉了揉手指:“我花了3个小时,真是累啊。”
之所以这么快,除了他本身速度快,还有另外一个原因,里边许多的数据,都是来自宇宙U盘,直接导入,省去了不少功夫。
原本,陈耀想直接在U盘里边找配音软件的成品,这样就不用自己编写代码了。
可是,目前U盘只是解锁了第一个白羊座分区,这个分区并没有成品,想要解锁其他分区需要更多的积分。
其实转念一想,黑马配音软件有自己参与编写也挺好,成就感更强,反正也花不了多少时间。
现在配音软件有了,语音引擎也有了,接下来,生产发音角色。
……
PS:不知道大家有没有用过起点读书的语音朗读功能?不妨用语音听听一下感觉。
陈耀同学现在做的肯定比当今的语音技术强大很多很多。
求收藏、投票
如果您喜欢,请点击这里把《我真不是科技巨星啊》加入书架,方便以后阅读我真不是科技巨星啊最新章节更新连载。
错误/举报