讯飞

unimrcp更改安装目录

橙三吉。 提交于 2020-03-12 11:04:37
构建简单的智能客服系统(一)——FreeSWITCH 搭建与配置 https://cotin.tech/AI/FreeswitchSetting/ 构建简单的智能客服系统(二)——基于 UniMRCP 实现讯飞 ASR MRCP Server https://cotin.tech/AI/UniMRCPASR/ 通过实现 UniMRCP 的 plugin,我们可以封装讯飞、百度、阿里等厂家的 ASR 接口,实现我们自己的 MRCP 服务器. 构建简单的智能客服系统(三)——基于 UniMRCP 实现讯飞 TTS MRCP Server https://cotin.tech/AI/UniMRCPTTS/ 注:如果在安装unimrcp时,需要更改安装目录,需要在unimrcp-1.5.0源目录文件下修改config.layout文件中的prefix值。 来源: https://www.cnblogs.com/Allen-win/p/9822958.html

使用讯飞语音识别的空指针错误

為{幸葍}努か 提交于 2020-03-08 09:56:48
问题: 刚开始用讯飞写小Demo的时候比较快,基本上没有遇见什么错误, 主要是参考了这篇博客: https://blog.csdn.net/chenli_001/article/details/73603917 但是后面在项目里面集成的时候,一直显示空指针错误,一连好几天都没弄好。 java.lang.NullPointerException: Attempt to invoke virtual method ‘boolean com.iflytek.cloud.SpeechSynthesizer .setParameter(java.lang.String, java.lang.String)’ on a null object reference 原因: 空指针也就是说使用的指针为null,所以空指针错误就是说使用这个指针调用方法相当于用null来调用方法,所以就要从这个指针入手解决。参考: https://zhidao.baidu.com/question/692912236600019684.html 解决(几种方法都可以试一下): 1.检查时候将官网sdk中的demo的libs下的所有文件全部复制到项目的libs和jniLibs目录下,同时libs下的jar包要右键add添加 2.检查APPID和项目中需要的sdk(注意这个sdk是和每个APPID匹配的

使用科大讯飞语音转文字的服务进行电话录音分析

筅森魡賤 提交于 2020-02-08 20:14:08
需求 合规性质检:1)设定规则,实现自动质检,自动打分;2)如VOC文本质检可与语音文字进行匹配,自动判断是否合格;3)新媒体文本可自动质检4)可识别异常录音(指定标准外);5)诉求记录与语音内容是否可匹配,检测内容是否一致(关键词);6)系统自我检测,对需要质检员校准的分析进行识别;7)特定内容判断是否合规(如蒸箱拨测内容)。 分析功能 (1) 对指定的录音进行制定规则的分析(如交互时长)。 (2) 对指定的某类型录音记录,自动找根因(如重复来电、不满意分析、满意、外拨分析,系统自我检测,对需要质检员校准的分析进行识别)。 (3) 通过语音、语调、语速等识别客服和客户的情绪和态度。 (4) 语音语调的范围(用来匹配哪种语音语调的客户满意度高)。 (5) 筛选录音时长,对过长的录音进行预先分析。 我们solution proposal的文档里打算用科大讯飞的service,但是他无法满足3和4这两个requirement。 我对可达讯飞的service做了简单的测试: 其工作原理是通过讯飞的SDK将本地语音文件上传到讯飞的server上,server通过http response以json格式返回给consumer. 附件是我用于测试的一个语音文件,我说的话是”测试一下Netweaver对于并发请求的响应性能”. 测试结果 (1) 所有中文均能成功转成文字;

JAVA JNA 讯飞离线语音合成

馋奶兔 提交于 2019-12-31 22:56:01
JAVA JNA 讯飞离线语音合成 SDK下载 JNA MAVEN依赖 JAVA代码 SDK下载 URL:https://www.xfyun.cn/sdk/dispatcher windows离线语音SDK包下载 JNA MAVEN依赖 < ! -- https : / / mvnrepository . com / artifact / net . java . dev . jna / jna -- > < dependency > < groupId > net . java . dev . jna < / groupId > < artifactId > jna < / artifactId > < version > 5.5 .0 < / version > < / dependency > JAVA代码 package com . xunfei . tts ; import com . sun . jna . Library ; import com . sun . jna . Native ; import com . sun . jna . Pointer ; import com . sun . jna . ptr . IntByReference ; import java . io . IOException ; import java . io .

Linux 正式引入讯飞输入法,提供更优质的输入体验

本小妞迷上赌 提交于 2019-12-10 01:29:56
Linux 正式引入讯飞输入法,提供更优质的输入体验Linux 正式引入讯飞输入法,提供更优质的输入体验 很多小伙伴都知道,讯飞输入法在手机端有Android和iOS版,还分别推出Windows系统和Mac系统的PC端两个版本。此次推出的讯飞输入法Linux版针对深度DeepinOS进行了深度定制,打造出体验更纯粹的Linux输入法。不仅如此,Linux版输入法界面经过UI团队精心“调教”,视觉上更简洁大方。更重要的是讯飞输入法软件纯净绿色,对内置广告say no,因此用户不用担心被讨厌的广告打扰。此外,讯飞输入法Linux版已完美适配龙芯、飞腾、华为等国产处理器,更能施展出输入法的真正实力! Linux 正式引入讯飞输入法,提供更优质的输入体验Linux 正式引入讯飞输入法,提供更优质的输入体验 讯飞输入法Linux版已发布并上架deepin v20专业版 接下来,让先来看看这款输入法业界推崇的“黑科技”,究竟拥有哪些令人拍案叫绝的的抢眼功能吧! 首先,和家族中的其他几名成员一样,讯飞输入法Linux版同样配备了狂(chang)拽(gui)酷(cao)炫(zuo)的语音输入技能包,小伙伴们只需要对着电脑麦克风说出自己想要输入的内容,屏幕上就会立刻出现对应的文字,带你感受1分钟400字的极速语音输入体验。不仅如此,除了普通话和英语之外,还支持日语、韩语以及国内的粤语、四川话、河南话

讯飞语音识别

放肆的年华 提交于 2019-12-05 17:13:57
//讯飞语音 public function xfyun(){ $file=request()->file('icon'); //接收post,get值 if(!empty($file)){ $path='.'.DS.'uploads'.DS.'xfyun'; $is_info = $file->move($path); $name='../'.'public/uploads/xfyun/'.$is_info->getSaveName(); } vendor("XfYun.Demo"); // New Word Document $xfyun = new \test(); $xfyun->xfyun($name); } 来源: https://www.cnblogs.com/Mr-zhangwenqiang/p/11935977.html

记录一次讯飞实时翻译

心已入冬 提交于 2019-12-05 00:19:18
记录一次讯飞实时翻译 实现方式 与讯飞进行websocket连接 使用PyAudio模块进行实时录音 将录音数据流上传至讯飞 获取讯飞的返回值,并进行拼接 # -*- encoding:utf-8 -*- import pyaudio import hashlib from hashlib import sha1 import hmac import base64 from socket import * import json, time, threading from websocket import create_connection import websocket from urllib.parse import quote import logging logging.basicConfig() base_url = "ws://rtasr.xfyun.cn/v1/ws" app_id = "在讯飞控制台获取" api_key = "在讯飞控制台获取" file_path = "./test_1.pcm" end_tag = "{\"end\": true}" class Client(): def __init__(self): # 生成鉴权参数 ts = str(int(time.time())) tmp = app_id + ts hl = hashlib.md5

讯飞的实时转写可以带来哪些功能?

匿名 (未验证) 提交于 2019-12-03 00:33:02
讯飞开放平台最近上线了实时语音转写功能:www.xfyun.cn/services/rt…?基于深度全序列卷积神经网络框架,通过 WebSocket 协议,建立应用与语言转写核心引擎的长连接,将音频流数据实时转换成文字流数据结果,基本可以做到所听即所见。那么,该功能会为开发者解决什么问题,带来什么变化呢?1.针对客服助手的改造:可以减少客服录入工单的时间,结合自己的场景自动化生成文档记录;2.针对外呼助手的改造:外呼信息、客户信息自动记录,避免因走神遗漏信息;3.智能会议成为现实:会议内容说什么记录什么。这个在讯飞听见的智能会议系统中已经实现;4.其他更有意思的场景:这个就要靠大家去体验了!!目前免费内测中,欢迎申请。www.xfyun.cn/services/rt… 作者:DanielLi 链接: https://juejin.im/post/5b2daebf51882574af2815a1 来源:掘金 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 原文:http://blog.51cto.com/10705606/2131998

PC端视频中语音实时转文字

二次信任 提交于 2019-11-28 11:41:48
PC端视频中语音实时转文字 Win系统语音功能设置 设置哪些软件可以使用麦克风 设置语音输入来源 全局设置 局部软件设置 总结 TOC PC端视频中语音实时转文字   我比较喜欢看视频来学习,特别是那些基础的技术,但是我又有做笔记的习惯,因此一边看着视频一边记笔记,进度就特别的慢。对此我找了不少方法,之前的方法是图片转文字,我找了一款小软件,可以将我截的图片转化为文字,这样速度快了一点。但是就比如慕课的视频,他们的视频中大部分用的是PPT,然后里面的文字比较少,主要就看讲师讲的,因此我还是要自己手动的打字,最近忽然间想到,我在手机上经常用语音输入,那在电脑上可不可以?   然后我就用搜狗输入法的语音输入试验了一下,然后发现他只能识别我用麦克风输入的文字,而我用电脑播放的视频,它默认是不能识别的,就比较沮丧。然后我就又研究了一下讯飞输入法,发现讯飞输入法是可以识别视频中的语音的,就准备将讯飞输入法当做我常用的输入法,但是可惜讯飞输入法的文字输入功能太弱,手机端还是蛮好的,但是在PC端已经好久没维护了,而且还基本没有词库,甚至常打的单词都没有,也没有英文的词库。。。。这就比较痛苦了。   然后我又重跳到了搜狗输入法,研究了一段时间之后,发现我将分系统的默认的输入设备设置为混合立体声,它就可以输识别视频中的语音了,可惜搜狗输入法的语音识别功能和讯飞输入法差别真的好大

java调用科大讯飞流式(websocket)语音识别接口

纵然是瞬间 提交于 2019-11-27 08:08:43
  要使用讯飞的能力,需先注册讯飞开发平台账号(讯飞官网参见 https://www.xfyun.cn/ )。   再创建应用,点击右上角的控制台 -> 创建新应用:   每个应用都有一个appId,由这个appId关联对应接口鉴权信息,包括apiKey和apiSecret。比如我创建了一个应用“我的转写机” -> 点击该应用 -> 点击左边语音识别里的语音听写(流式版):   往下拉,点击“文档”,接口说明和demo代码都在:      进入文档后拉到底部,点击链接下载demo和音频:   修改demo里的appId、apiKey和apiSecret、音频文件所在路径,就可以直接跑了:   这个接口是websocket协议的,它是把音频文件一段一段的发送到讯飞做语音识别的,最后识别出来后再返回完整内容,如果你想直接获取最后的接口,可以用闭锁阻塞主线程,在websocket关闭时释放闭锁,让主线程继续:   调用类: CountDownLatch iatCountDown = new CountDownLatch(1); WebSocket webSocket = client.newWebSocket(request, new WebIATWS(fullFileName, appId, result, iatCountDown, from)); // 阻断主线程