python语音识别实践之百度语音API
百度语音对上传的语音要求目前必须是单声道,16K采样率,采样深度可以是16位或者8位的PCM编码。其他编码输出的语音识别不出来。
语音的处理技巧:
录制为MP3的语音(通常采样率为44100),要分两步才能正确处理。第一步:使用诸如GoldWave的软件,先保存为16K采样率的MP3;第二步,打开16K采样率的MP3,另存为Wav格式,参数选择PCM,单声道即可。
另外,也可以使用ffmpeg将MP3处理为PCM。后文的程序即采用这种方法。
由于PCM编码的语音没有压缩,文件体积与语音长度成正比。百度语音平台对语音的长度的限制未知。文件太大,网速不好的时候,容易出现”连接错误“的提示。因此,对时间较长的语音,应该将语音分割成多个序列,在分别进行识别。(目前按照等长分割)
以下代码,使用前,需要在baidu开发者上申请相关的APIID,APIKey,SecretKey,并以申请的参数代入到文件中。
#引入SpeechSDK
fromaipimportAipSpeech
importsubprocess
importdatetime
importsys
importos
importtime
frompydubimportAudioSegment
importmath
#定义常量
#APP_ID='你的AppID'
APP_ID='937****'
#API_KEY='你的APIKey'
API_KEY='mOV9QaabNnkur0Aba15T****'
#SECRET_KEY='你的SecretKey'
SECRET_KEY='097111374ad26d4ba00937c5e332****'
#初始化AipSpeech对象
aipSpeech=AipSpeech(APP_ID,API_KEY,SECRET_KEY)
#文件处理
defget_wave_filename(fileFullName):
#MP3文件转换成wav文件
#判断文件后缀,是mp3的,直接处理为16k采样率的wav文件;
#是wav的,判断文件的采样率,不是8k或者16k的,直接处理为16k的采样率的wav文件
#其他情况,就直接返回AudioSegment直接处理
fileSufix=fileFullName[fileFullName.rfind('.')+1:]
print(fileSufix)
filePath=fileFullName[:fileFullName.find(os.sep)+1]
print(filePath)
iffileSufix.lower()=="mp3":
wavFile="wav_%s.wav"%datetime.datetime.now().strftime('%Y%m%d%H%M%S')
wavFile=filePath+wavFile
cmdLine="ffmpeg-i\"%s\"-ar16000"%fileFullName
cmdLine=cmdLine+"\"%s\""%wavFile
print(cmdLine)
ret=subprocess.run(cmdLine)
print("retcode:%i"%ret.returncode)
returnwavFile
#ifret.returncode==1:
#returnwavFile
#else:
#returnNone
else:
returnfileFullName
#文件分片
try:
script,fileFullName=sys.argv
except:
print("参数文件名未指定!")
exit()
ifnotos.path.isfile(fileFullName):
print("参数%s不是一个文件名"%fileFullName)
exit()
ifnotos.path.exists(fileFullName):
print("参数%s指定的文件不存在"%fileFullName)
exit()
filePath=fileFullName[:fileFullName.find(os.sep)+1]
#文件处理为Wav,采样率16k的文件,返回文件名
wavFile=get_wave_filename(fileFullName)
print(wavFile)
record=AudioSegment.from_wav(wavFile)
ifwavFile!=fileFullName:
time.sleep(1)
os.remove(wavFile)
recLen=record.duration_seconds
interval=120*1000
maxLoop=math.ceil(recLen*1000/float(interval))
forninrange(0,math.ceil(recLen*1000/float(interval))):
recSeg=record[n*interval:(n+1)*interval]
#print("Segment:%i,startat:%i,length:%i"%n,n*interval/1000,recSeg.duration_seconds)
print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>Segment:"+str(n)+"/"+str(maxLoop))
segFile=filePath+"seg%s.wav"%("0"*7+str(n))[-6:]
#把分段的语音信息保存为临时文件
file_handle=recSeg.export(segFile,format="wav",codec="libvorbis")
file_handle.close()
#读取分段的临时文件为字节
file_handle=open(segFile,'rb')
file_content=file_handle.read()
file_handle.close()
#删除临时文件
os.remove(segFile)
#用百度API处理该语音
result=aipSpeech.asr(file_content,'pcm',16000,{'lan':'zh'})
ifresult['err_no']==0:
print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>"+result['result'][0])
else:
print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>"+"err_no:"+str(result['err_no']))
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。