91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中怎么實現語音識別

發布時間:2021-07-05 17:31:57 來源:億速云 閱讀:418 作者:Leah 欄目:編程語言

今天就跟大家聊聊有關Python中怎么實現語音識別,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

離線轉換

對于國內的網絡環境,無法用google API來將語音數據轉換成文本文件,因為在調用這個包的時候,需要連接到google。當然,你可以租用一個國外的VPS來做這件事情。

這里講一下如何在不聯網的情況下,依然可以通過python來將語音文件轉換成文字。這里用到的包為sphinx,sphinx是由美國卡內基梅隆大學開發的大詞匯量、非特定人、連續英語語音識別系統。

安裝 sphinx

我本人所用的環境為ubuntu。

imyin@develop:~/Downloads/phinx$ lsb_release -a No LSB modules are available. Distributor ID: Ubuntu Description: Ubuntu 16.04.3 LTS Release: 16.04 Codename: xenial

在安裝sphinx之前需要安裝一些軟件包

sudo apt-get install gcc automake autoconf libtool bison swig python-dev libpulse-dev

之后可以在相關網站上下載sphinxbase安裝包,當然也可以直接clone github上的包

下載完之后進行解壓

tar zxpf sphinxbase-5prealpha.tar.gz

修改文件名

mv sphinxbase-5prealpha sphinxbase ls sphinxbase  AUTHORS doc indent.sh Makefile.am README.md src win32 autogen.sh .git LICENSE NEWS sphinxbase.pc.in swig configure.ac include m4 README sphinxbase.sln test

現在我們應該運行autogen.sh來生成Makefiles和其他一些腳本以備后續的編譯和安裝。

./autogen.sh

下面開始源碼安裝

make && sudo make install

執行完以上命令之后,如果沒有出現什么報錯信息,就說明已經安裝成功了,但是此時你的命令并不可以生效,在運行命令時會出現這樣的錯誤。

imyin@develop:~/Downloads/phinx/sphinxbase$ sphinx_lm_convert  sphinx_lm_convert: error while loading shared libraries: libsphinxbase.so.3: cannot open shared object file: No such file or directory

還需要讓系統加載目錄/usr/local/lib,為了讓系統每次啟動時都可以自動加載,可以修改系統配置文件ld.so.conf

sudo echo "/usr/local/lib" >> /etc/ld.so.conf sudo ldconfig

這時候,就可以通過sphinx_lm_convert命令將模型DMP文件轉成bin文件

sphinx_lm_convert -i zh_broadcastnews_64000_utf8.DMP -o zh_CN.lm.bin

上面這行代碼是將中文的模型DMP文件轉成了bin文件。在安裝完sphinx后默認只支持英文,在存放模型的路徑下只有一個文件名為en-US,所以這里需要添加一個處理中文的模型,相關文件可以在這個網址中下載。

Python中怎么實現語音識別

在python中使用sphinx

想要在python中使用sphinx的話,需要安裝一些依賴包。

pip install pydub -U # 負責將MP3文件轉換為 wav 文件 pip install SpeechRecognition -U # 負責將語音轉換成文字 sudo apt -qq install build-essential swig libpulse-dev # 為后面安裝 pocketsphinx 做準備 pip install -U pocketsphinx # 為使用 sphinx  sudo apt-get install libav-tools # 為解決在調用 pydub 時出現的 warning :RuntimeWarning: Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work warn("Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work", RuntimeWarning)

這時候,就可以啟動ipython來試試效果了。

 
file_path = '/home/imyin/Downloads/phinx/test_data' r = sr.Recognizer() hello_zh = sr.AudioFile(os.path.join(file_path, 'test.wav')) with hello_zh as source:  audio = r.record(source)  r.recognize_sphinx(audio, language='zh_CN')  '今天 天氣 很'

可以看出,這個語音識別器已經生效了。但是我說的是“今天天氣好熱啊”。

看來sphinx中的模型并非很準吶,而且這只是一個短句子。我們接下來看看長句子的效果,我錄了村上春樹的《當我談跑步時我談些什么》中的一段內容。

那一年的七月里,我去了一趟希臘,要獨自從雅典跑到馬拉松,將那條原始的馬拉松路線——馬拉松至雅典——逆向跑上一趟。為什么要逆向跑呢?因為清晨便從雅典市中心出發,在道路開始擁堵、空氣被污染之前跑出市區,一路直奔馬拉松的話,道路的交通量遠遠少得多,跑起來比較舒適。這不是正式的比賽,自己一個人隨意去跑,當然不能指望有什么交通管制。
hello_zh = sr.AudioFile(os.path.join(file_path, 'test2.wav')) with hello_zh as source:  audio = r.record(source)  r.recognize_sphinx(audio, language='zh_CN')  '南 音 揚 的 只有 領 過 球 的 立場 是 希望 讓 豬只 處理 垃圾 土木工程 上 打球 運動 充滿 溫情 能 成功 嗎 而 中止 了 對 印尼 商報 稱 他 不是 沒有 立場 談 那 一 枚 其中 春天 從 雅典 市中心 出發 寸 廠 都 可 成功 突破 尋求 對 於 能 提升 統籌 署 取締 一路 直奔 馬拉松 和 阿 惹 山 活動 等 二十 個 隊 中 重申 這 不是 正常 的 比賽 自己 一個人 卻 一直到 當然 不能 說明 什么 這種 共識'

呃,看到結果,我覺得可以用一個來形容:差勁。兩個字來形容:太差勁!

當然,這個模型只是我直接從網上下載下來的。訓練它時所用到的語料不會那么齊全,所以在測試時難免會出現不準確的情況。要想讓模型更加準確,需要自己在利用sphnix繼續訓練模型。

相關辦法在其官網上可以找到,也有相應的教程。感興趣的朋友可以自行研究。

Q: Why my accuracy is poor  Speech recognition accuracy is not always great. To test speech recognition you need to run recognition on prerecorded reference database to see what happens and optimize parameters.  You do not need to play with unknown values, the first thing you should do is to collect a database of test samples and measure the recognition accuracy. You need to dump speech utterances into wav files, write the reference text file and use decoder to decode it. Then calculate WER using the word_align.pl tool from Sphinxtrain. Test database size depends on the accuracy but usually it’s enough to have 10 minutes of transcribed audio to test recognizer accuracy reliably. The process is described in tutorialtuning.

文中提到的教程網址是https://cmusphinx.github.io/wiki/tutorialtuning/

Google API

利用google API來處理語音識別則相當準確,不過需要連接google,以下是我在VPS中執行的一段代碼,可以看出,它將我的錄音精準地翻譯成了文字。

Python中怎么實現語音識別

但是如果錄音文件較大的話,會運行時間很長,并且會返回一個超時的錯誤,這很是讓我苦惱。

不過幸運的是,speech_recognition支持將語音文件進行截取處理。例如,我可以只處理語音文件中的前15秒鐘的內容。

with test as source:  audio = r.record(source, duration=15) r.recognize_google(audio, language='zh-CN') '那一年的7月里我去了一趟希臘有獨自從雅典跑到馬拉松江哪條原始的馬拉松路線馬拉松直雅典一想跑上一趟'

從上面的結果看,簡直比sphnix處理的效果好太多了。

通過看幫助文檔發現speech_recognition不僅可以截取前面的錄音,還可以截取中間的。

In [18]: r.record? Signature: r.record(source, duration=None, offset=None) Docstring: Records up to ``duration`` seconds of audio from ``source`` (an ``AudioSource`` instance) starting at ``offset`` (or at the beginning if not specified) into an ``AudioData`` instance, which it returns.  If ``duration`` is not specified, then it will record until there is no more audio input.

例如我想處理5秒至20秒之間的內容。

with test as source:  audio = r.record(source, offset=5, duration=15) r.recognize_google(audio, language='zh-CN')  '要獨自從雅典跑到馬拉松江哪條原始的馬拉松路線馬拉松直雅典一項跑上一趟為什么要一想到呢因為星辰變從雅典市中心出發'

看完上述內容,你們對Python中怎么實現語音識別有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

翁牛特旗| 横峰县| 浦北县| 依兰县| 集贤县| 邢台县| 名山县| 义乌市| 西贡区| 安仁县| 凌海市| 兴海县| 贵溪市| 镇安县| 淮南市| 广丰县| 自治县| 宝山区| 墨竹工卡县| 南丰县| 南昌市| 林甸县| 大安市| 福鼎市| 新沂市| 丰宁| 奉节县| 巴南区| 定陶县| 钦州市| 宝清县| 南投市| 安陆市| 原平市| 永靖县| 淄博市| 三都| 怀宁县| 晋州市| 新田县| 彝良县|