長い音声ファイルの書き起こし
会議や講演のスピーチ、コールセンターの通話録音などの長い音声をテキストにする場合のAPIの利用方法をステップバイステップで説明します。このチュートリアルではプログラムを記述する代わりに、curl
コマンドとjq
コマンドを使って説明します。
準備
このチュートリアルを実行するためには以下が必要です。
- curl
- jq
- AmiVoice API に登録し、
APPKEY
を取得する - 書き起こししたい音声ファイルを用意する
結果を見やすく整形するために、jq
コマンドを利用しています。jq
がインストールされていなくても、このあとのチュートリアルで音声を書き起こしできますので、インストールせずに進んでも構いません。
curl
ご利用のシステムにcurl
コマンドがインストールされているかどうかを確認してください。
curl -V
バージョンが表示されない場合は、https://curl.se/からご利用の OS のパッケージをダウンロードするか、パッケージマネージャを利用してcurl
をインストールしてください。
jq
ご利用のシステムにjq
コマンドがインストールされているかどうかを確認してください。
jq -V
バージョンが表示されない場合は、https://stedolan.github.io/jq/からご利用の OS のパッケージをダウンロードするか、パッケージマネージャを利用してjq
をインストールしてください。
APPKEYの取得
- AmiVoice API へ登録します。
- マイページにログインし、[接続情報]タブの[共通接続情報]に記載されている APPKEY を記録しておきます。
AmiVoice Tech BlogでAPPKEY
を取得するまでの手順を詳述しています。APPKEY
の取得についてはAmiVoice APIを使ってみようも参照してください。
音声ファイル
書き起こししたい音声ファイルを用意します。
ここでは、クライアントライブラリのサンプルプログラムに同梱されている音声ファイルtest.wav
を使います。
- 音声ファイルを準備するとき、対応している音声ファイルの形式に注意してください。対応フォーマットは、音声フォーマットについてを参照してください。
- 受付可能な音声ファイルの長さには制限があります。制限事項を参照してください。
実行
1. 音声認識のリクエスト
音声認識のリクエストのときに指定するパラメータは、同期 HTTP インタフェース と全く同じです。
curl https://acp-api-async.amivoice.com/v1/recognitions \
-F d=-a-general \
-F u={APP_KEY} \
-F a=@test.wav
リクエストに成功すると以下のようなレスポンスが得られます。リクエストはジョブとしてキューに入り、順に処理されることになります。
{"sessionid":"017c25ec12c00a304474a999","text":"..."}
2. ジョブの状態と結果の取得
リクエストで得られたsessionid
を使ってジョブの状態(status
)や結果を得ることができます。音声認識結果が得られるまで複数回実行することになります。{APPKEY}
はAuthorizationヘッダ
に指定してください。
curl -H "Authorization: Bearer {APPKEY}" \
https://acp-api-async.amivoice.com/v1/recognitions/017c25ec12c00a304474a999
リクエストを送った直後のstatus
はqueued
の状態になります。
{"service_id":"{YOUR_SERVICE_ID}","session_id":"017c25ec12c00a304474a999","status":"queued"}
キューからジョブが取り出されるとstatus
はstarted
状態になります。
{"service_id":"{YOUR_SERVICE_ID}","session_id":"017c25ec12c00a304474a999","status":"started"}
実際に音声認識処理が始まるとstatus
はprocessing
状態になります。API が受けとった音声のサイズや、MD5 チェックサムを使って送信した音声が正しく処理されているかどうかを確認できます。processing
状態にかかる時間は、音声の長さによります。
{'audio_md5': '40f59fe5fc7745c33b33af44be43f6ad', 'audio_size': 306980, 'service_id': '{YOUR_SERVICE_ID}', 'session_id': '017c25ec12c00a304474a999', 'status': 'processing'}
結果
音声認識が完了すると、status
はcompleted
状態となります。このとき、results
に音声認識結果を得ることができます。結果を見やすく整形するために、jq
コマンドを使います。
curl -H "Authorization: Bearer {APPKEY}" \
https://acp-api-async.amivoice.com/v1/recognitions/017c25ec12c00a304474a999 | jq
以下はレスポンスの完全な例です。文字起こしした結果だけではなく、単語単位の結果や音声時間、信頼度などの情報も得られます。詳細は、音声認識の結果を参照してください。
レスポンス
{
"audio_md5": "40f59fe5fc7745c33b33af44be43f6ad",
"audio_size": 306980,
"results": {
"code": "",
"message": "",
"segments": [
{
"code": "",
"message": "",
"results": [
{
"confidence": 1.0,
"endtime": 8778,
"rulename": "",
"starttime": 250,
"tags": [],
"text": "アドバンスト・メディアは、人と機械等の自然なコミュニケーションを実現し、豊かな未来を創造していくことをめざします。",
"tokens": [
{
"confidence": 1.0,
"endtime": 1578,
"spoken": "あどばんすとめでぃあ",
"starttime": 570,
"written": "アドバンスト・メディア"
},
{
"confidence": 1.0,
"endtime": 1850,
"spoken": "は",
"starttime": 1578,
"written": "は"
},
{
"confidence": 0.77,
"endtime": 2010,
"spoken": "_",
"starttime": 1850,
"written": "、"
},
{
"confidence": 1.0,
"endtime": 2314,
"spoken": "ひと",
"starttime": 2010,
"written": "人"
},
{
"confidence": 1.0,
"endtime": 2426,
"spoken": "と",
"starttime": 2314,
"written": "と"
},
{
"confidence": 1.0,
"endtime": 2826,
"spoken": "きかい",
"starttime": 2426,
"written": "機械"
},
{
"confidence": 0.76,
"endtime": 2922,
"spoken": "とう",
"starttime": 2826,
"written": "等"
},
{
"confidence": 1.0,
"endtime": 3082,
"spoken": "の",
"starttime": 2922,
"written": "の"
},
{
"confidence": 1.0,
"endtime": 3434,
"spoken": "しぜん",
"starttime": 3082,
"written": "自然"
},
{
"confidence": 1.0,
"endtime": 3530,
"spoken": "な",
"starttime": 3434,
"written": "な"
},
{
"confidence": 1.0,
"endtime": 4362,
"spoken": "こみゅにけーしょん",
"starttime": 3530,
"written": "コミュニケーション"
},
{
"confidence": 1.0,
"endtime": 4442,
"spoken": "を",
"starttime": 4362,
"written": "を"
},
{
"confidence": 1.0,
"endtime": 4906,
"spoken": "じつげん",
"starttime": 4442,
"written": "実現"
},
{
"confidence": 1.0,
"endtime": 5242,
"spoken": "し",
"starttime": 4906,
"written": "し"
},
{
"confidence": 0.83,
"endtime": 5642,
"spoken": "_",
"starttime": 5242,
"written": "、"
},
{
"confidence": 1.0,
"endtime": 5978,
"spoken": "ゆたか",
"starttime": 5642,
"written": "豊か"
},
{
"confidence": 1.0,
"endtime": 6090,
"spoken": "な",
"starttime": 5978,
"written": "な"
},
{
"confidence": 1.0,
"endtime": 6490,
"spoken": "みらい",
"starttime": 6090,
"written": "未来"
},
{
"confidence": 1.0,
"endtime": 6554,
"spoken": "を",
"starttime": 6490,
"written": "を"
},
{
"confidence": 0.92,
"endtime": 7034,
"spoken": "そうぞう",
"starttime": 6554,
"written": "創造"
},
{
"confidence": 1.0,
"endtime": 7210,
"spoken": "して",
"starttime": 7034,
"written": "して"
},
{
"confidence": 1.0,
"endtime": 7402,
"spoken": "いく",
"starttime": 7210,
"written": "いく"
},
{
"confidence": 0.8,
"endtime": 7674,
"spoken": "こと",
"starttime": 7402,
"written": "こと"
},
{
"confidence": 1.0,
"endtime": 7706,
"spoken": "を",
"starttime": 7674,
"written": "を"
},
{
"confidence": 0.78,
"endtime": 7962,
"spoken": "めざ",
"starttime": 7706,
"written": "めざ"
},
{
"confidence": 0.78,
"endtime": 8490,
"spoken": "します",
"starttime": 7962,
"written": "します"
},
{
"confidence": 0.83,
"endtime": 8778,
"spoken": "_",
"starttime": 8490,
"written": "。"
}
]
}
],
"text": "アドバンスト・メディアは、人と機械等の自然なコミュニケーションを実現し、豊かな未来を創造していくことをめざします。"
}
],
"text": "アドバンスト・メディアは、人と機械等の自然なコミュニケーションを実現し、豊かな未来を創造していくことをめざします。",
"utteranceid": "20210927/06/017c25ed38cc0a30425239d0_20210927_062436[nolog]"
},
"service_id": "{YOUR_SERVICE_ID}",
"session_id": "017c25ec12c00a304474a999",
"status": "completed"
}
次のステップ
- ここで利用した、AmiVoice API の非同期 HTTP インタフェース も含めて、AmiVoice API を使って音声を文字起こしする方法は、利用ガイドで説明しています。
- 利用ガイドの中で、特にリクエスト時に設定できるパラメータについては、リクエストパラメータ、レスポンスの詳細については音声認識の結果、AmiVoice API の非同期 HTTP インタフェース については、非同期 HTTP インターフェースを参照してください。
- また、API リファレンスは、非同期 HTTP インタフェースを参照してください。