こんにちは、ハルアキです。
先日発表されたAPL for Audio。まだベータ版ですが早速試してみたいと思います。
APL for AudioもAPLと同様にオーサリングツールが用意されています。
コンソールからスキルを開いて、マルチモーダルを選択します。

マルチモーダルの画面が開くので、Create Audio Response をクリックします。

APLのオーサリングツールと似た画面が開きます。
といってもまだベータ版だからか、ドキュメントとデータのボタンしかありませんが、、
左下の再生ボタンをクリックするとサンプルが再生されます。
音声と音楽が同時に流れていることがわかります。
今まではそれぞれを順番にしか再生できませんでした。スキルの説明をしている間にBGMを流せるのでスキルの表現力が格段にあがりますね。

データソースを書いてテスト再生することもできます。
最初のサンプルでは名前を設定するようになっています。

スキルでの利用方法もAPLとほぼ同じで簡単です。
まずは作成したJSONをファイルに保存してインポートします。
import apla_sample from '../documents/apla_sample.json';
APLを使うときと同様にaddDirectiveで追加します。
typeが ‘Alexa.Presentation.APLA.RenderDocument’ になっているのと、tokenの指定が必要というところが注意点ですかね。
handlerInput.responseBuilder.addDirective({
type: 'Alexa.Presentation.APLA.RenderDocument',
token: 'apla_sample',
document: apla_sample,
datasources: {
user: {
name: '太郎',
},
},
});
↓の紹介ブログのHow to Use APL for Audioで基本的な使い方の紹介が書かれています。
うまく組み合わせてスキルの品質をアップさせましょう。

Introducing Alexa Presentation Language (APL) for Audio
コメント