APL for Audioを試してみる

Alexaスキル開発

こんにちは、ハルアキです。

先日発表されたAPL for Audio。まだベータ版ですが早速試してみたいと思います。

APL for AudioもAPLと同様にオーサリングツールが用意されています。

コンソールからスキルを開いて、マルチモーダルを選択します。

マルチモーダルの画面が開くので、Create Audio Response をクリックします。

APLのオーサリングツールと似た画面が開きます。
といってもまだベータ版だからか、ドキュメントとデータのボタンしかありませんが、、

左下の再生ボタンをクリックするとサンプルが再生されます。
音声と音楽が同時に流れていることがわかります。
今まではそれぞれを順番にしか再生できませんでした。スキルの説明をしている間にBGMを流せるのでスキルの表現力が格段にあがりますね。

データソースを書いてテスト再生することもできます。
最初のサンプルでは名前を設定するようになっています。

スキルでの利用方法もAPLとほぼ同じで簡単です。
まずは作成したJSONをファイルに保存してインポートします。

import apla_sample from '../documents/apla_sample.json';

APLを使うときと同様にaddDirectiveで追加します。
typeが ‘Alexa.Presentation.APLA.RenderDocument’ になっているのと、tokenの指定が必要というところが注意点ですかね。

handlerInput.responseBuilder.addDirective({
	type: 'Alexa.Presentation.APLA.RenderDocument',
	token: 'apla_sample',
	document: apla_sample,
	datasources: {
		user: {
			name: '太郎',
		},
	},
});

↓の紹介ブログのHow to Use APL for Audioで基本的な使い方の紹介が書かれています。
うまく組み合わせてスキルの品質をアップさせましょう。

Introducing Alexa Presentation Language (APL) for Audio

コメント

タイトルとURLをコピーしました