SIGMUS 2013 と Max Conferanceに行ってきました。

先日、SIGMUS(音楽情報科学研究会)とMax Conferanceに行ってきました。
色々と面白い話が聞けたのでレポート。

SIGMUS 2013

logo20-s2

ご存知のかたも多いと思いますが、今回のSIGMUSシンポジウムは開催100回目でした。大分オープンな感じだったので、3日目の午後の招待講演からしか行けなかったんですが、遊びに行ってきました。

正直な所、細かい話は下のサイトのレポートのほうが良いので、そちらを読むと良いと思います。

http://slashdot.jp/~aito

僕が聞いてきたのは、企業の方を外部から招いての講演でした。ちょくちょく紹介。

 

Singer Song Writerの話(株式会社インターネット)

Singer Song Writerって、割と歴史あるソフトなんですね(感想はそれだけか。)
既に出ていた他のDAWソフトと差別化を図るために、自動で伴奏とかを作ってくれるところを重視してやってきました、みたいな話。コードを指定するとそれにあわせて伴奏を作ってくれるっぽいです。でもCubase7で同じの実装されてたよね……これからどう戦っていくんでしょうか。

 

ヤマハが開発してきたシンセの話(ヤマハ)

FMシンセの開発の話だとか。エレクトーンも、昔はシンセとして開発されたものだったとか。
出来たばっかりのシンセをStievie Wonderがさっそく使って曲を作った話だとか。
(かの有名なIsn’t She LovelyはYAMAHAが新しくシンセを作ったとききつけて、それで早速作曲した曲だそうな。)
ミクのデザインはDX7をもとにしているだとか。(このへんは割と有名かしら。)

研究とからめての話では、スタンフォード大学が開発したFM音源の理論をヤマハが買い取ってから、実際の製品化に8年くらいかかったみたいな話もありました。製品化には時間がかかるのね。まぁ、逆に言えば今の最先端の研究が10年後、製品化されるっていうことになるのかもしれませんね。

 

MaxとGenの話(Cycling’74)

Cycling’74のCEOが来日して、直々に講演してました。全部英語でした( ˙꒳˙​)◞⁽˙³˙⁾”
Maxで作ったパッチコードを、Genを使うことでCのコードに書き出す話、Panda board用のコードも吐き出せてそれで実際に動かす話とか。

具体的には、gen~オブジェクトにexportcodeメッセージを送ることで、vstプラグインで使えるコード(cppとヘッダファイル)を書き出せるみたいです。最近、C++でvstプラグインを書いたりしていますが、こっちの方法が楽そうだ…
(ということで、やってみた記事はこちら。)

この機能は、6月にリリースされたMax6.1以降で使える機能で、まだベータ版らしいですが、十分有用です。

 

FF14のサウンド周りの話(スクウェア・エニックス)

最近FF14出ましたね。FF14のサウンドプログラマの人の講演で、ゲームの中での音周りのはなし。
組み込みゲームでは、使えるリソース(CPU時間とか)が限られているので、音にはあんまり処理能力を割けない。やっぱり描画優先なので、音はつらい…一世代前は、音の処理(つまりDSPとか)は専用のチップでやっていたけれど、今はソフトでやっている。CPUの処理能力の、5パーセント以下でやれみたいなことを言われているのでとても大変。とかとか。

使えるメモリも限られていて、BGMとかもストリーミングで再生する。でもそれでもつらいので、再生するデータ自体も高圧縮にして節約する。楽曲は128kbps、声とかは96kbps、効果音は36kbpsとかで圧縮しているらしい……高画質でも、低音質なのね、、

処理時間をあまり食わないでやらないといけないので、エフェクトもあまりかけられない。かけるときは、対象を1つにまとめた後にかける。とか。パン振りまわりのはなしとか。

最近ではBGMの再生とかはグラニュラーで多少インタラクティブになっている、らしい。

 

12音解析の話(SONY)

けっこう面白かった。

音楽の体験の仕方が、ちょっと変わっている。Active(演奏者)とPassive(リスナー)の間にいる人達が、増えているのではないか。新音楽体験領域と呼んでいる。semi-active。たとえば、DJさんとかそういう人たち。そこを狙ってアプリなり何なりを作る。

SONYの12音解析技術の紹介。けっこう精度が高くて驚いた。
テンポ、曲のキー、コードを自動判別。ここからさらに、コードからサビとかA,Bを判別、全体的なムード(明るいか、暗いか、とか色々)を判別、まとめてメタデータとして保持する。既存の曲に対してこうやって全部解析を行って、蓄積された膨大な量のメタデータを使っていろんなソフトウェアを作りました、という話。

処理には結構なマシンパワーが必要だけど、端末側でやるんではなく、クラウドに投げてしまえば大丈夫。

将来的に、自分の曲とかもSONYのサーバーに投げて、メタデータ返してくれるようになったら面白い。

 

ざっとですが、なかなか興味深かったです。二日目も行ければよかったんだけど、まぁ仕方ない;

 

Max Conferance

max_conference

行ってきましたよ。昭和音大でやっていました。新百合ヶ丘なので、ちと遠かったですが。
こちらは講演というよりは、実演メインでした。細かく紹介するのは冗長なので、まとめると、

 

*Maxはプロトタイピングに適している

KORGのカオシレーターとかの商品開発/企画をした人の講演がありました。自分の考えた製品のデモ/プレゼンをするために、Maxでプロトタイプを作ったそうです。言葉での説明は難しいが、作ってみて見せると、あ、いいじゃん となる。
実際に製品の案がでて、どれがよいか比較検討するときにもMaxを使っているらしいです。

Genとかもでて、益々こういう側面は強くなっていきそう。

 

*MaxとJavascriptを組み合わせられる

書きやすい方で書いて組み合わせられるので便利。ランタイムで動かせるので、実務にも使えるよーみたいな話。

 

*MIRAの話

タブレットとMax6を連携させることのできるツール、MIRAの紹介。obj-Cでコード書く必要がないので、楽ちんですね

 

*Maxでもいい音出せるよ

めちゃくちゃこだわると、いい音が出せるよという実演がありました。Katsuhiro Chibaさんの講演。
デモ演奏はとても良い音楽を生成してました。いいねー

 

 

こんなかんじでした。次の記事でMaxを使ってvstを吐くのをやってみたのを書いているので、そちらもどうぞ。

0 Comments

Leave a Reply

Your email address will not be published.