「音楽」カテゴリーアーカイブ

Twitterアカウントで演奏に参加できるミニマル・ミュージックを作る実験、経過報告。

TwitterとUSTREAMの組み合わせの強力さに大きな可能性があることは、おそらくたくさんの人が感じていると思う。DOMMUNEを代表格として、音楽を配信することも多く行なわれるようになった。僕は個人的に「複数の人数で自由に参加できる音楽」というものをずっと研究して来たので、このTwitterとUSTREAMの登場にはまさに心が躍った!

そして、ある程度の完成度に達しながらも不満の残った前作「rain tower 3」の次のバージョンとして、現在「RAIN TOWER IV」という作品を開発している。

では前作のrain tower 3は何がダメだったか。それは参加する際の敷居の高さであった。

参加型音楽だからこその問題とは。

2006年のインターカレッジ・コンピュータ音楽コンサートで発表したrain tower 3は、ドラムマシンのようなシーケンサ状のGUIを複数人数で共有し、リズムパターンを変えたり、エフェクトをかけたりして遊ぶ音楽として設計された。当然、参加者が行なったGUIに対する操作をどうやって音楽に反映させるか、そして共有している音楽をどうやって参加者全員に配信するかと言う問題が発生する。

rain tower 3では、参加者が行なった操作をOSCメッセージ[1]としてホストコンピュータに集約し、参加者全員に再配信するという方法をとっている。しかし、これには参加者がまずホストコンピュータにログインすることが必要で、そのためにはまずSuperColliderとログイン用のプログラムをインストールする必要があり、さらに自分のマシンのIPアドレスを調べる必要があった。これは非常に敷居が高いと言わざるを得ない。演奏を行なう際はほぼ必ず、開発者の僕が参加者のマシンへのインストールをサポートする必要があった。これは無様だ。

このダメダメな作品を改善すべく、ログイン周りのプログラムの書き直しと簡単なチャットシステムをSuperColliderで書き進めていたのだが、ある日突然、そんなことをする気持ちが完全に失せた。もちろん、Twitterの存在を知ったからである。Twitterを、オープンなメッセージ送受信プラットフォームとして使用すれば、わざわざ新しいアプリケーションを参加者にインストールしてもらう必要は無い。また、多人数で音楽を共有する手段も、USTREAMの登場によって解決された。いやー、実にいい時代ですね!

しかし、TwitterとUSTREAMというツールを使うことにより、新たな問題も発生させた。昨年12月に行なった最初の実験でも明らかになった問題点は以下の3点だ。

1. GUIが使えない。

もちろん、この作品専用のGUIを開発してもいいのだが、敷居を下げるというコンセプトには合わない。できれば、誰もが普段使っているTwitterクライアントでも参加できるのが望ましい。となると、どういう方法で参加すれば良いか。

とりあえず、音楽に反映されるまでの時間のダイナミックさを損なわないよう、短いコマンドと数値の組み合わせをツイートするという手段をとることにした。これに関しては色んなアプローチがあると思うので、いいアイディアを探しているところだ。

2. タイムラグが大きい。

SuperColliderでOSCをやり取りする場合、高速なUDP/IP通信を用いるため、タイムラグはほとんど問題にならなかった。しかし、Twitterではそうはいかない。通信プロトコル以前にツイートしてから検索結果に反映されるまで、どうしても数秒のタイムラグは発生してしまう。また、Twitter APIへのリクエスト回数も、Twitterは明らかにしていないが制限があると思われるので、1秒間に何回もリクエストするわけにはいかない。さらに、USTREAMでもタイムラグは存在するので、結局ツイートしてから音楽に反映されるまで10秒以上かかってしまう。

この問題に関しては、タイムラグがあっても構わない方法を探るほかない。また、よりリアルタイムに近い検索を可能にするTwitter Streaming APIの実用化も探っている。

3. 音質が低い。

ユーザーのマシンにアプリケーションをインストールし、そのアプリケーションが音楽を再生する場合はもちろん音質は問題ない。しかし、USTREAMでの配信では限界がある。

この問題に関しても、USTREAMを使うということは、モバイル機器からでも参加可能な音楽になるということで、高音質が前提の音楽では似合わないだろう。ふさわしい音楽にするしかない。

で、やってみた。

以上の問題を踏まえて、バージョンアップしたRAIN TOWER IVのベータテストを2010年3月27日、午前1時〜3時にかけて行なった。のだが、長くなってしまったのでこの詳細については次の記事でご報告したい。


[1] 音響合成のためのプログラミング言語「SuperCollider」はマシン上のサーバーに対してメッセージを送り、サーバーがそのメッセージを処理して音を発すると言う特殊な仕組みを採用している。ローカルマシン上のサーバーだけでなく、Open Sound Control(OSC)というプロトコルにより、ネットワークを介して他のマシンのSuperColliderサーバーに対してもローカルマシンと同様にメッセージを送信することができる。

Twitterとリアルタイムウェブがもたらす、新しい音楽の可能性の予感

かつてJ.ケージはピアニストが1音も奏でないピアノ曲「4分33秒」を作曲した。これは、作曲家が与え、聴衆が受け取る関係を変えようとした試みだと言えると思う。能動的な聴取によって、作曲家が何も為さずとも、そこに音楽は在る。ケージが呈示した「無音」の音楽は、作曲家の存在を後退させてみせた、更に言えば作曲家を殺して見せた、その極北として、歴史に刻み込まれた。しかし、一方では、そのピアノ曲の初演はコンサートホールと言う、音楽を聴取するために作られた、世界から隔絶された空間で行われた。

という調子で語りだすと超・長くなってしまうので大幅に端折るが、とにかくその後、作曲家と聴衆との関係の破壊(もしくは再構築)は、様々な手段によって行われてきた。それこそ、本当にさまざまに。だから、「聴衆が参加する音楽」の可能性は十分検討されてきたし、僕がここで語ろうとしている「世界中の誰でもが参加できる音楽」についても、すでに先行事例はある。浅学のため坂本龍一と岩井俊雄のコラボレーション[1]以外に実例を知らないが、おそらくたくさんあるだろう。ただし、「世界中の誰でもが参加できる音楽」の実現にはあまりにも、技術的な障壁が高すぎた。個人がそのような大それた音楽に手を出すのは、夢のような話であった。

続きを読む Twitterとリアルタイムウェブがもたらす、新しい音楽の可能性の予感

2年ぶり!新曲出しました!

2007年に発表した「How evEr」以来、
実に2年ぶりとなる新曲を公開しました!

ぜひぜひご試聴のうえ、
アドバイス・感想・励まし・中傷・罵倒・等々ありましたら
コメントをいただけると嬉しいです!
よろしくお願いします!

「uterus (presence)」

包まれたい、という願望。
そして願いは叶い、その刹那、
願いは哀愁へと変わる。
痛みは、けして癒されない。

→waccaで聴く
→myspaceで聴く

続きを読む 2年ぶり!新曲出しました!

購入!KORG nanoKONTROL

今の職場は音楽系の人が多く、
昼食時には真空管アンプの話で盛り上がったりしているのですが、
僕はそれほどそっちに興味が無かったりします。
アナログな歪みよりデジタルな歪みが心地いい世代。
そう、僕がワクドキするのはこういうデバイスなんだよ!
という新製品がお店にあったので、早速購入。

机が黒いので写真では分かりにくくなっていますが、
Macの前においてあるのがその「KORG nanoKONTROL」です。

090112-013228

090112-013250

Mac上に起動させているLiveは、
画面上のコントローラーとMIDI信号を
簡単にアサインできる機能があるので、
調整したいなと思ったコントローラーを
さっと手元のスライダーやノブにアサインし、
終わったら外す。使いやすい。
まさにLiveのためのデバイスと言った感じ。
工夫すればSuperColliderでも便利に使えそう。

ちなみにMacの右隣においてあるのが「KORG padKONTROL」。
数年前に出た製品で、ドラムの打ち込みや
ライブパフォーマンスに使っていましたが、
当時はこれでも画期的なコンパクト&シンプル設計だったのです。
それが、さらにコンパクトに、しかも同サイズで
キーボードとパッドコントロールのシリーズ販売。
とりあえずキーボードも買いましたが、
こちらもなかなか使用感はいいです。
もちろんキーボードとしては安物ですが、
打ち込み用としてならちゃんとベロシティも送れるし、
慣れれば全く違和感がありません。

そのとき必要なものをコンパクトに使う。
何とすばらしい!そしてスマートかっこいい!!
これならカフェでだって作曲・ミキシングが出来ちゃうぜ!

六本木の一夜

2008年11月22日。tn8さん as craftwife、RPさん as あミンを観に、東京へ。せっかく大都会に行ったのに喧噪を離れ、六本木の下町の空気をぶらぶら見物しながら、夜にCUBEというクラブへ。東京のクラブなんででかいところだ!と勝手に思っていたのですが、メトロくらいの大きさで。見やすいし、飲み物も買いやすいし、いい雰囲気のところでした。

イベントは一応テクノイベントだったはずなのですが、craftwife以外はテクノか…?って感じでした。テクノロジーが自然なものになりすぎた のか、人間が適応してしまったのか…。テクノはテクノロジーを使ってるからテクノなのではなく、テクノを表現しているのがテクノなのではないだろうか。ある意味では、と注釈付きにするとしても。ロックを表現するのがロックなのと同様に。

そう言う意味では、2008年の感性でテクノを表現したcraftwife/あミンは面白かった! craftwifeはテクノのメタファーとしてのクラフトワークをカバーするという形でテクノだったし、あミンはテルミンという説明のもはや不要な電子楽器を用いて、そのテクノロジーを過激にアピールすることで現代においてもテクノは面白いと言う可能性を見せてくれたんじゃないだろうかと思います。

個人的に一番響いたのは即興のユニット。一人はギターと各種エフェクターの組み合わせ、もう一人はソプラノサックス・鍵盤ハーモニカ・各種民族打楽器とディレイ?の組み合わせ。初めて観た方なうえ説明聞き逃したのですが、おそらくSaya Nishida+4D Modulation Studioというユニット。
個人的に、生楽器+ディレイ中心のDSPという組み合わせに批判的なのですが、この二人はすごかったです。坂本龍一が絶賛と紹介されていたけど、分かる。音楽的時間と記憶、空間の粗密、それらに不可欠な音響処理だと思いました。

鍵盤ハーモニカ、よかったなぁ。前から作ろうと思っていて考えを温めていた、即興演奏用の鍵盤ハーモニカもどき、SuperColliderで作ろうと決心しました。東京から神戸に帰る新幹線の中で以下の仕様を考えてみた。

  • キーを押したら離しても音が残る
  • もう一度押したら音が消えるモードと予約モードの切り替え
  • ボタンクリックで全ての音が消える(予約モードだと予約した音が鳴る)

あとは音量がコントロールできれば演奏のイメージができる。どうするか。Wiiリモコン使うか?


おまけ:六本木鼠坂から建設中のビルを望む。