Googleがタッチスクリーン式のAIシンセサイザーを開発

  • Published
    Mon, Mar 19, 2018, 02:17
  • Words
  • Share
  • NSynthは同社のAIプロジェクトMagentaの研究グループが開発した。
  • Googleがタッチスクリーン式のAIシンセサイザーを開発 image
  • GoogleのAIプロジェクトMagentaの研究グループが、オープンソースなシンセサイザー “NSynth”を開発した。 実験的なシンセサイザーのプログラムであるNSynth本体には、Googleのニューラルネットワークのアルゴリズムが使用されている。NSynthはニューラルネットワークを使用し、他の音や楽器が持つティンバー(音色や音質)を学習し再利用したり、組み合わせて新しい音を作り出すことができるという。その後、同じくGoogleが出資しているCreative Labが、NSynthのアルゴリズムをコントロールするためのハードウェアNSynth Superを開発した。 NSynth SuperはX-Y軸のタッチスクリーンパッドを搭載し、それぞれ4つの角にアサインされた4つの異なる音を、タッチスクリーンのコントロールでモーフィングすることができる。同機はMIDI接続でもコントロールすることができ、他のDAWやコントローラーと同期して使用することも可能だ。Googleはこのハードウェアデバイスの発売をするかわりに、Raspberry Piを使って誰もがNSynthのハードウェアを作ることができるように、GitHubにも解説を投稿している。 AIと音楽の組み合わせを研究しているテック系大企業は、Google以外にもある。先週にはSpotifyがプレイリスト内の楽曲をオートミキシングする機能をテスト中であることが明らかになった。 NSynthの解説動画は以下から視聴可能。
RA