プログラマーの清水亮さんとアニメプロデューサー・石井朋彦さんによる対談講座「生成AIと人間の才能の可能性~感動の境界線はどこにある?~」が11月19日(日)に開催されます。当日を迎える前に、清水さんの著書『教養としての生成AI』より「生成AI」を理解するためのポイントをご紹介。石井さんとのトークは、「生成AIの本質」をさらに掘り下げることになるでしょう。どうぞお見逃しなく。
作曲するAI、劇伴としての可能性
生成系AIは、楽曲の作曲から演奏までのプロセスを人間の音楽家に代わって行うことができます。
生成系AIによる音楽生成は、大きく2つに分けられます。一つは既存の楽曲の分析を通じて人間の音楽家の作曲手法を学習し、その音楽パターンを使用して新しい楽曲を作曲する方法、もう一つはAIが自己相似性や音楽理論に基づいて、自己の音楽を生成する方法です。
これにより、音楽制作のコストを抑えることもできるでしょう。AIによる音楽生成はコンピュータ上で完結するため、スタジオに音楽家を招く必要がなくなります。
また、新しい音楽のジャンルやスタイルの開発にも貢献するかもしれません。既存のジャンルやスタイルにとらわれず、新しい音楽の表現方法を探求できるのです。
しかし、AIが完全に人間の音楽家に代わることはできません。AIは人間の音楽家が持つ感性や表現力を完全に再現することはできないからです。また、AIが生成する音楽には、ある程度の予測性や規則性があります。これは人間の音楽家が持つ独自性や創造性とは異なります。
実際問題として、筆者はAIによる音楽生成には否定的です。たしかにAIは面白い音楽やそれっぽい音楽を生成してくれるのですが、音楽というのは根本的に人間が生命として表現するものなので、言葉のように単に音を整合性をとりながら並べても、真に創作的なものにはなりにくいのです。
もちろん、本当にどうでもいいものであれば、いくらでも作ることができます。しかし、音楽は作曲家や演奏者が伝えたい言語化不能なメッセージを伝えるものなので、機械生成には不向きなのではないかと考えています。
音楽の趣味というのは、絵の好み以上に個人差が大きいように思えます。また、聴きたい音楽は、その瞬間、聴く人がどんな環境にあり、どんな心境であるかによっても変わります。
楽器の単音は誰が聞いても美しいと感じるように作られていて、その組み合わせを音楽と呼ぶわけです。快適な組み合わせが和音、不快な組み合わせが不協和音です。ところが、実際の音楽制作では和音だけ並べればいいのではなく、適切なタイミングで適切な量とリズムで不協和音をまぜた方が結果的にいい音楽になるのです。スイカに砂糖をかけるのでなく塩をかけた方がより甘みが引き出される現象にも似た、不思議なことが起きるのが音楽です。
もちろん、人間の作った音楽や人間の演奏した音源を学習することで、似て非なる音楽が生成できるようになることは疑いようもありませんが、人間は、人間が作った音楽でさえ自分にとって快適になるようにスキップしたりリミックスしたり、DJのようにサンプリングして断片的に使ったりします。
そもそも好きな音楽というのが人によって千差万別である今の状況に、果たして作曲するAIが本当に必要なのかは疑問です。
ただ、一つ興味深い応用があるとすれば、動画の心情的な動きに組み合わせて音楽を生成する、いわゆる劇伴(げきばん)のようなものを作るときです。
劇伴を組み合わせるのは手間がかかりますし、人間の作曲と演奏でやろうとすれば非常にコストが高くなります。しかし、今やYouTuberなどは毎日動画を配信するのが当たり前になっているので、単なるBGMではなく劇伴のように動画の進行状況によって演出されるような音楽の場合、AIで生成する意味はあるのではないかと思います。
清水亮×石井朋彦「生成AIと人間の才能の可能性~感動の境界線はどこにある?~」
日時:11月19日(日)14:00~15:30
場所:幻冬舎本社/オンライン
人間が一から作った文章や映像、画像が訴えてくる感動の源を生成AIの現在と比較しながら、「表現するヒト」の存在価値を、「才能」や技術や芸の「継承」という側面とともに考える機会にしたいと思います。詳しくは、幻冬舎大学のページをご覧ください。