基于数字人文智慧的计算机音乐融合塑造传播方法论引领
通过上述对计算机音乐的源发过往、现状流派、发展趋势等进行综合分析可知,数字在计算机音乐的塑造传播中发挥着核心的三大融合作用:第一,基于数字能够很好地实现计算机音乐中计算机的本质元素与音乐的本质元素的构成融合;第二,基于数字能够很好地实现东西方审美标准在计算机音乐传播效果判别上的格数融合;第三,基于数字能够很好地实现人类智能与人工智能在计算机音乐塑造生成模式上的智能融合。
从方法论层面看,基于数字的计算机音乐融合塑造传播的研究与实践,其构成、判别与生成皆体现出一种数字智慧,恰好符合中国古代人文哲学思想中的数字智慧。换而言之,数字人文智慧可以用于指引计算机音乐的融合塑造传播。
在基于数字的计算机音乐融合塑造传播的研究和实践中,无论是构成融合、格数融合还是智能融合,皆体现出在对集各自的核心融入对方的力量,真正达成聚力合一的效果之方法论。
正是基于这一数字人文智慧融合的方法论,计算机音乐的塑造传播在实践层面取得了巨大成功。这当中以Jukedeck、AIVA、Amper的音乐智能生成塑造初创公司为典型代表。Jukedeck是基于伦敦的初创企业,其为传统视觉传播讯息塑造者、传统听觉传播讯息塑造者和新媒体艺术传播讯息塑造者分别提供音乐智能生成塑造服务。Jukedeck为传统视觉传播讯息塑造者服务,视频塑传使用者只需指明所需配乐的长度、节奏、高潮点,Jukedeck即可以为之提供包括经典钢琴、日本流行、电影和未来贝斯等不同风格的且拥有版权的音乐。Jukedeck为传统听觉传播讯息塑造者(即音乐作曲人、编曲人、制作人)提供了相应的基于音频和基于MIDI的音乐智能生成工具。Jukedeck为新媒体艺术传播讯息塑造者提供的则是一套应用编程接口,令其具有自动大规模生成具有专业水平的定制音乐的能力。2018年,Jukedeck与韩国音乐公司Enterarts合作,将其人工智能与韩流音乐作曲人、编曲人、制作人的人类智能合作,以智能融合生成音乐作品传播讯息。这些单曲由韩流团体(包括SPICA、Produce 101、Highteen)在首尔的蓝色广场音乐厅演出。通过iTunes音乐商店以及韩国诸多音乐流媒体服务提供商(MelOn、Naver Music、MNET、Genie、Bugs、Soribada等)的传播,这些音乐作品传播讯息获得了极好的反响。收到传播受众正向反馈的Jukedeck公司决定持续人工智能与人类智能的智能融合生成塑造音乐作品传播讯息的模式,继续推出三张韩流迷你专辑。2016年AIVA(Artificial Intelligence Virtual Artist)公司在伦敦和卢森堡两地同时成立,基于非监督式机器学习智能生成古典音乐作品,为影视、广告、游戏的配乐塑造提供服务。其智能生成塑造了《创世纪》(Genesis)专辑,共计24首古典音乐作品,成为全球第一个具有著作版权的人工智能作曲家。基于纽约的Amper音乐公司在2017年与歌手泰琳·萨顿(Taryn Southern)合作发布了《我是人工智能》(I AM AI)专辑,其主打歌曲《解放》(Break Free)成为有史以来第一支正式发行的基于人工智能创作的歌曲。其旋律与歌词由萨顿完成,而编曲(包括和弦编排、配器等)和制作由Amper音乐完成。其MV由谷歌的深度睡眠(Deep Dream)平台智能生成。
【注释】
[1]郑晨予,复旦大学新闻学院讲师,美国科罗拉多大学博尔德分校计算机科学哲学博士,清华大学新闻与传播学院传播学博士后。
[2]Fernández J.D.,Vico F.,“AI Methods in Algorithmic Composition:A Comprehensive Survey”,Journal of Artificial Intelligence Research,2013,48,pp.513-582.
[3]Ariza C.,“Navigating the Landscape of Computer Aided Algorithmic Composition Systems:A Definition,Seven Descriptors,and A Lexicon of Systems and Research”,in Proceedings of the International Computer Music Conference,2005,pp.193 221.
[4]Shannon C.E.,“A Mathematical Theory of Communication”,Bell System Technical Journal,1948,3(27),pp.379- 423.
[5]Mathews C.J.,“Diagram and Euclid's Line:Fifty Years Ago”,in International Computer Music Conference,2014.
[6]Mathews M.V.,“The Digital Computer as a Musical Instrument”,Science,1963,142(3592),pp.553- 557.
[7]Eno B.,“Generative Music”,in Imagination Conference,1996.
[8]Fay T.M.,Selfon S.,&Fay T.J.,Direct X 9 Audio Exposed:Interactive Audio Developmen,Wordware Pub.,2004.
[9]Farnell A.,“An Introduction to Procedural Audio and its Application”,in Computer Games:Audio mostly conference,2007.
[10]Hiller Jr L.A.&Isaacson L.M.,“Musical Composition with a High Speed Digital Computer:Audio Engineering Society Convention”,Audio Engineering Society,1957,9.
[11]Cope D.,“Computer Modeling of Musical Intelligence in EMI”,Computer Music Journal,1992,16(2),pp.69-83.
[12]Simon I.,Morris D.,&Basu S.,“MySong:Automatic Accompaniment Generation for Vocal Melodies:Proceedings of the SIGCHI Conference on Human Factors in Computing Systems”,2008.ACM.
[13]Chu H.Urtasun R.,&Fidler S.,“Song From PI:A Musically Plausible Network for Pop Music Generation”,ar Xiv preprint ar Xiv:1611.03477,2016.
[14]MacCallum R.M.,Mauch M.,Burt A.,et al.,“Evolution of Music by Public Choice”,Proceedings of the National Academy of Sciences,2012,109(30),pp.12081-12086.
[15]Eck D.&Schmidhuber J.,“Finding Temporal Structure in Music:Blues Improvisation with LSTM Recurrent Networks:12th IEEE Workshop on Neural Networks for Signal Processing”,2002,IEEE.