|
发表于
2019-5-5 13:15:13
|
显示全部楼层
这个事情就很有意思了。有意思在哪里呢?在于“感情”这个词的定义方式。
对于那些坚信机器能在艺术上秒杀人类的人而言,“感情”是那些“不愿意承认”“事实”(艺术方面机器也能秒杀人)的人的“最后的避难所”,是他们在无法明确说明机器如何能不如人的情况下所能找到的最后一个推脱的理由。只因为“感情”是不能测的,所以他们就得以在这个角落里苟延残喘,宣称着那苍白懦弱的“人定胜机”。但是,在这些“机必秒人”的人眼里看来,只要数据足够强大,演奏的各种运动数据被详尽记录下来,机器的演奏可能性覆盖了人类演奏的可能性,机器的演奏就一定可以秒杀人类,到时候一切由人类建立的所谓好坏标准都会成为笑话,所有人类认为有意义的、与演奏好坏有关的所有观念,不过是一些数据上的标准而已,只不过在数字不发达的时代才会变成人们夸夸其谈的所谓标准。
所以,这里的关键在于,“感情”的用法根本不是音乐演奏中应当持有的“感情”一词的用法,而是出于辩论的目的而设的。如果“人定胜机”者只是恼怒于“机定秒人”者的挑衅而抛出“可是机器没有感情”这一说辞,是压根不能在辩论中有什么胜算的。要讨论这一问题的唯一办法,就是深入音乐文本自身之中,分析演奏中的哪一部分要用上“感情”,然后再讨论这一块机器有什么可能赢过人类。
那些认为演奏无非就是速度、响度和音高的数据组合的人眼里,音乐的所有信息在乐谱写完成的那一瞬间就已经给定了。人们要做的只不过是对于谱面上每一个信息赋予音响的数值——对于钢琴而言就是钢琴的落键速度。就像下面这样:
如果音乐演奏是这样的,那就不能说“机定秒人”有什么错误。在这件事情上,人肯定比不过机器,实现的困难程度只在于机械上的准备和数据库的大小而已,这些在工业上都是可控的。
然而,实际上演奏不是这么做的:
实际演奏的时候,我们假定第一个音可以随机给,只要不太响就可以了,毕竟这里写了p,毕竟落键速度大小人是不可能精确过机器的嘛,只要好好服从机器给予的“p指标”它就是真p了。好了,关键在于,实际演奏是要根据现有的声音来判断下一个声音要怎么出的,这下可怎么办?首先,监听就是一个问题了,我们需要一个声音接收程度超过人耳的输入端,这个问题还不算太大;其次,要实现这个预测需要怎样的模型?这是有待考究的。况且,这个预测是要设置一个远期目标还是近期目标也成了问题,如果每个邻近的音都这么分析的话其结果很容易就破碎,而且计算量也太大,也许我们可以找到一个远期目标,然后计算出一个包络,让整个线条走完整,像这样:
但是这样是不是就能解决问题了呢?也还不行。因为在不同的演奏环境里,声音的变化过程是不一样的,机器计算这个包络的时候还必须结合这个声音的变化过程来考究。于是我们还需要机器具备一个检测声学环境、计算不同频率声音衰减速率的功能。如果要从钢琴本身来讲的话,还得考虑不同钢琴的音板上的衰减过程也不一样,于是机器还得再检测出这一块的衰减。据目前的情况来看,能模拟音板的完整衰减的数字技术还没出现。所以,期待秒人的演奏音乐的机器至少还要等这个技术成型。
接着,机器还需要分析乐谱上不同句子的层次结构,以此预测下一个句子或者下一个段落要怎么布局。从AlphaGo的深度神经网络来看这种布局也是可以实现的,但复杂的要大大增加,因为AlphaGo的定义里,一个下了围棋的棋盘不过是19*19的矩阵,且矩阵里的数值非0即1,但这里……
讲真,如果具备了这样的能力,机器能不能秒人就不好说了。只是目前的工具还没到这种地步。但即便这样,机器是否有能力实现人一样的的个性化还不好说,毕竟不同的构思出的结果是不一样的。但是,要证明“机必秒人”,这一关是不可能不过的。我个人是很赞赏“感情废除说”的,因为就刚才的分析而言,感情只有结合到对下一个音、或者若干时间后的那个音的期待的时候,才会对演奏起到指导性的作用,而这个期待的确存在着用预测模型来模拟的可能。但是,从这个角度讲,音乐演奏就远远不是玄学,而是有许多实在的、并非故弄玄虚的考究在其中的。而且,即便是机器秒人了,个人认为也是像现在围棋界一样,首先有能力理解,或者有能力试图理解机器的分析方式的,还是专业人士,而不会是号称XX是玄学的人们。
说一下人的鉴赏能力。我认为题主提到的这个实验不是不行,但是它有一个前提条件,就是不同人对音乐的感知力是有相似性的。但是就实际教育过程的收效来看,这事情不大现实。双盲试验在变动很微妙的事情上的说服力是不够的,那毕竟不是治病救人这种能检查指标的东西。至于粥里狼的例子,这三个人的钢琴水平分明是服务于三种不同风格的,比个高低干啥。我不认为这种硬比能有什么用。按照数据类型的角度来讲,这三个人的演奏分明是定类数据,非得硬拔到定序甚至定量的程度,违反操作了都。题主这得去学点统计学常识啊。 |
|