DivulgaMAT
Inicio - DivulgaMAT Facebook - DivulgaMAT Twitter - DivulgaMAT


Home » Cultura y matemáticas » Música y matemáticas

Música y matemáticas

El objetivo de esta sección es comprender la interesante y profunda relación de las Matemáticas con la Música.

Nuestro sincero agradecimiento a Francisco Gómez Martín (Universidad Politécnica de Madrid) por organizar y desarrollar esta sección, a sus anteriores responsables Rafael Losada y Vicente Liern, así como a todas las personas que colaboran con la misma.

Resultados 51 - 60 de 127

Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. Introducción Este artículo inaugura una serie sobre un tema apasionante: la composición algorítmica. Si queremos una definición concisa y breve, diríamos que la composición algorítmica se refiere al uso de algoritmos para la composición musical. En este viaje pretendemos que nuestros lectores, tanto músicos como matemáticos y en general cualquier lector curioso, comprendan los fundamentos de la teoría de algoritmos, de la composición musical y en última instancia cómo se han usado los algoritmos para componer música. En esta primera entrega trataremos los algoritmos y su definición formal y daremos ejemplos. En la segunda entrega examinaremos la definición de composición musical y sus características. En las siguientes entregas estudiaremos las principales corrientes dentro de la composición algorítmica. 2. ¿Qué es un algoritmo? El concepto de algoritmo está asociado a la resolución de problemas. Desde este punto de vista, los algoritmos son una manera de pensar. En general, esos problemas han de ser susceptibles de ser cuantificables numéricamente y resolubles por medios matemáticos. Por ejemplo, cuando nos referimos al algoritmo de Euclides [Wik] estamos hablando de un procedimiento para resolver el problema de hallar el máximo común divisor de dos números. Sin embargo, no toda solución de un problema es un algoritmo. La solución necesita tener unas características especiales, como vamos a ver enseguida. La definición de algoritmo ha ido evolucionando según el nivel científico de la época, desde los tiempos del matemático al-Khwarizmi (siglo IX d.C.) en que algoritmo se refería a reglas aritméticas de cálculo, pasando por la formalización de Touring, hasta llegar a la definición de Donald Knuth [Knu73], una de las más aceptadas modernamente y que seguiremos aquí. Dado un problema a resolver, un algoritmo es un procedimiento que toma una entrada o valores iniciales del problema y, después realizar una serie de operaciones bien definidas, produce una salida o solución del problema. La definición de Knuth identifica cinco propiedades que un algoritmo ha de tener: Entrada: Los valores iniciales del problema. Precisión: Todo algoritmo tiene que estar definido de manera precisa de modo que no haya ambigüedad. En particular, los algoritmos están basados en un conjunto normalmente pequeño de operaciones básicas, que se suelen llamar operaciones primitivas. Estas suelen ser las operaciones matemáticas y reglas lógicas. Finitud: Todo algoritmo tiene que terminar después de un número finito de pasos (y cuanto menor sea ese número, mejor). Salida: Todo algoritmo ha de devolver un resultado. Efectividad: Las operaciones que intervienen en el algoritmo han de ser suficientemente básicas. Por supuesto, todo algoritmo que (aparentemente) resuelva un problema tiene que ir acompañado de una prueba matemática de que, en efecto, resuelve tal problema. Puesto que un algoritmo tiene que terminar en un número finito de pasos, los problemas que pueden resolverse de manera algorítmica deben tener una cierta naturaleza discreta (los problemas debe ser o bien finitos o bien si son infinitos tener una caracterización finita). Por ejemplo, el problema de enumerar todos los números primos implica dar una salida que es infinita y, en la definición dada aquí, no hay algoritmo que realice tal tarea. Sin embargo, para calcular el máximo común divisor de dos números sí es posible diseñar un algoritmo para resolver tal problema. El máximo divisor de dos números siempre existe y es un número finito comprendido entre los divisores de ambos números. Un problema inherente a los algoritmos es su descripción. Los algoritmos pueden expresarse de muchas maneras: en primer lugar, en lenguaje natural, pero también como pseudocódigo y en última instancia en términos de un lenguaje de programación. Un algoritmo se puede ver como una serie de reglas formales para resolver un problema y su descripción es la enumeración de dichas reglas en el lenguaje apropiado. El inconveniente que surge al describir un algoritmo con lenguaje natural es que el grado de ambigüedad en su descripción puede ser demasiado alto porque el lenguaje natural es ambiguo. Consideremos el problema siguiente: Problema: Dado un conjunto M de n números reales y otro número x, determinar si x está en el conjunto M. Este problema es conocido como el problema de la búsqueda. Supongamos que los elementos de M son M[1],M[2],…,M[n]; note el lector que nos referimos a los elementos de M a través de un índice en notación matricial. Una manera de describir un algoritmo en lenguaje natural sería la siguiente: Algoritmo en lenguaje natural: Para cada elemento M[i] de M, con i = 1 hasta i = n, comprobar si dicho elemento es x. Se puede apreciar que en esta descripción aparecen las características de la definición de algoritmo dadas anteriormente. Empero, esta descripción es más abstracta e ignora ciertos detalles técnicos. La idea que transmite es de que la solución se encuentra comparando cada elemento de M con x. Con frecuencia la descripción en lenguaje natural no es suficiente para detallar las ideas detrás de un algoritmo y a veces tampoco para probar su corrección. El siguiente paso es definir una serie de operaciones básicas y estructuras de datos con que describir el algoritmo. Esa descripción se llama pseudocódigo. Por ejemplo, el siguiente pseudocódigo corresponde al algoritmo de búsqueda. BÚSQUEDA-LINEAL(M, x) 1 i ← 1 2 while i ≤ length(M) Bucle que recorre la matriz 3 if M[i] = x then Comprueba si x es el elemento i 4 r ← i 5 i ← length(M) + 2 Fuerza la salida del bucle 6 if i = length(M) + 1 then r = -1 7 return r Figura 1: El algoritmo de búsqueda lineal La entrada está especificada en la línea BÚSQUEDA-LINEAL(M, x) y es el conjunto M y el número x. El cuerpo del pseudocódigo contiene instrucciones de control, tal como el bucle while o la sentencia condicional if. En el pseudocódigo ya aparecen objetos matemáticos, tales como variables (la variable i), y operaciones entre ellos, tales como la asignación de valores, con el operador ← (líneas 4 y 5), o la comparación de valores, con el operador = (línea 6). La salida se produce en la línea 7 con la instrucción return. Este pseudocódigo facilita la prueba de la corrección del algoritmo. En este artículo no entraremos en la delicada cuestión de la prueba de algoritmos. Recomendamos al lector interesado acudir al magnífico libro de Cormen, Leiserson y Rivest [CLRS01] Introduction to Algorithms para profundizar en este importante tema. En la figura 2, por último, tenemos el algoritmo codificado en lenguaje C. Como se puede observar ya no hay lenguaje natural y los detalles del algoritmo están entreverados con los detalles propios del lenguaje. Para más información sobre programación de algoritmos en lenguajes de programación, véanse [GBY91, Sed90]. Figura 2: Búsqueda lineal codificada en lenguaje C. El orden natural de abstracción es el presentado aquí. Primero se describe el algoritmo en lenguaje natural; se comprueba que las ideas contenidas en esa solución algorítmica descrita en lenguaje natural son correctas y que poseen esa naturaleza algorítmica, que cumplen con la definición de Knuth. Después se escribe en pseudocódigo y se prueba formalmente el algoritmo; la prueba ha de ser una prueba matemática, que con frecuencia es por inducción. Por último, se codifica en el lenguaje de programación elegido. Un aspecto que no tratamos aquí es el de la complejidad de los algoritmos. La complejidad de un algoritmo es una medida del tiempo que tarda en resolver el problema en función del tamaño de la entrada. Para los propósitos de esta serie de artículos, la complejidad no desempeña un papel importante. El lector interesado puede consultar el libro de libro de Cormen, Leiserson y Rivest [CLRS01]. 3. Algoritmos y música La música, como ya hemos dicho muchas veces, es un fenómeno muy complejo, compuesto por una multitud de otros fenómenos provenientes a su vez de otros campos. La música tiene una dimensión física, pues es sonido. Ese sonido es oído por el ser humano que lo procesa según leyes básicas de la percepción pero también a través del crisol cultural, el cual puede incluir desde la exposición a un estilo determinado hasta la asociación emocional con la música. Para un estudio profundo y exhaustivo de todas estas cuestiones, recomendamos al lector la lectura del libro de Radocy y Boyle [RB06]. Pero la música posee una riqueza interminable en términos de patrones y estructuras y, por tanto, puede ser objeto de estudio de las matemáticas. Muchos de los fenómenos que constituyen la música son matematizables (por ejemplo, la armonía a través de la teoría de grupos) y en buena medida susceptibles de tratamiento algorítmico. En la mayoría de las culturas, la altura de sonido está discretizada. En el caso de la música occidental, al menos en la práctica común, se tiene una división de la octava en 12 notas. Esta discretización del continuo de la altura de sonido permite ya tratamiento algorítmico. En las duraciones de las notas, la situación es similar. El conjunto de duraciones posibles es finito y relativamente pequeño. Todo esto permite que se pueda modelizar la música (algunos aspectos de la música) matemática y algorítmicamente. Los algoritmos de ordenador suelen tratar la música usando un formato llamado MIDI. Existe una asociación [Ass], The Midi Association, en cuya página web el lector encontrará abundante información sobre este importante estándar. El estándar MIDI no es solo una manera de codificar la música sino que también se ocupa de la comunicación entre instrumentos que funcionan con este estándar. Un fichero MIDI contiene al menos la siguiente información: ataques de las notas, duración de las notas, altura de sonido como nota en una escala de igual temperamento, la voz en que suena la nota, la intensidad de volumen de la nota, la letra asociada (si la hay) y la información de los acordes. Una vez que la música está codificada en formato numérico las posibilidades son infinitas. Todas las técnicas matemáticas están al servicio del tratamiento de la información musical, en particular al servicio de la composición musical a través de algoritmos. En el próximo artículo examinaremos los fundamentos básicos de la composición musical de modo similar a como hicimos en este artículo con los algoritmos.   Bibliografía [Ass] The Midi Association. The Midi Associaton. [CLRS01] Thomas H. Cormen, Charles E. Leiserson, Ronald L. Rivest, and Clifford Stein. Introduction to Algorithms. McGraw-Hill Book Company, Cambridge, London, 2. edition, 2001. 1. editon 1993. [GBY91] G.H. Gonnet and R. Baeza-Yates. Handbook of Algorithms and Data Structures. Addison-Wesley, 1991. [Knu73] Donald E. Knuth. The Art of Computer Programming, Volume I: Fundamental Algorithms, 2nd Edition. Addison-Wesley, 1973. [RB06] Rudolf E. Radocy and J. David Boyle. Psychological Foundations of Musical Behavior. Charles C Thomas, Illinois, 2006. [Sed90] R. Sedgewick. Algorithms in C. Addison-Wesley, Reading, MA, 1990. [Wik] Wikipedia. Euclidean algorithm.
Martes, 14 de Junio de 2016 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Kristy Yun y Mariana Montiel (Georgia State University)
Este mes vamos a presentar un trabajo hecho por Kristy Yun y Mariana Montiel, de Georgia State University, en Atlanta (donde estoy pasando mi sabático). Kristy es una estudiante de licenciatura que está a punto de obtener su título. En las universidades americanas los estudiantes de licenciatura acuden a unas conferencias llamadas conferencias de investigación para alumnos de grado. En esas conferencias los alumnos de licenciatura presentan pequeños proyectos de investigación supervisados por un profesor. Ni en el campo de las matemáticas ni en el de la música existen en España estas conferencias. Y es una pena. Primero, habla del nivel de nuestras universidades. ¿Es que no pueden nuestros alumnos de los últimos años de grado adentrarse en el mundo de la investigación y presentar pequeños resultados en una conferencia de estas características? Constituyen una experiencia previa para ellos que es muy valiosa en tantos aspectos: se enfrentan a problemas de investigación; se prueban a sí mismos; conviven con su profesor; supone una gran emoción presentar su trabajo antes sus compañeros (normalmente, en forma de póster o de comunicación corta); ponen en práctica sus habilidades de escritura y orales, entre otras. Me llamó la atención el trabajo de Kristy Yun y Mariana Montiel en la conferencia de este año y les propuse publicarlo en formato divulgativo en esta columna. Les agradezco profundamente que hayan aceptado la invitación. Espero que este ejemplo cunda y empecemos a celebrar este tipo de conferencias para alumnos de licenciatura en España también de modo generalizado. Los investigadores más productivos que he conocido siempre han tenido una amplia red de alumnos a su alrededor con quienes han desarrollado relaciones personales excelentes y en quienes han podido depositar sus ideas para llevarlas a cabo, todo ello en el contexto de una cálida simbiosis humana y científica. Paco Gómez Martín (Universidad Politécnica de Madrid) Resumen del estudio Las improvisaciones en el jazz consisten en ciertos patrones rítmicos y melódicos que oímos en cierto orden. Por medio del estudio de la genésis de estos patrones podemos entender el proceso de la toma de decisiones en tiempo real en el contexto de una estructura dada en que consiste la improvisación. No hay teorías que describan a fondo y con precisión la improvisación, pero entre las existentes destacan dos escuelas de pensamiento: una es la teoría basada en patrones; la otra se basa en gramáticas o reglas. La primera teoría propone que los improvisadores se nutren de un corpus de patrones rítmicos y melódicos memorizados y que dichos patrones se insertan en el proceso de una improvisación en curso dentro de unas ciertas reglas de estilo. Otra teoría, encontrada con la primera, asevera que los improvisadores generan notas por medio de los algoritmos y las reglas del jazz tonal, sin la ayuda de patrones memorizados. Para comprobar la validez de estas teorías, en un estudio previo [7] llevado a cabo por Martin Norgaard y sus coloaboradores se analizó un corpus de 48 solos improvisados por el gran saxofonista de jazz Charlie Parker. Los resultados del estudio mostraron que la incidencia de patrones en el corpus de Charlie Parker coincide con el algoritmo basado en patrones implementado en ese estudio. En cambio, las improvisaciones generadas por Impro-Visor, un software desarrollado en base a gramáticas y reglas tomadas de los acordes musicales introducidos por el usuario, no generó una presencia de patrones similar a la del corpus real de Parker. En vista de los resultados positivos del algoritmo, el siguiente paso era la incorporación de acordes; sin embargo, se quería evitar que dichos acordes dictasen la melodía y el contorno de la salida musical de manera excesivamente estricta, ya que la coincidencia de patrones era muy apegada a las improvisaciones de Parker. Se vio que una posible solución era el empleo de modelos de Markov no homogéneos, en que los acordes se entendiesen como restricciones. Cabe mencionar que podría haber aplicaciones de ese algoritmo que transcendiesen el género de jazz y aún la música, ya que se basa en patrones. La creatividad en áreas tales como los video juegos se puede modelar, dado que los jugadores deben responder de forma creativa en tanto adquieren ciertos patrones de respuesta con restricciones inherentes al contexto. Introducción Normalmente, cuando los músicos profesionales de jazz tocan en pequeños grupos no leen partituras, sino que improvisan. Los ejecutantes escogen frases que al público podría parecerles prescritas, pero que realmente se crean en el acto. Estos músicos profesionales desarrollan una forma muy intrincada de tema y variación; cada uno es consciente de su tonada y su papel; esto explica la razón por la que la improvisación de jazz sirve como un paradigma excelente para el estudios de la creatividad en tiempo real. La improvisación en el jazz es también un prototipo de la actividad mental común al reconocimiento del habla y otras áreas de interés en la inteligencia artificial. Actualmente hay dos teorías encontradas en el estudio de la improvisación en el jazz: (1) el enfoque basado en los patrones y (2) el enfoque basado en reglas; la figura 1 ilustra esta situación esquemáticamente (se ha dejado el texto en el inglés original). Figura 1. Teorías cognitivas encontradas Hay varios softwares para la improvisación en el jazz que se basan en una de las teorías descritas más arriba, patrones o reglas. Un ejemplo de un software basado en reglas es Impro-Visor, un software para la notación musical diseñada para ayudar a los estudiantes de jazz componer y escuchar solos similares a los que podrían improvisarse sobre los acordes dados. Martin y sus colaboradores [7], en un artículo de 2013, analizaron las dos teorías cognitivas prevalecientes por medio del análsis de un corpus de solos de Charlie Parker. Los resultados del estudio (mostrados en la figura 2, primera parte) demostró que el porcentaje de notas que inician un patrón de 4 intervalos como una función del número de veces el patrón ocurre en las improvisaciones no es coherente con el corpus de Charlie Parker cuando se emplea el software Impro-Visor (mostrados en la figura 2, segunda parte). Figura 2 (primera parte). Comparación del porcentaje de notas que inician un patrón de 4 intervalos como una función del número de veces que el patrón ocurre en el corpus. [2] Figura 2 (segunda parte). Comparación de los porcentajes de notas que inician en un patrón de 4 intervalos como una función del número de veces que el patrón ocurre en 1) una melodía generada según la gramática de Parker en el software Impro-Visor y 2) utilizando nuestro algoritmo. [2] No obstante, un algoritmo basado en patrones melódicos parece reflejar el corpus de Parker con mucha más fidelidad. Tras los buenos resultados conseguidos por este último algoritmo, los autores pensaron en incorporar los acordes a la generación de los solos. Los acordes son fundamentales en la improvisación en el jazz y existe una íntima relación entre melodía y acordes que no es posible deslindar en modo alguno en este estilo. Existía, empero, el peligro de que la incorporación de los acordes restringiese excesivamente las posibilidades de elección de los patrones si dicha incorporación no se hacía de modo cuidadoso. Entonces, para incorporar los acordes y, a la vez, modificar lo menos posible las improvisaciones que resultan de nuestro algoritmo, decidimos explorar las cadenas de Markov no homogéneos. Modelos de Markov Los procesos de Markov son una herramienta popular de modelaje que se emplean en la generación de contenido, tales como la generación de textos, la composición musical y la interacción. El principio básico de la suposición de Markov es que los estados futuros dependen sólo del pasado inmediato y de la sucesión de eventos que ocurrió anteriormente. Matemáticamente, para una sucesión : p(qi|q1,...,qi-1) = p(qi|qi-1)(1) Ejemplo de un proceso de Markov[4] El pronóstico del tiempo consiste en adivinar el estado del clima mañana basado en una historia de observaciones en torno al tiempo. En base a la tabla 1 de números escogidos aleatoriamente, mas el autómata generado de esta tabla en la figura 3, intentaremos pronosticar el tiempo. Tabla 1. Probabilidades escogidas aleatoriamente para el tiempo. Figura 3. Autómatas generadas de la Tabla 1. Por ejemplo, en vista de que hoy es un día soleado, ¿cuál es la probabilidad que mañana sea soleado y que el día siguiente sea lluvioso? Esto se traduce en los siguientes cálculos: P(q2 = soleado, q3 = lluvioso | q1 = soleado) = P(q3 = lluvioso | q2 = soleado, q1 = soleado) x P(q2 = soleado | q1 = soleado) = P(q3 = lluvioso | q2 = soleado) x P(q2 = soleado | q1 = soleado) = (0.05)(0.8) = 0.04 Esta probabilidad también se puede obtener a través del autómata de la figura 3, multiplicando las probabilidades correspondientes en el proceso. Resultados En el artículo de Pachet, Finite-length Markov processes with constraints [5], se muestra que las restricciones pueden compilarse en un nuevo modelo de Markov cuyas probabilidades sean equivalentes al modelo inicial. Según el propio Pachet, al hablar su método, “esto nos deja con la ventaja de retener la sencillez de los trayectos aleatorios, en tanto asegura que las restricciones de control se satisfagan"[5]. Estos resultados se pueden aplicar a nuestro algoritmo melódico y rítmico actual para mantener las probabilidades de la salida musical original (la “improvisación”), en tanto los acordes son incorporados como restricciones. Una vez más se enfatiza que la meta es no dejar que los acordes “dicten” el contenido melódico, cosa que sí sucede en el software Impro-Visor, donde la incidencia de patrones presentes en el corpus de solos de Parker se pierde en las improvisaciones generadas (aunque somos los primeros en reconocer lo ingenioso y la utilidad didáctica de Impro-Visor). Nuestra meta es generar un modelo no homogéneo de Markov, representado por una serie de matrices de transición. Para mostrar cómo las restricciones se pueden compilar en un modelo no homogéneo de Markov, tomaremos un ejemplo de generación de melodía con una restricción simple. La restricción se reduce a que toda melodía de 4 notas tiene que terminar en C (do); de nuevo se usarán el ejemplo original en inglés. Considérese un modelo de Markov estimado a partir de las sucesiones de la figura 4. El vector a priori es: C D E donde las entradas se originan en las melodías de la figura 4. Por ejemplo, para encontrar la probabilidad de C, primeramente se toman el número total de notas en cada melodía, que en este caso son 6 para cada una. Por lo tanto, de las doce notas C aparece 4 veces y esto arroja la probabilidad 4/12 = 1/3. Figura 4. Dos melodías sencillas de entrada usadas para estimar M. Las probabilidades de transición de M también se pueden generar de las dos melodías de entrada. Por ejemplo, cuando C va a D (re), podemos ver de nuestras melodías que la totalidad de posibles transiciones que comienzan con C son: C va a D (primera melodía) C va a E (segunda melodía) C va a D (segunda melodía). De las tres transiciones posibles, 2 de las 3 terminan de D. Por lo tanto, la probabilidad de ir de C a D es 2/3. Por medio de un programa sencillo creado para generar todas las posibles combinaciones de melodías de 4 notas (véase la figura 5), obtenemos 12 posibilidades de probabilidades diferentes de cero, como se ve en la tabla 2. Figura 5. Todas las posibles combinaciones de melodías de 4 notas que satisfacen la restricción. Tabla 2. Las 12 melodías de 4 notas que satisfacen la restricción del control y sus probabilidades en M, donde la suma de las probabilidades para estas sucesiones es s. Las probabilidades de obtener melodías de 4 notas que terminan en C pueden detectarse por medio de nuestro vector a priori M, junto con las probabilidades de transición. Por ejemplo: Después de la generación de estas matrices primarias, el primer paso en nuestro proceso es hacer que nuestro problema inducido de satisfación de restricciones (CSP) cumpla con la consistencia de arcos. La consistencia de arcos consiste en la propagación de las restricciones en todo el problema de la satisfacción de restricciones através de un algoritmo de punto fijo que considera la restricciones de manera individual [6]. Para nuestro ejemplo, la consistencia de arcos elimina C y E del dominio de V3 y arroja los siguientes dominios: donde Ki es el estado de transición entre Z(i-1) a Zi y Vi es el estado. Esto asegura que durante cualquier trayecto aleatorio no habrá una situación en la cual se escoja una alternativa que no tenga continuación. El siguiente paso es extraer las matrices de los dominios. Por medio del algoritmo de Pachet[5]: mantenemos las siguientes matrices: Finalmente, construimos las matrices de transición definitivas M̃(i) a M̃ através de un proceso sencillo de derecha-a-izquierda para poder propagar las perturbaciones en las matrices inducidas por la normalización individual al revés, comenzando con la que está más a la derecha.[5] Para lograr lo anterior, primeramente normalizamos la última matriz Z(L-1)individualmente. En seguida se propaga la normalización de la derecha a la izquierda hasta llegar al vector a priori Z(0). Los elementos de las matrices M̃(i) y el vector a priori M̃(0) se definen através de las siguientes relaciones de recurrencia: Por medio de la relación arriba expuesta, logramos las siguientes matrices de transición para nuestro ejemplo. Por medio de calculos similares para i = 1 y i = 0, como resultado contamos con las siguientes matrices de transición: Discusión Este es un enfoque eficiente para controlar la generación de Markov con restricciones que pueden: garantizar que las sucesiones generadas satisfagan las restricciones. seguir la distribución de probabilidad del modelo de Markov inicial. Podemos ver que la matriz final de transición M̃ mantuvo la misma distribución de probabilidad que el vector a priori M. La tabla 3 muestra las probabilidades M̃ de todas las posibles sucesiones de soluciones, donde estas probabilidades son iguales a las probabilidades iniciales hasta un factor constante de multiplicación α(0). Tabla 3. La probabilidad del conjunto de sucesiones de soluciones en M̃. La razón de probabilidades es constante. Este algoritmo no tienen que ser específico al género de jazz, ya que se basa en los patrones reales de un corpus. Ha habido implementaciones con música clásica, música blue grass y otras músicas. Se piensa que este algoritmo puede trascender la música y utilizarse para estudiar la creatividad en áreas tales como los video juegos, donde la improvisación juega un papel significativo dado que los participantes deben responder de manera creativa en tanto adquieren ciertos patrones de respuesta como resultado de las restricciones. Actualmente estamos trabajando en la incorporación de los acordes en el algoritmo y este método parece prometedor. Mi contribución en este proyecto de investigación consistió en encontrar esta técnica y mostrar su relevancia para el siguiente paso importante en el desarrollo de este software para la improvisación. Reconocimientos Primeramente quiero agradecer a mi asesora de investigación, Dr. Mariana Montiel. Sin su ayuda e involucramiento dedicado en cada paso de este proceso, este trabajo jamás se habría realizado. Me gustaría darle las gracias por su apoyo, orientación, paciencia y, sobre todo, su tutoría. También me gustaría mostrar mi gratitud a mi grupo de investigación de la neurofísica, incluyendo al Dr. Mukesh Dhamala, el Dr. Martin Norgaard, y a Kiran Dhakal por compartir mi interés y emoción durante el transcurso de esta investigación. Sin la oportunidad que me aportó el Dr. Dhamala de trabajar junto con Kiran en el registro de los datos fMRI de los músicos de jazz, no habría podido trabajar tan cercanamente con la Dra. Montiel y con el Dr. Norgaard en este proyecto. Asimismo, gracias al Dr. Paco Gómez por su ayuda con las últimas partes de los cálculos.   Referencias [1] "Jazz Improvisation." A Passion for Jazz! Music History & Education. http://www.apassion4jazz.net [2] Pressing, J. (1988). Improvisation: Methods and model. In J. A. Sloboda (Ed.), Generative processes in music (pp.129-178). Oxford, UK: Oxford University Press. [3] Johson-Laird,P.N.(2002).How jazz musicians improvise. Music Perception., 19, 415-442. [4] Resch, Barbara, Hidden Markov Models: A Tutorial for the Course Computational Intelligence. http://www.igi.tugraz.at/lehre/CI [5] Pachet , Pierre Roy , Gabriele Barbieri, Finite-length Markov processes with constraints, Proceedings of the Twenty-Second International joint conference on Artificial Intelligence, July 16-22, 2011 [6] C. Bessiere, E. C. Freuder, and J.-C. Regin. Using inference to reduce arc consistency computation. In Proc. of the IJCAI95, pages 592-598. Morgan Kaufmann, 1995. [7] Norgaard, Martin; Spencer, Jonathan; Montiel, Mariana. Testing Cognitive Theories by Creating a Pattern-Based Probabilistic Algorithm for Melody and Rhythm in Jazz Improvisation. Psychomusicology, vol. 23, No. 4. 2013
Viernes, 20 de Mayo de 2016 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. Sobre el consenso entre expertos en música El artículo de este mes versa sobre un problema que me he encontrado con cierta frecuencia en el campo de la teoría musical y de la musicología. Ese problema es el del consenso entre expertos en música. A la hora de evaluar un fenómeno musical, ¿cómo se ponen de acuerdo los expertos? ¿Son capaces de formalizar los criterios por los cuales toman su decisión? Si hay desacuerdo entre ellos, ¿cómo se formula tal desacuerdo? ¿Qué metodología usan para evaluar el fenómeno y poner en común una evaluación final? ¿Cómo se matiza tal evaluación? ¿Cuántos expertos es recomendable tener para una evaluación mínimamente fiable? Estas preguntas aparecen en el transcurso de la investigación en música. Por asombroso que parezca, en numerosas ocasiones he visto evaluaciones hechas por un único experto y que el resto de la comunidad ha dado por buena o al menos con muy pocas voces discordantes. De que ese único experto tenía un conocimiento y experiencia formidables no cabía ninguna duda; pero incluso los expertos cometen errores de juicio; pero además no es riguroso aceptar la opinión de un solo experto, por muy prestigioso que este sea. He visto también, por ejemplo, que un experto prestigioso ha basado su evaluación en pequeñísimo número de piezas musicales, a veces tres, pero en otros casos no más de una decena. También aquí parece que falta rigor. Lo observable en un número tan pequeño de piezas puede no ser generalizable al resto y si así lo es habría que justificarlo adecuadamente (normalmente tal justificación está ausente). En el transcurso de mis investigaciones me he encontrado con ejemplos de esta situación, tanto al estudiar artículos como en los proyectos de investigación en que he participado. Por ejemplo, en el caso del flamenco no hay consenso en cuanto a cómo se tiene que transcribir, si bien creando una nueva notación, posiblemente partiendo de la notación occidental, o bien tomando la notación occidental como método único de transcripción. La notación occidental se creó para escribir una música cuyas características no coinciden totalmente con las del flamenco. Además, hay diferencias entre proponer un sistema de transcripción para la guitarra y otro para la voz. La guitarra es un instrumento de afinación fija, pero la voz y menos en el flamenco, no lo es. Donnier para la voz propone un sistema que parte del cante gregoriano [Don11, Don96], pero otros autores como los hermanos Hurtado abogan rotundamente por la notación occidental para todo el flamenco; véase [HH02]. El guitarrista y musicólogo Rafael Hoces, en su tesis doctoral La transcripción para guitarra flamenca [Hoc13], apoya la idea del uso de la notación occidental solo para la transcripción de la guitarra. Entre los flamencólogos, cuando se presenta este debate, algunos llegan a decir es mejor seguir con la notación occidental pues no se alcanzaría acuerdo en diseñar una nueva notación que se adecuase a las peculiaridades del flamenco. De nuevo, aquí estamos en presencia del problema del consenso entre expertos. En los últimos años se está investigando con fuerza los mecanismos que subyacen en la improvisación. Hay dos escuelas de pensamiento al respecto, una que propone que la improvisación se configura a partir de reglas, al estilo de las gramáticas generativas de Chomsky, o trasladado al ámbito músical, al estilo de la teoría generativa de la música de Fred Lerdahl y Ray Jackendoff [LJ03] (véase la serie correspondiente en esta columna [Góm14]). Cada estilo (jazz, flamenco, etc.) tiene sus reglas precisas que hacen que una improvisación se vea dentro del estilo o fuera de él. La otra escuela mantiene que la improvisación se hace a base de patrones, que pueden ser de todo tipo: melódicos, armónicos, rítmicos, formales; y que entonces la calidad de la improvisación está en función de la combinación acertada de esos patrones. Probablemente, la improvisación venga dada por una combinación de ambas. No se sabe, empero, para qué parámetros musicales y en qué grado se produce tal combinación. Investigadores de ambas escuelas de pensamiento han escrito programas que toman, por ejemplo, un corpus de solos de un trompetista de jazz (Parker, Coltrane u otros) y a partir de ese corpus, bien por reglas [GKT10] o por patrones [NSM13], componen solos en su estilo. A la hora de evaluar los resultados del programa, esto es, cuán fielmente se reflejan las características del músico en cuestión, con frecuencia nos encontramos que es la opinión de los autores del artículo el único criterio de evaluación. Los autores afirman que los solos son buenos porque “suenan al trompetista”, o porque “reflejan su pensamiento musical”, pero no aportan razones que sostengan estas afirmaciones. Y no dudo de la honestidad intelectual de estos investigadores, pero desde el punto de vista del rigor metodológico, en ciencia (y la musicología lo es) es difícil aceptar esas afirmaciones. 2. ¿Qué pueden hacer las matemáticas? En otros campos ya ha surgido el problema de alcanzar consenso entre expertos. En medicina, por ejemplo, es un problema que aparece con frecuencia. ¿Cómo lo resuelven en medicina? Hay varios métodos, pero uno de ellos, que goza de cierta popularidad, es el llamado método Delphi. La técnica Delphi es un método para recoger información de expertos y construir consenso a partir de dicha información. Vamos a describir ese método y ver cómo se podría aplicar a la teoría de la música. Jorm [Jor15], en un artículo titulado Using the Delphi expert consensus method in mental health research, investiga la aplicación del método Delphi al acuerdo entre expertos en el campo de la salud mental. El primer paso en la implementación del método es la selección de los expertos. Basándose en el trabajo de Surowiecki [Sur04], el famoso libro The wisdom of crowds: why the many are smarter than the few, propone las siguientes condiciones para elegirlos: Diversidad de expertos. Un grupo heterogéneo de expertos previsiblemente producirá resultados de mayor calidad que un grupo fuertemente homogéneo. Independencia. Los expertos han de tomar sus decisiones de modo independiente y sin influencia externa. Descentralización. Los expertos trabajan de manera autónoma en la producción de sus resultados. Coordinación. Para los resultados finales existe un mecanismo de coordinación entre los expertos. Aunque no en todas las circunstancias el trabajo de un grupo de expertos da buenos resultados, se han estudiado las condiciones bajo las cuales esto ocurre. Hay una gran variedad de contextos en que dicho trabajo es útil y valioso; para más detalles, véanse las referencias del artículo de Jorm [Jor15] (página 888). Hay muchas variantes del método Delphi, sobre todo en función de la aplicación particular, pero se puede describir de forma general como una serie de rondas en que el coordinador del método manda a los expertos unos cuestionarios. Los expertos han de responder a estos cuestionarios y devolverlos al coordinador, quien a su ve estructura la información y los vuelve a mandar a los expertos, quienes, a su vez, han de revisar y criticar sus respuestas anteriores. Este proceso se repite hasta que se alcanza el máximo número de rondas establecido o se alcanza consenso. Asociado al método suele haber tratamiento estadístico de los datos, tanto cuantitativo como cualitativo. Veamos más en concreto cómo se implementa el método Delphi; seguimos aquí el trabajo de Jorm. Los pasos que este establece son los siguientes: Establecimiento de la pregunta de investigación. Como en toda investigación, hay una serie de pregunta o preguntas que se esperan responder en este caso a partir del consenso entre los expertos. Selección del panel de expertos. Más arriba se describió cómo elegirlos. Determinación del tamaño del panel de expertos. Esta cuestión es delicada y depende en gran medida de la disponibilidad de los expertos y del problema en concreto. Obviamente, un número excesivamente pequeño de expertos no proporciona buenos resultados, pues la opinión de cada experto tendría mucha influencia. Lo ideal es encontrar el número mínimo de expertos que garanticen la estabilidad en los resultados. Algunos autores recomiendan un número alrededor de 23 expertos. En ciertos contextos, esto no es posible porque no hay un número tan alto de expertos o porque los expertos no siguen la metodología Delphi fielmente (y entonces hay que descartar su aportación). Diseño del cuestionario. El cuestionario se basa en una fase previa de documentación, la cual se hace mediante una revisión de la bibliografía existente. Es importante hacer preguntas que sean de máxima relevancia (estamos usando el precioso tiempo de los expertos). Cuanto mejor esté formulada la pregunta de investigación, más relevantes serán las preguntas en el cuestionario. Existen metodologías específicas para redactar los cuestionarios; véanse las referencias citadas en [Jor15]. Información previa proporcionada al panel de expertos. En algunos casos, los expertos reciben información sobre cómo puntuar las preguntas (si estas así lo exigen, típicamente en una escala de Likert), el formato de las preguntas o la justificación de las respuestas. Es importante que las instrucciones de cómo contestar a los cuestionarios sean muy claras de modo que los expertos contesten correctamente. Distribución del cuestionario. Los expertos no tienen que reunirse para contestar a los cuestionarios. Los medios para distribuir son variados, desde una encuesta por vía de un formulario web hasta el clásico correo electrónico. Análisis y crítica de las información recogida en las rondas. El método Delphi requiere una definición de consenso. Una definición general y aplicable a cada no existe. Cada equipo de investigadores tiene que construir su propia definición y ponerla a prueba durante el proceso. Tras la primera ronda, el equipo de investigadores analiza los resultados y en función de ellos vuelve a mandar una segunda ronda de cuestionarios. Los expertos reciben críticas y comentarios a las respuestas de su primera ronda y se les pide que contesten a esta segunda ronda. Este proceso se repite cierto número de veces. Algunos autores recomiendan que sea tres o cuatro veces. De nuevo, depende de la investigación, pero no puede ser muy alto ya que se produce cansancio intelectual y psicológico en los expertos. El tiempo entre ronda y ronda no debería ser muy alto, pues de lo contrario se pierde interés en el proceso. Si la naturaleza del problema lo permite, se pueden tomar medidas cuantitativas y cualitativas y llevar a cabo análisis estadísticos. Informe de los resultados. El informe de resultados puede adoptar muchas formas. Puede consistir simplemente en un recuento de los puntos en los que hubo acuerdo o puede llegar a ser algo muy complejo que se puede describir en términos de grafos, mapas conceptuales, análisis de agrupamientos, entre otros. En la figura 1 se ve un ejemplo tomado del artículo de Jorm donde se esquematiza el proceso de las rondas y se informa del número de ítems incluidos en una investigación médica. Figura 1: Diagrama de flujo asociado a un proceso Delphi (figura tomada de [Jor15]) En un reciente artículo (junio de 2015), Albert Fornells y sus coautores [FRR+15] aplican la metodología Delphi a problemas de consenso entre expertos en el campo de la hostelería. Los resultados de su método aparecen en forma de mapa conceptual. La formalización matemática de su método es muy alta. Formalizan el razonamiento cualitativo de los expertos usando teoría de conjuntos y tras pasar revista varios índices de consenso, proponen el suyo propio. Los mapas conceptuales los construyen usando técnicas clásicas de agrupamiento tales como los grafos filogenéticos. Este trabajo da una idea del nivel de formalización que se puede introducir en el problema del consenso entre expertos. 3. Conclusiones El método que hemos examinado es totalmente aplicable al problema de alcanzar consenso entre expertos en música. Su uso contribuiría, sin duda, a dar más rigor a las conclusiones en las investigaciones musicales. ¿Cuál es, pues, la contribución de las matemáticas aquí? El rigor; el rigor metodológico. La aplicación de las matemáticas a la música que proponemos en la columna de este mes no está relacionada con la formalización de una propiedad musical en términos matemáticos o en la aplicación de una idea matemática a la composición musical, por poner dos ejemplos clásicos; no, está relacionada con el espíritu de las matemáticas, con la voluntad de rigor que poseen.   Bibliografía [Don96] Ph. Donnier. Flamenco, structures temporelles et processus d’improvisation. PhD thesis, Université Paris X. Nanterre, 1996. [Don11] P. Donnier. Flamenco: elementos para la transcripción. Del cante y de la guitarra. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=12354&directory=67, abril de 2011. [FRR+15] Albert Fornells, Zaida Rodrigo, Xari Rovira, Mónica Sánchez, Ricard Santomà, Francesc Teixidó-Navarro, and Elisabet Golobardes. Promoting consensus in the concept mapping methodology: An application in the hospitality sector. Pattern Recognition Letters, 67:39–48, 2015. [GKT10] J. Gillick, R. M. Keller, and M. Tang, K. Machine learning of jazz grammars. Computer Music Journal, 34:56–66, 2010. [Góm14] P. Gómez. Teoría generativa de la música - I. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16037&directory=67, junio de 2014. [HH02] A. Hurtado and D. Hurtado. La voz de la tierra: estudio y transcripción de los cantes campesinos en las provincias de Jaén y Córdoba. Junta de Andalucía, Centro Andaluz de Flamenco, Sevilla, 2002. [Hoc13] R. Hoces. La transcripción para guitarra flamenca. PhD thesis, Universidad de Sevilla, 2013. [Jor15] A. F. Jorm. Using the Delphi expert consensus method in mental health research. Australian and New Zealand Journal of Psychiatry, 49(10):887–897, 2015. [LJ03] Fred Lerdahl and Ray Jachendoff. Teoría generativa de la música tonal. Akal, Madrid, 2003. [NSM13] M. Norgaard, J. Spencer, and M. Montiel. Testing cognitive theories by creating a pattern-based probabilistic algorithm for melody and rhythm in jazz improvisation. Psychomusicology, 23:243–254, 2013. [Sur04] J.. Surowiecki. The wisdom of crowds: why the many are smarter than the few. Abacus, Londres, 2004.
Viernes, 15 de Abril de 2016 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
Esta es la última entrega de la serie Música y probabilidad en la que estamos estudiando modelos probabilísticos siguiendo el libro de Temperley Music and Probability [Tem10]. Estudiaremos en esta cuarta entrega los modelos de expectativa musical, tanto de ritmo como de altura del sonido así como los de detección de errores. La primera entrega [Góm16c] consistió en un argumentario a favor del estudio de la probabilidad por parte de los músicos y una introducción al libro de Temperley. En la segunda entrega [Góm16a], estudiamos los modelos computacionales y probabilísticos para el ritmo, y en la tercera entrega [Góm16b], los modelos probabilísticos de la altura del sonido. Esperamos que con estos cuatro artículos hayamos convencido, o al menos ablandado, al lector escéptico acerca de las bondades del conocimiento de la probabilidad para el estudiante de música, en especial para el futuro musicólogo. 1. Probabilidad de una melodía En las dos entregas anteriores se trató el ritmo y la altura del sonido por separado. En esta entrega vamos a combinar ambos para dar un modelo conjunto de la melodía. La hipótesis principal que Temperley hace sobre el modelo conjunto es que ritmo y altura se pueden elegir independiente de modo que la probabilidad de una melodía es el producto de la probabilidad de los patrones rítmicos (duraciones) por la probabilidad de la sucesión de alturas. El estudio que lleva a cabo sobre la probabilidad de la melodía (capítulo 5) se centra en dos fenómenos, a saber, las expectativas musicales y la detección de errores. Las expectativas se refiere a las notas que el oyente espera tras haber oído una melodía previa. La detección de errores se refiere a cómo el oyente detecta errores en la melodía. Las expectativas en la melodía se dividen en las expectativas sobre la altura del sonido y sobre el ritmo, las cuales tratamos por separado. 2. Expectativas en la altura de la melodía En la percepción de la melodía, las expectativas desempeñan un papel importante. La investigación en cognición musical ha estudiado esta cuestión desde hace mucho tiempo. Los oyentes se forman expectativas en cuanto a las notas que siguen una sucesión de notas previas —tanto en términos de ritmo como de altura del sonido— y ello crea y disuelve la tensión musical, que es entre otros factores la manera en que el discurso musical progresa. Se sabe que la creación, la confirmación y la negación de las expectativas musicales es una parte fundamental del proceso de creación del significado musical. Ya Meyer [Mey56] en su libro de 1956 Emotion and Meaning in Music analiza exhaustivamente esta cuestión en base a la teoría de la percepción de la forma (Gestalt). Posteriormente, Narmour [Nar90], en 1990, con su libro The Analysis and Cognition of Basic Melodic Structures: The Implication- Realization Model extiende y profundiza notablemente el estudio de las expectativas musicales. Desde un punto de vista experimental, hay dos enfoques o paradigmas: el paradigma de la percepción y el de la producción. En los estudios pertenecientes al primer paradigma se pide a los sujetos que, tras oír un fragmento de una melodía, juzguen si una cierta nota es la mejor continuación; véanse los trabajos de Schmuckler [Sch89] y Cuddy y Lunney [CL95]. En el paradigma de la producción, en cambio, se pide a los sujetos que produzcan la nota que consideran más adecuada para continuar la melodía; véanse los artículos de [Pov96], [TCP97], and [Lar04] así como las referencias del propio libro de Temperley. El modelo de Temperley se basa en el trabajo de Cuddy y Lunney [CL95]. En los experimentos llevados a cabo por estos autores, los sujetos tenían que juzgar una melodía de dos notas que era continuada por una tercera nota en una escala de 1 a 7, donde 1 corresponde a una “extremadamente mala continuación” y 7 a una “extremadamente buena continuación”. Las melodías (o contextos musicales, como los llama Temperley) fueron los siguientes: (A) segunda mayor ascendente; (B) segunda mayor descendente; (C) tercera menor ascendente; (D) tercera menor descendente; (E) sexta mayor ascendente; (F) sexta mayor descendente; (G) séptima mayor ascendente; (H) séptima mayor descendente; véase la figura 1. Figura 1: Melodías de dos notas usadas en los experimentos de Cuddy y Lunney [CL95] (figura tomada de [Tem10]) Los autores presentaron 25 continuaciones diferentes para cada par de notas; esas continuaciones se generaron tomando todos los tonos posibles dentro de una octava hacia arriba y hacia abajo. A partir de estos datos, Cuddy y Lunney dieron la clasificación media para cada continuación tomada entre todos los sujetos. Entre los numerosos modelos de expectativa de las alturas de sonido, Temperley se fijó en los modelos perceptuales y descartó los teóricos, es decir, se quedó con aquellos modelos que tenían su base en experimentos perceptuales con sujetos reales. Estos modelos suelen usar regresión múltiple como método para obtener las mejores continuaciones. Uno de esos ejemplos se encuentra en el trabajo de Schmuckler [Sch89], en el que el autor asigna una puntuación a cada posible continuación que es una combinación lineal de varios factores. La regresión múltiple se usa para ajustar estas variables a los resultados de los sujetos de manera óptima (minimizando el error de la predicción). Otro grupo de trabajos se centró en la teoría de la implicación-realización de Narmour [Nar90]. En particular, Krumhansl [Kru95] y Schellenger [Sch96] dieron cobertura experimental a la teoría de Narmour. Schellenger consiguió un coeficiente de correlación de 0.8 al aplicar regresión múltiple usando como variables independientes las dadas por el modelo de Narmour y como variables dependientes las medidas experimentales de Cuddy y Lunney. En su libro Temperley toma los datos de Cuddy y Lunney y los reinterpreta en términos probabilísticos. Tras comparar varios métodos, decide interpretar las puntuaciones de las continuaciones dadas por los sujetos como los logaritmos de las probabilidades. En concreto, se interpretan como los logaritmos de las probabilidades condicionadas, es decir, los logaritmos de la probabilidad de que un tono sea una continuación dada un contexto previo de dos notas. Usando los parámetros obtenidos a partir del corpus Essen Folksong Collection [Sch95], Temperley es capaz de obtener un coeficiente de correlación de 0.729. Tras algunos ajustes en el modelo, llega a obtener un coeficiente de 0.87. En la figura 2 se comparan el modelo de Cuddy y Lunney y el de Temperley para dos intervalos dados, la segunda mayor ascendente y la sexta mayor descendente. El eje horizontal muestra las posibles continuaciones descritas en términos de semitonos (de ahí el rango de +12 a -12); el eje vertical proporciona la puntuación media de los sujetos. Figura 2: Comparación de los datos de los experimentos de Cuddy y Lunney [CL95] y del modelo de Temperley (figura tomada de [Tem10]) En su modelo probabilístico, Temperley tiene en cuenta el fenómeno de las inversiones post-salto. Es un hecho comprobado que grandes saltos en la melodía suelen estar seguidos por cambios en la dirección melódica. Tanto los modelos de Narmour como el de Schellenger tienen en cuenta este fenómeno. Otros autores, como von Hippel y Huron [vHH00], lo niegan y argumentan que se trata de un efecto debido a la regresión a la media, que no expresa sino la tendencia a estar en el centro de la tesitura. La manera en que se trata la inversiones post-salto se refleja en las probabilidades que se obtienen en el modelo. No entraremos a describir la implementación de este fenómeno; el lector interesado puede consultar el libro de Temperley en las páginas 69 a 70. 3. Expectativas en el ritmo El modelo probabilístico de Temperley también considera la componente rítmica. Las expectativas son similares a las del caso de la altura de sonido. Tras escuchar unas secuencias de duraciones, el oyente espera con más probabilidad ciertas continuaciones que otras. Este hecho se puede justificar en base a la ley de continuación de la percepción de la forma (véase el libro de Meyer [Mey56]). Por ejemplo, tras oír una sucesión de notas de igual duración, el oyente espera encontrar otra nota de igual duración; véase la figura 3. Figura 3: Comparación de los datos de los experimentos de Cuddy y Lunney [CL95] y del modelo de Temperley (figura tomada de [Tem10]) Esta expectativa del oyente influye en la percepción de la altura. En efecto, cuando una nota ocurre en la posición de mayor expectativa, la altura es evaluada con más precisión por el oyente que si ocurre un poco o bien un poco después. Large y Jones, dos autores que han estudiado este fenómeno en profundidad, lo llaman el modelo del oscilador [LJ99] Para su modelo de expectativa del ritmo, Temperley acude al modelo de ritmo que presentó previamente (capítulo 3 de su libro [Tem10]; tercera entrega de nuestra serie [Góm16b]). La expectativa de una continuación será la probabilidad condicionada de la continuación dado el contexto. En el caso del ritmo, la adaptación del modelo de ritmo a un modelo de expectativa del ritmo no es directa, como sí ocurrió en el caso de la altura del sonido. Hay una discusión técnica de cómo se puede llevar a cabo tal adaptación, discusión que no reproduciremos aquí, pero que el lector con suficiente entrenamiento en probabilidad puede seguir en las páginas 72 y 73 del libro de Temperley. Las probabilidades que aparecen en la figura 3 están calculadas con el modelo de ritmo y esa adaptación de la que hablamos. 4. Detección de errores Temperley aprovecha su modelo para estudiar otro fenómeno musical: la detección de errores. Se sabe por los experimentos llevados a cabo en la investigación que los oyentes pueden detectar errores en la música, incluso aunque se trate de música de tradiciones que les son desconocidas. Esto se debe a que en la escucha el cerebro detecta patrones con mucha eficiencia y, aunque el oyente no conozca el estilo, detecta dichos errores. Los errores en las notas se pueden clasificar en varias categorías: errores en la nota, donde el intérprete toca una nota por otra; errores en la afinación (cuartos de tono en las cuerdas o las notas en la octava aguda dadas por la sobrepresión en los vientos); errores que el oyente no percibe (porque su cerebro corrige la nota); errores detectados, entre otros. De nuevo, Temperley recurre al corpus de Essen [Sch95], que ya empleara para probar el modelo de alturas. Modifica aleatoriamente el ritmo y la altura de las notas y obtiene un nuevo corpus de 650 piezas, sumadas las piezas originales y las modificadas (esto es, las versiones con errores). A continuación obtiene las probabilidades de continuación para las melodías y compara las versiones originales con las versiones modificadas. Para la altura de sonido, en 573 de las 650 melodías el modelo asignó mayor probabilidad a la versión original que a la versión modificada. En el caso del ritmo, en 49 de 650 casos, el modelo no detectó como diferente la versión modificada. De los restantes casos, 601, el modelo asignó correctamente la probabilidad en 493 de los casos, que es un 82%. 5. Conclusiones Esperamos haber ilustrado fehacientemente las conexiones entre la probabilidad y la música. Esas conexiones son mucho más extensas y profundas que las mostradas en las cuatro entregas de esta serie, como se puede ver en los restantes capítulos del libro de Temperley (nosotros hemos glosado aquí solo los cinco primeros) y en sus referencias. Asimismo, esperamos haber convencido al lector escéptico, especialmente el músico, de las bondades de incluir la formación matemática en la música, en particular la de la probabilidad. Durante estos primeros seis meses de 2016 estoy pasando una estancia de investigación en la Universidad del Estado de Georgia, Atlanta. Estoy un curso cuyo título es Introducción a los modelos matemáticos y que está dirigido a alumnos que no son de matemáticas. En mi clase tengo a estudiantes de cine, enfermería, ciencias políticas, criminología, trabajo social... y música. Sí, música. Aquí hacen estudiar a los alumnos de ciencias humanidades y artes; y a los de humanidades y artes, ciencias. Y he decir que los alumnos de música están entre los mejores a la hora de razonar matemáticamente. No me imagino en ningún conservatorio de España poniendo en el plan de estudios asignaturas de matemáticas. Fuera de nuestras fronteras, lleva años haciéndose. Quizás sea esa la razón por la que apenas nadie destaca en este país en Musicología Sistemática y menos aún en Musicología Computacional.   Bibliografía [CL95] L. L. Cuddy and C. A. Lunney. Expectancies generated by melodic intervals: Perceptual judgments of melodic continuity. Perception and Psychophysics, 57:451–462, 1995. [Góm16a] P. Gómez. Música y Probabilidad (II). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16921&directory=67, diciembre de 2016. [Góm16b] P. Gómez. Música y Probabilidad (III). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16940&directory=67, diciembre de 2016. [Góm16c] P. Gómez. Música y Probabilidad (I). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16871&directory=67, noviembre de 2016. [Kru95] C. L. Krumhansl. Music psychology and music theory: Problems and prospects. Music Theory Spectrum, 17:53–80, 1995. [Lar04] S. Larson. Musical forces and melodic expectations: Comparing computer models and experimental results. Music Perception, 21:457–498, 2004. [LJ99] E. W. Large and M. R. Jones. The dynamics of attending: How people track time varying events. Psychological Review, 106:119–159, 1999. [Mey56] Leonard Meyer. Emotion and Meaning in Music. University of Chicago Press, Chicago, 1956. [Nar90] E. Narmour. The Analysis and Cognition of Basic Melodic Structures: The Implication-Realization Model. University of Chicago Press, Chicago, 1990. [Pov96] D.-J. Povel. Exploring the fundamental harmonic forces in the tonal system. Psychological Research, 58:274–283, 1996. [Sch89] M. Schmuckler. Expectation and music: Investigation of melodic and harmonic processes. Music Perception, 7:109–150, 1989. [Sch95] H. Schaffrath. The Essen Folksong Collection. Center for Computer-Assisted Research in the Humanities, Stanford, Calif., 1995. Editado por D. Huron. [Sch96] E. G. Schellenberg. Expectancy in melody: Tests of the implication–realization model. Cognition, 58:75–125, 1996. [TCP97] W. F. Thompson, L. L. Cuddy, and C. Plaus. Expectancies generated by melodic intervals: Evaluation of principles of melodic implication in a melody-completion task. Perception & Psychophysics, 59:1069–1076, 1997. [Tem10] D. Temperley. Music and Probability. MIT Press Ltd, 2010. [vHH00] P. von Hippel and D. Huron. Why do skips precede reversals? The effect of tessitura on melodic structure. Music Perception, 18:59–85, 2000.
Martes, 15 de Marzo de 2016 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
En la anterior entrega [Góm16] de la serie Música y probabilidad estudiamos los modelos computacionales del ritmo, en particular, los modelos probabilísticos. La presenta entrega de la serie versa sobre los modelos probabilísticos de la altura del sonido. De nuevo, seguiremos para nuestra exposición el excelente libro de Temperley Music and Probability. 1. El modelo de alturas Por modelo de alturas se puede entender muchos conceptos. La altura es la cualidad que permite distinguir un sonido grave de uno agudo y está directamente relacionada con la frecuencia del sonido en cuestión, pero hay otros muchos factores que influyen en su percepción final (los sonidos vecinos, el contexto tonal, el timbre, el volumen, entre otros). En nuestro caso, nos vamos a centrar en los modelos de percepción de la tonalidad. La música que vamos a analizar, la música occidental de la práctica común, está en el marco de la música tonal y los modelos de alturas están estrechamente relacionados con la percepción de la tonalidad. En cuanto a las voces, nos vamos a concentrar en una sola voz, esto es, en entradas monofónicas. El libro de Temperley empieza su estudio de los modelos de alturas con una revisión bastante exhaustiva de la bibliografía sobre percepción de alturas en el campo de la cognición musical. La mayor parte de los estudios que glosa Temperley usa un contexto tonal. Por ejemplo, una grupo de estudios se podrían clasificar bajo el epígrafe de estudios de notas de contraste (probe-tone studies, en inglés). En estos estudios se proporciona a los sujetos una melodía con una tonalidad bien establecida y luego se presenta una nota aparte y se pide a los sujetos que digan si esa nota pertenece a la tonalidad de la melodía; véase los estudios de Krumhansl [Kru90] o Brown y colaboradores [BBJ94]. Otros estudios investigaron el papel de la tonalidad en la percepción de la altura y de la melodía en contextos más generales. Se concluyó que la tonalidad establece jerarquía en las alturas (véase [PK87]), afecta a la memoria, influye en el reconocimiento de melodías (véase [CCM81]) y condiciona las expectativas musicales (véase [CL95]). Otros autores han investigado la cuestión de cómo los oyentes deducen la tonalidad, problema que se llama determinación de la tonalidad. Esta cuestión fue estudiada por Longuet-Higgins y Steedman [LHS71] en un artículo de 1971. Su modelo estaba diseñado únicamente para música monofónica y se basaba en la relación que hay entre tonalidad y escala. Esos autores explotan la idea de que la escala refleja la tonalidad y a partir de ello construyeron un algoritmo para determinar la tonalidad. Por ejemplo, la escala asociada a la tonalidad de sol mayor son y en una melodía en esa tonalidad deberíamos esperar que la mayor parte de las notas perteneciesen a ese conjunto. El algoritmo procesa una a una las notas de la melodía de principio a fin y para cada nota elimina las tonalidades que no tienen a esa nota en su escala. Si al final del proceso, solo queda una tonalidad, esa será la tonalidad elegida. Si por el contrario, no quedan tonalidades candidatas, entonces el algoritmo toma la primera nota y establece la tonalidad en que esa nota es la fundamental. Si esa decisión no es coherente, entonces el algoritmo elige como tonalidad aquella en que la primera nota es la dominante. Por ejemplo, si la primera nota fuese sol, hay siete posibles tonalidades que tienen la nota sol; se elige en primera opción la tonalidad de sol y si esta no funciona se toma do (para la que sol es la dominante). Longuett-Higgins y Steedman comprobaron la validez de su modelo con los temas de las fugas de El clave bien temperado de Bach. En todos los casos su algoritmo dio con la tonalidad correcta. Sin embargo, es fácil darse cuenta de que el modelo de estos autores no funciona en todos los casos. Cuando los centros tonales de la melodía se refuerzan mediante cromatismo, entonces el modelo puede asignar una tonalidad errónea. Por ejemplo, en la figura 1 tenemos dos melodías. La primera, la A, está claramente en la tonalidad de si♭ mayor; empero, el modelo, por falta de más información, tendría que decidir entre varias tonalidades, a saber, fa mayor, si♭ mayor, mi♭ y otras. Aplicando la regla de la primera nota, establecería que la tonalidad es fa mayor, lo que es incorrecto. En la segunda melodía, la B, se ve inmediatamente que está en do mayor, especialmente gracias a los compases dos y cuatro. No obstante, a causa de las notas cromáticas fa# y do#, las tonalidades que incluyen estas notas se considerarían candidatas, lo que no es lógico por la forma de esta melodía. Figura 1: El algoritmo de Longuett-Higgins y Steedman (figura tomada de [Tem10]) El trabajo de Krumhansl-Schmuckler (K-S de ahora en adelante), y el cual se resume magníficamente en el libro de Krumhansl Cognitive Foundations of Musical Pitch [Kru90], presenta un algoritmo más robusto y con base empírica. El algoritmo K-S se basa en los denominados perfiles de tonalidad, que miden la compatibilidad de cada altura con su tonalidad. Estos perfiles de tonalidad se obtuvieron a partir de cuidadosos experimentos con sujetos que llevaron a cabo los autores. Para cada tonalidad concreta se construyeron dos perfiles, uno para el modo mayor y otro para el modo menor (en total hay 24 perfiles de tonalidad). La figura 2 muestra dos ejemplos de perfiles; el primer perfil corresponde al modo mayor y el segundo, al modo menor. En el modo mayor se puede que en orden decreciente de compatibilidad tenemos la tónica, la dominante, la tercera, la subdominante y luego el resto de los grados. La situación es diferente para el modo menor, donde el tercer grado menor tiene más compatibilidad que la dominante. Figura 2: Perfiles de tonalidades (figura tomada de [Tem10]) La manera en que el algoritmo K-S funciona es por correlación. Dada una pieza cuya tonalidad se quiere determinar, se toman las duraciones de las doce notas de la escala cromática en la pieza (algunas, claro es, podrían ser cero). Llamémos x a ese vector de duraciones. Si y es el vector dado por los perfiles tonales, entonces el algoritmo K-S calcula el coeficiente de correlación r como sigue: donde y  son las medias de los vectores x e y, respectivamente. Se calculan todos los coeficientes de correlación para todas las tonalidades en ambos modos y se elige como tonalidad definitiva aquella que maximice el coeficiente de correlación. El lector avispado —es decir, cualquier lector de esta columna—ya se habrá dado cuenta de un inconveniente que tiene el modelo K-S. Si una nota se repite mucho, aunque no pertenezca a la tonalidad, proporcionará mucho peso en el coeficiente de correlación, pero no reflejará la verdadera tonalidad. Extensiones y críticas al modelo K-S han aparecido en la bibliografía. En general, es un modelo válido y está basado en principios musicales y apoyado por experimentos con sujetos. 2. El modelo de Temperley El modelo de Temperley es un modelo probabilístico que se basa en inferencia bayesiana. Sigue unos principios similares a su modelo rítmico, aunque es más complejo que en el caso del ritmo y lo describiremos sin entrar en el aparato matemático. Se especifica un modelo que depende de unos parámetros iniciales, los cuales se deducen a partir de un corpus musical. El corpus elegido es de nuevo la Essen Folksong Collection [Sch95]. La idea de Temperley para construir su modelo es refinar la idea de Krumhansl-Schmuckler de los perfiles de tonalidad. Temperley escoge tres perfiles para los cuales estudia su distribución en el corpus. Esos tres perfiles son: el perfil de alturas, el perfil de rango y el perfil de proximidad. El perfil de alturas de la colección Essen es el que aparece en la figura siguiente, donde las alturas se han representado por números enteros con C4=60. Figura 3: Distribución de las alturas en el corpus Essen (figura tomada de [Tem10]) Temperley estudia la media y la varianza del corpus entero así como de las melodías individuales. A pesar de los valles y picos que tiene la gráfica anterior, Temperley impone como modelo probabilístico una normal cuyos parámetros extrae del corpus (usa el método de los momentos, donde identifica los momentos muestrales con los momentos poblacionales). A continuación crea una segunda distribución que modeliza el rango de la melodía y para la que también usa una distribución normal. Por último, modeliza la distribución de los intervalos melódicos con una distribución normal, pero esta vez con una peculiaridad: la media de una nota particular depende de la nota anterior. Esto refleja el hecho conocido de que la probabilidad de que una nota siga a otra no es uniforme, sino que depende del contexto armónico-melódico. Con estos tres perfiles se crea un perfil global, llamado perfil RPK, que es el producto de los tres perfiles, el de alturas, el de rango y el de proximidad. En la figura siguente se muestran los parámetros del modelo de Temperley. Figura 4: Distribución de las alturas en el corpus Essen (figura tomada de [Tem10]) Tras configurar los valores iniciales del modelo, a continuación se calcula la probabilidad de una melodía en una tonalidad dada. Esto se hace para todas las tonalidades posibles. La tonalidad que maximiza la probabilidad es la que el algoritmo de Temperley devuelve como tonalidad de la melodía. Temperley probó su sistema con un subconjunto de melodías del corpus Essen que no usó para configurar su algoritmo. Acertó en el 87,7% de los casos. Analizando en particular los casos en que falló, Temperley vio que se trataba de casos claros de melodías modales (que estaban en otros modos que no eran el mayor y el menor). Para las melodías en modos mayor y menor no falló nunca. 3. Conclusiones Los fallos del modelo de Temperley no son excesivamente graves. Su modelo está diseñado para la detección de tonalidad en los modos mayor y menor y no en otros. Sin embargo, eso se puede enmendar sin más que crear perfiles de tonalidad para todos los demás modos. Esto, por supuesto, implica inicializar el modelo con corpus que contengan el resto de los modos.   Bibliografía [BBJ94] H. Brown, D. Butler, and M. R. Jones. Musical and temporal influences on key discovery. Music Perception, 11:371–407, 1994. [CCM81] L. L. Cuddy, A. J. Cohen, and D. J. K. Mewhort. Perception of structure in short melodic sequences. Journal of Experimental Psychology: Human Perception and Performance, 7:869–883, 1981. [CL95] L. L. Cuddy and C. A. Lunney. Expectancies generated by melodic intervals: Perceptual judgments of melodic continuity. Perception and Psychophysics, 57:451–462, 1995. [Góm16] P. Gómez. Música y Probabilidad (II). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16921&directory=67, diciembre de 2016. [Kru90] C. L.. Krumhansl. Cognitive Foundations of Musical Pitch. Oxford University Press, New York, 1990. Capítulo del libro Representing Musical Structure, P. Howell, R. West, and I. Cross (eds.). [LHS71] H. C. Longuet-Higgins and M. J. Steedman. On interpreting Bach. Machine Intelligence, 6:221–241, 1971. [PK87] C. Palmer and C. Krumhansl. Pitch and temporal contributions to musical phrase perception: Effects of harmony, performance timing, and familiarity. Perception and Psychophysics, 41:505–518, 1987. [Sch95] H. Schaffrath. The Essen Folksong Collection. Center for Computer-Assisted Research in the Humanities, Stanford, Calif., 1995. Editado por D. Huron. [Tem10] D. Temperley. Music and Probability. MIT Press Ltd, 2010.
Lunes, 04 de Enero de 2016 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. El modelo rítmico En esta segunda entrega de la serie Música y probabilidad vamos a examinar los modelos computacionales del ritmo y, en particular, el de Temperley [Tem10], que es un modelo probabilístico y computacional. Seguiremos la exposición que hace Temperley en su libro. En el artículo pasado [Góm16] discutimos la pertinencia del estudio de las matemáticas en la formación de los músicos y en concreto la probabilidad así como los problemas que hay en su enseñanza. Los artículos que siguen en esta serie tienen un cierto nivel matemático y es posible que a algunos lectores les cueste seguirlo, sobre todo a los de menos formación matemática. He intentado mantener el nivel de formalización lo más bajo posible sin comprometer la precisión con el fin de hacer el texto lo más divulgativo posible. Es un poco sorprendente, pero hasta lo que nuestro conocimiento alcanza no existen textos de probabilidad dirigidos exclusivamente a músicos. Es una laguna que habría que cubrir con cierta urgencia. La mejor opción para un músico que quisiese aprender probabilidad (y estadística) sería la de encontrar un buen profesor, con un método de aprendizaje activo, con sensibilidad hacia el perfil de estos alumnos, y con pasión por la materia. A falta de tan favorables circunstancias, una posibilidad alternativa es la de los cursos en línea como Statistics One [Con16] o Statistics: Making Sense Out of Data [GJ16]; estos cursos requieren esfuerzo continuado en el tiempo así como una voluntad de aprendizaje sólida. 2. Ritmo y métrica La escucha de una melodía no consiste en la mera detección de los patrones de duración. El cerebro interpreta el ritmo de la melodía extrayendo una gran cantidad de información previa y combinándola con la información recibida durante la propia escucha de la pieza. Así, impone a la interpretación del patrón rítmico de la melodía una estructura perceptual y cognitiva rica y compleja. Esta estructura incluye la familiaridad con el estilo, la enculturación del oyente, su estado de ánimo, su formación musical, entre otros factores. Como ejemplo de dicha complejidad, consideremos la figura 1, donde podemos ver en la parte de arriba un patrón rítmico, dado por sus ataques medidos en milisegundos. Debajo del patrón vemos hasta cinco interpretaciones diferentes en términos de métrica. La interpretación A asocia el patrón a un compás de 2/4, dando una negra con puntillo, una corchea y dos negras. Aquí los tiempos fuertes son el primero y el tercero. En la interpretación B tenemos un compás de 3/4. El patrón queda ahora incompleto, pues el último compás solo tiene una negra. Los tiempos fuertes ahora son el primero y el cuarto. Para la interpretación C tenemos un compás de 6/8, de subdivisión ternaria, donde de nuevo los tiempos fuertes son el primero y el cuarto. En la interpretación D la segunda nota es una nota de adorno de nuevo dentro de un compás de 2/4. Por último, en la interpretación E nos topamos con una visión del patrón que empieza con un silencio. Ahora solo hay un tiempo fuerte en la segunda nota (esta última interpretación está más bien forzada). De entre todas las interpretaciones ofrecidas aquí, parece que la más probable es la primera, aunque sin duda habrá lectores que discrepen de esta afirmación. Este ejemplo ilustra el problema de encontrar el contexto métrico más adecuado para enmarcar un patrón rítmico. Aquí el sentido la expresión “más adecuado” significa más musical, lo cual, una vez más, es relativo al estilo musical concreto (supondremos aquí que hablamos de la música tonal occidental). Figura 1: Un patrón rítmico con diversas interpretaciones (figura tomada de [Tem10]) La métrica se define como un patrón de acentos que se producen de manera regular y sobre los cuales se construyen los patrones rítmicos. Los tiempos acentuados se llaman fuertes y los no acentuados, débiles. En esta definición se supone que hay pulso asíncrono encima del cual se define la métrica. La figura 2 muestra la estructura métrica de algunos de los compases más frecuentes en la música tonal occidental. El patrón de acentos se reproduce a distintos niveles, donde el más bajo suele ser el del pulso. Los tiempos que tienen más puntos encima son los tiempos que tienen más prominencia métrica. En la figura se ve que esos tiempos coinciden con el primer tiempo de cada compás. Figura 2: Métricas para compases frecuentes (figura tomada de [Tem10]) En su libro, Temperley argumenta la importancia de la estructura métrica. Para ello, cita varios artículos de autores ilustres, como el artículo clásico de Gabrielsson [Gab73], donde que melodías con estructuras métricas similares se tienden a juzgar como más similares; o los trabajos más recientes de Sloboda [Slo85] y Povel y Essens [PE85] donde prueban que la ambigüedad métrica influye en la complejidad rítmica. Temperley alude a trabajos que han tratado otros aspectos de la métrica, como el papel de esta en la percepción de otras variables musicales (como la armonía y la estructura de la frase), su función en la interpretación o cómo configura la expectativa musical (véanse las referencias de la página 26 de citetemper-10). Hay, sin embargo, un autor que humildemente consideramos que Temperley ha pasado por alto y es Stephen Handel. En su artículo The interplay between metric and figural rhythmic organization [Han98] de 1998 prueba que la agrupación (en inglés, figural organization) es mucho más preponderante que la estructura rítmica. Lo hace a partir de una serie de experimentos muy exhaustivos y bien diseñados donde confronta patrones de agrupación contra patrones métricos. No obstante, el trabajo de Temperley consiste en diseñar modelos computaciones para la métrica y no para la agrupación. Pero dado el trabajo de Handel, parece una buena idea construir modelos computacionales para la agrupación. 3. Modelos de percepción rítmica La modelización de la percepción rítmica ha sido un problema de investigación que ha atraído a muchos investigadores de diversas áreas desde hace varias décadas. El propio Temperley, en una obra anterior, The cognition of basic musical structures [Tem01], hace una revisión bastante exhaustiva de esos modelos. Hay varios criterios para clasificar los modelos de percepción rítmica. Uno muy general es el tipo de entrada, que puede ser simbólica, cuando la entrada es una partitura o un fichero tipo midi, o de audio, cuando la entrada es un fichero de audio. Atendiendo a la estrategia de modelización, tenemos los siguientes modelos: Métodos basados en reglas: El patrón rítmico se analiza en orden cronológico y se construye los niveles métricos basados en reglas explícitas de carácter deductivo; véase [Lee91]. Métodos conexionistas: El patron rítmico es representado en una red neuronal de la cual se infiere la estructura métrica; véase [DH99]. Métodos basados en reglas de preferencia: En base al análisis de muchos patrones rítmicos se construyen reglas que determinan la estructura métrica preferida por el oyente en un patrón rítmico dado; véase [Tem01]. Métodos probabilísticos: Son métodos basados principalmente en la inferencia bayesiana; para más información, véase [CKH00] Como el libro de Temperley se centra en esta última categoría, vamos a profundizar un poco más en ellos. Típicamente, en un método probabilístico, se consideran una interpretación de un patrón rítmico Int y una representación de ese patrón o partitura Par (normalmente dada duraciones en milisegundos). El objetivo es determinar la partitura Par que maximiza la probabilidad P(Par|Int) Esta probabilidad representa la fidelidad de la partitura respecto a la interpretación. En la figura 3 tenemos un ritmo (en la primera línea) y dos posibles interpretaciones, dadas por los histogramas debajo del ritmo. Es claro que la primera interpretación es mucho más probable que la segunda. Figura 3: Un patrón rítmico y dos posibles interpretaciones (figura tomada de [Tem10]) Se puede probar usando argumentos de probabilidad bayesiana que maximizar P(Par|Int) es equivalente a maximizar P(Int|Par) ⋅ P(Par). 4. El modelo probabilístico de Temperley 4.1. El proceso generativo Temperley, tras examinar un par de modelos probabilísticos y mostrar sus limitaciones, propone el suyo, que también está basado en el teorema de Bayes. El objetivo de su modelo es inferir la estructura métrica a partir de un patrón rítmico. Si PR designa un patrón rítmico y M una estructura métrica, la ecuación que relaciona a ambas es P (M|PR) = P(PR|M)⋅P(M) La estructura métrica M que maximiza la expresión anterior será la más probable para el patrón rítmico dado. El autor usa un modelo generativo de ritmo para calcular las probabilidades de la ecuación anterior. El modelo generativo no es un modelo del proceso creativo sino que intenta capturar el proceso de escucha y decodificación de la información rítmica por parte del oyente. Véase [Góm14] para más información sobre modelos generativos en música. El modelo generativo está basado en una estructura métrica de tres niveles. El primer nivel es una malla de pulsos regulares. El segundo nivel es el tactus, también llamado pulso percibido y el tercero es un nivel más abstracto, que cabalga sobre los otros dos, y que representa el compás. Las notas tienen que ocurrir sobre la malla de puntos regulares del primer nivel. El modelo se concibe como un grafo cuyos nodos contienen información y flechas que muestran las relaciones entre los nodos. La información de los nodos se puede concebir como variables aleatorias con ciertas distribuciones de probabilidad. Las variables implicadas en el modelo son las siguientes (dejamos los nombres originales de las variables del libro): UT: Define si el compás es de subdivisión binaria o ternaria. UPh: Controla la fase del nivel 3 con relación al nivel 2, esto es, qué posición ocupa la primera nota del nivel 3 en el nivel 2. L: Detecta si el nivel 2 es de subdivisión binaria o ternaria con respecto al nivel 1. A partir de estas variables el nivel del tactus se puede generar ya. La generación del nivel de tactus es independiente de la determinación del compás. Se empieza con una primera nota del tactus en el tiempo cero y la variable T1 marca la duración de esta primera nota. En general, Tn será la n-ésima duración del tactus y es una variable distribución de probabilidad que se apoya en la duración de la variable Tn-1. Acompañando a están las variables An, que dictan si en cada paso hay que generar otra nota de tactus o el proceso se finaliza. La combinación de los pasos anteriores de la generación del tactus da automáticamente las notas del tactus, la fase y el periodo en el siguiente nivel. Pero aun falta la generación de las notas de nivel 2. Toda nota de nivel 2 lo es de nivel 1, pero hay otras notas entre medias que están en el primero y no en el segundo nivel. En función de si el compás es de subdivisión binaria o ternaria así se rellenarán. La variable DBn representan la posición de estas notas intermedias cuando la subdivisión es binaria y TB1n y TB2n cuando la subdivisión es ternaria. Poniendo en combinación todo lo anterior se generan las notas del patrón rítmico; la variable Np indica si hay una nota en la posición p. La figura 4 muestra un esquema de todo el proceso. Figura 4: El proceso generativo del modelo probabilístico de Temperley (figura tomada de [Tem10]) El modelo funciona a partir de unos parámetros probabilísticos. ¿Cómo se eligen los valores de esos parámetros? La manera en que Temperley lo soluciona es recurriendo a un corpus musical suficientemente extenso, el cual analiza y extrae las probabilidades para inicializar su modelo. Lo ideal sería que esos parámetros reflejasen las decisiones de los oyentes en la decodificación de los patrones rítmicos. A falta de tales parámetros, Temperley escogió el corpus Essen Folksong Collection [Sch95]. Con este corpus, por ejemplo, se puede asignar una probabilidad al suceso de que una canción tenga un compás de subdivisión binaria o ternaria. No habría más que calcular su frecuencia relativa en el corpus. Otros parámetros no tienen tan obvia y directa traslación en el corpus. Por ejemplo, la distribución de Tn tiene la siguiente definición: donde Tn se mide en unidades enteras de 50 milisegundos. Esta definición refleja el hecho conocido en psicología de la música que el tactus suele rondar los 700 milisegundos y que suele ser regular a lo largo de la pieza. No vamos a entrar en una explicación detallada de todos los parámetros del modelo y su inicialización porque sería excesivamente prolijo. Las tablas siguientes muestran los valores ya inicializados: Figura 5: Los parámetros del modelo de Temperley (I) (figura tomada de [Tem10]) Figura 6: Los parámetros del modelo de Temperley (II) (figura tomada de [Tem10]) 4.2. El proceso de búsqueda de la métrica Como dijimos más arriba, el objetivo es maximizar P(M|PR), que es a su vez equivalente a maximizar P(PR|M) ⋅P(M). Aplicando el modelo construido tenemos que la forma final de la ecuación a maximizar es P(M|PR) = P(PR|M) ⋅ P(M) = P(UT) ⋅ P(LT) ⋅ P(UPh) ⋅ P(T1) ⋅∏n=2tP(An)⋅ ∏n=2t-1P(Tn|Tn-1) ⋅∏n=1tP(DBn) ⋅∏p=1qP(Np) donde t es el número de tactus en la pieza y q es su número de notas. Para alcanzar el máximo es necesario considerar todas las posibles estructuras métricas. Ello no es ni computacionalmente tratable ni psicológicamente razonable. Muchas de las estructuras métricas no tendrían sentido musical ni cognitivo y añadirían coste computacional de modo innecesario. Gracias a ciertas suposiciones que se pueden realizar sobre las distribuciones de probabilidad del modelo, se puede bajar la complejidad a cotas razonables. Cómo se hace esto se escapa del propósito de este artículo de divulgación. El lector interesado puede consultar las páginas 36 a 40 del libro de Temperley. 4.3. Prueba del modelo Tras la construcción del modelo, Temperley hace pruebas para determinar la bondad del mismo. Introduce las piezas en el sistema y examina el porcentaje de análisis correctos, es decir, de estructuras métricas correctas asociadas a cada pieza del corpus de Essens. Como comparación adicional usa otro sistema, Melisma, que persigue los mismos objetivos que su modelo. El porcentaje de análisis correctos para el sistema de Temperley es del 79.3% y del del 86.5% para Melisma. En la figura 7 vemos dos análisis; el primero corresponde al correcto y el segundo al proporcionado por el sistema. Vemos que el sistema ha asignado incorrectamente el compás confundiendo un 6/8 con un 3/4. Figura 7: Determinación de la estructura métrica con el sistema de Temperley (figura tomada de [Tem10]) 5. Conclusiones Al final del capítulo 3, Temperley analiza las limitaciones de su sistema y las posibilidades de mejora. Su sistema no tiene en cuenta otros parámetros que contribuyen a la percepción rítmica, tales como la armonía, el acento o la estructura melódica. El modelo de Temperley es generalizable a música polifónica, aunque es claro que la complejidad conceptual y computacional aumentará. También argumenta Temperley que su modelo es extrapolable a otras tradiciones musicales porque en la construcción del mismo no se ha basado fuertemente en los principios musicales de la tradición occidental. Esto necesita más argumentación porque la estructura métrica que se estudia aquí es la de la tradición occidental y nosotros en particular cómo se podría aplicar a tradiciones donde el ritmo es aditivo o carecen de métrica, por poner dos ejemplos extremos.   Bibliografía [CKH00] A. T. B. Cemgil, P. Desain Kappen, and H. Honing. On tempo tracking: Tempogram representation and Kalman filtering. Journal of New Music Research, 29:259–273, 2000. [Con16] Andrew Conway. Statistics 101. https://es.coursera.org/course/stats1, consultado en noviembre de 2016. Universidad de Princeton. [DH99] P. Desain and H. Honing. Computational models of beat induction: The rule-based approach. Journal of New Music Research, 28:29–42, 1999. [Gab73] A. Gabrielsson. Studies in rhythm. Acta Universitatis Upsaliensis, 7:3–19, 1973. [GJ16] Alison Gibbs and Rosenthal Jeffrey. Statistics: Making Sense Out of Data. https://es.coursera.org/course/introstats, consultado en noviembre de 2016. Universidad de Toronto. [Góm14] P. Gómez. Teoría generativa de la música - I. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16037&directory=67, junio de 2014. [Góm16] P. Gómez. Música y Probabilidad (I). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16871&directory=67, noviembre de 2016. [Han98] Stephen Handel. The interplay between metric and figural rhythmic organization. Journal of Experimental Psychology: Human Perception and Performance, 24(5):1546–1561, 1998. Documento accesible en http://dx.doi.org/10.1037/0096-1523.24.5.1546. [Lee91] C. Lee. The perception of metrical structure: Experimental evidence and a model. Academic Press., Londres, 1991. Capítulo del libro Representing Musical Structure, P. Howell, R. West, and I. Cross (eds.). [PE85] D.-J. Povel and P. Essens. Perception of temporal patterns. Music Perception, 2:411–440, 1985. [Sch95] H. Schaffrath. The Essen Folksong Collection. Center for Computer-Assisted Research in the Humanities, Stanford, Calif., 1995. Editado por D. Huron. [Slo85] J. A. Sloboda. The Musical Mind. Oxford: Clarendon Press, 1985. [Tem01] D. Temperley. The Cognition of Basic Musical Structures. MIT Press, Cambridge, Mass., 2001. [Tem10] D. Temperley. Music and Probability. MIT Press Ltd, 2010.
Miércoles, 09 de Diciembre de 2015 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. ¿Por qué estudiar Probabilidad en Música? El ser humano ha convivido desde siempre con la incertidumbre. Estamos tan acostumbrados a aceptar hechos que conocemos de manera fragmentaria, a razonar a partir de premisas incompletas, a tomar decisiones basadas en creencias subjetivas, que la presencia de la incertidumbre nos resulta natural. Si salimos a la calle, lo más probable es que, antes de decidir qué ropa ponernos, consideremos las posibilidades de lluvia, quizás sólo observando el trozo de cielo que nos deja ver la ventana, quizás recordando la estación del año y el tiempo que hizo en los últimos días. En todo caso, lo único que hemos hecho es decidir en base a un razonamiento aproximado y cargado de incertidumbre. La causa de esa presencia ubicua de la incertidumbre es la extraordinaria complejidad de la realidad, la multitud de causas que se esconden detrás de hechos simples y que nos resulta difícil de comprender. Sin embargo, sobrevivimos en medio de esa sopa de incertidumbre que nos rodea: tomamos decisiones, creamos modelos para explicar la realidad, nos esforzamos por comprender esa aleatoriedad, por tratarla y sacar provecho de ella, razonamos en su presencia e incluso acumulamos conocimiento a su pesar. Hay muchos fenómenos físicos gobernados por la incertidumbre, como por ejemplo los fenómenos microscópicos. Pensemos en el comportamiento de los gases, formados por muchísimas partículas cuyo comportamiento se describe teniendo en cuenta las interacciones aleatorias entre ellas. A pesar de esto, hay una teoría de los gases que predice con bastante exactitud el comportamiento macroscópico, lo cual no deja de sorprendernos. Sin duda, donde reina la incertidumbre por sus fueros es en la Mecánica Cuántica, entronizada por el principio de Heisenberg enunciado en el año 1927. Este principio afirma que cuanto más precisa es la medida de la posición de un electrón, más imprecisa es la medida de su velocidad, de modo que no es posible conocer ambos con precisión absoluta. ¿Hay una afirmación más rotunda de la incertidumbre? Las consecuencias de este principio son profundísimas y alcanzan a la ciencia y la técnica de nuestros días, pues termina con una manera determinista de concebir el conocimiento. No sólo en los fenómenos cuánticos aparece la incertidumbre; quizás en este campo es más patente a causa del principio de incertidumbre, pero a medida que el progreso científico exigió un conocimiento en profundidad de los fenómenos, con más capacidad de predicción, la incertidumbre empieza a aparecer de modo natural. Antes del desarrollo de la probabilidad y la estadística los análisis de los problemas eran deterministas, y sus conclusiones, limitadas. La incertidumbre, entre otros muchos campos, aparece en: Economía y Ciencias Sociales: comportamiento de mercados, índices bursátiles, tendencias sociales, resultados de elecciones, etc. Ingeniería: procesos de fabricación, control de calidad, planificación de tareas, mediciones de características, etc. Informática y Computación: tráfico en redes de comunicaciones, tiempo de ejecución de programas, accesos a páginas web, comportamiento de estructuras de datos, gestión de recursos, etc. Esa incertidumbre es consecuencia de que los fenómenos que estudiamos vienen dados por un alto número de causas, muchas de ellas de pequeño efecto, interdependientes de un modo desconocido, y de comportamiento difícil de explicar o modelizar. De esto se sigue la necesidad de incorporar la incertidumbre al razonamiento, a la deducción, en suma, al método científico. Si pretendemos tener modelos que expliquen la realidad, entonces no podemos ignorar ese aspecto. La Teoría de la Probabilidad es la rama de las Matemáticas que materializa tal incorporación. Podríamos decir que la probabilidad es la lógica de la incertidumbre. Feller (1906 - 1970), uno de los grandes probabilistas del siglo XX, resaltaba de la probabilidad tres características, que a su juicio, le proporcionan su utilidad y belleza [Fel63]: Intuición. La probabilidad es intuitiva porque la usamos en el razonamiento cotidiano. Nos sirve para cuantificar el conocimiento subjetivo que tenemos de un hecho y tomar decisiones. Formalismo lógico. La probabilidad es de suma importancia para el método científico. A partir de Kolmogorov, que introduce la definición axiomática de probabilidad, esta se une con la lógica, esto es, con las leyes del pensamiento. Esto permitió que la probabilidad, ahora con el soporte de la lógica, se desarrollase como una rama del conocimiento plenamente independiente. Esta unión de la lógica y la intuición parece que es lo que desconcierta al estudiante en un primer momento. Aplicaciones. Son muchas y en los ámbitos más diversos. Nombrar todas sus aplicaciones sería largo, pero, dado que este material está dirigido a alumnos de estudios musicales, merece la pena nombrar algunas de las más relevantes. Sin embargo, dejamos al alumno que las busque él por su cuenta. Esta introducción que está en cursiva corresponde a la introducción de mis notas de estadística que doy a mis alumnos de informática. Sin embargo, cambié el título y algo tramposamente en su lugar puse ¿Por qué estudiar Probabilidad en Música? ¿No es esta introducción igualmente válida si se tratase de alumnos del conservatorio? Pensamos que sí, que lo sería, que las diferencias serían pocas. Esta introducción es general y sirve para cualquier disciplina. Sin embargo, como no nos hemos cansado de señalar, los estudios científicos —ya ni siquiera las matemáticas— están casi ausentes por completo en los planes de estudio de los conservatorios españoles (la excepción es la asignatura de acústica, por supuesto). Pero ¿por qué debería estudiar un músico una materia como probabilidad? Daría dos razones rápidas en este momento, a falta de más desarrollo. La primera es porque le enseña a pensar de un modo que es fundamental en cualquier persona que tenga una educación superior (de secundaria en adelante, digamos). La segunda razón es que en especialidades como musicología y composición estos conocimientos son importantes, sobre todo a la luz del desarrollo moderno de ambos campos (musicología sistemática y computacional y música de los siglos XX y XXI). Mis notas siguen con una definición de la disciplina de Informática dada por la ACM, la prestigiosa asociación de informática estadounidense; dicha definición está contenida en un informe periódico sobre el estado de la informática, el informe The Joint Task Force for Computing Curricula; véase [Cur05]. Reproduzco aquí, por completitud, la definición que establecen los autores de dicho informe (nuestra traducción): De modo general, podemos dar el significado de computación a toda actividad que específicamente requiera ordenadores, se beneficie de ellos o los cree. Así pues, la computación incluye: el diseño de sistemas hardware y software para un amplio rango de objetivos; procesamiento, estructuración y gestión de varios tipos de información; la realización de estudios científicos; hacer que los ordenadores se comporten inteligentemente; crear y usar comunicaciones y entretenimiento multimedia; buscar y recopilar información relevante para cualquier objetivo particular, entre otros. La lista es virtualmente interminable y las posibilidades son infinitas. Computación tiene otros significados que son más específicos, basados en el contexto en que se usa el término. Por ejemplo, un especialista en sistemas de información verá el término computación de modo diferente al de un ingeniero de software. Con independencia del contexto, hacer computación de calidad puede ser complicada difícil y complicado. Porque la sociedad necesita gente que haga computación de calidad, concebimos la computación no solamente como una profesión sino como una disciplina científica. Trasladando lo anterior a nuestro objeto de interés, la música, nos preguntamos ¿qué es la música? ¿De qué definición de música disponemos? Quizás estamos profundamente equivocados y la definición de música no deja resquicio alguno para la necesidad del estudio de las matemáticas en la música y aun menos de la probabilidad. Una definición de la música es una empresa mucho más arriesgada que la definición de la actividad informática. En torno a la definición de la música no hay consenso en absoluto, tal es su complejidad fenomenológica, cultural, social, semiótica, funcional, cognitiva y perceptual. Como ejemplo de la disparidad de definiciones de música que podemos encontrar, aquí está la de Xenakis, tomada de su libro Formalized music [Xen01] (la dejamos en inglés por ser lo suficientemente clara y por respeto al original): It[Music] is a sort of comportment necessary for whoever thinks it and makes it. It is an individual pleroma, a realization. It is a fixing in sound of imagined virtualities (cosmological, philosophical,…, arguments) It is normative, that is, unconsciously it is a model for being or for doing by sympathetic drive. It is catalytic: its mere presence permits internal psychic or mental transformations in the same way as the crystal ball of the hypnotist. It is the gratuitous play of a child. It is a mystical (but atheistic) asceticism. Consequently, expressions of sadness, joy, love and dramatic situations are only very limited particular instances. Es una definición que combina elementos poéticos (gratuitous play of a child) con elementos cognitivos (mental transformations) y con elementos espirituales (asceticism). En una aparente paradoja, parece que esta definición deja poca oportunidad al estudio de la probabilidad en la música. Sin embargo, ¡Xenakis compuso música con métodos probabilísticos! (véanse los artículos de esta columna de finales de 2010 [Góm10c, Góm10b, Góm10a] para análisis de la música de Xenakis, en particular de la música que usa probabilidad). Otra definición de música muy citada por su versatilidad es la que dio Edgard Varèse: música es sonido organizado. Varèse hacía referencia a su propia estética musical como compositor modernista que era, pero a la vez resume elegantemente múltiples aspectos de la definición de música. ¿Quién organiza la música o decide qué organizaciones del sonido son válidas? La cultura y la sociedad. Pero eso, aunque no está en su definición, aparece sutilmente implícito. Otras escuelas de pensamiento hablan de la música como constructo social y afirman que la música es un acto totalmente social. Su definición y tratamiento dependen esencialmente de su consideración como fenómeno social. Otros autores consideran la música como un lenguaje enmarcado dentro de un contexto cultural y llegan a estudiar la música como un fenómeno semiótico. Aun otros autores ligan la definición de música a la capacidad del sonido de producir emociones en el oyente (la visión psicológica). En el libro Psychological Foundations of Musical Behavior [RB06], Radocy y Boyle llevan a cabo un análisis exhaustivo de varios aspectos fundamentales de la música. Empiezan con la biomusicología, en particular, con la musicología evolutiva, que intenta explicar los orígenes evolutivos de la música, y con la neuromusicología, que se ocupa del estudio de los procesos neuronales y cognitivos que subyacen en la actividad musical. La música es un universal humano, pues todas las sociedades humanas conocidas tienen música vocal y prácticamente todas tienen alguna forma instrumental. Continúan con la perspectiva antropológica de la música. Porque la música es creada por el ser humano, aquella ha de servir a un fin y entonces hablamos de las funciones de la música (hay muchas: desde el entretenimiento hasta el ritual religioso). Estos autores prosiguen examinando la interesante perspectiva de la música como canalizador de la actividad motora, en especial su relación con el baile, y de ahí a la música como refuerzo de la conformidad con las normas sociales o como elemento integrador en el contexto social. Sin embargo, sea cual sea la definición de música que intentemos establecer, hay un aspecto innegable en la música: se trata de un fenómeno. Nos puede interesar sus efectos emocionales en nosotros, o su raíces sociales y culturales, o sus aspectos organizativos, pero siempre permanecerá el hecho de que se puede estudiar como fenómeno. En este sentido, es lícito y necesario usar métodos científicos para su estudio. Obviamente, no abogamos aquí porque el estudio de la música se haga exclusivamente con esos métodos. Si la música es tal fenómeno multidimensional y complejo, los métodos de su estudio tendrán que tener esos atributos, y entre ellos se contará el método científico. Cualquier fenómeno lo suficientemente complejo—y la música ciertamente lo es — necesitará el razonamiento y el análisis en presencia de la incertidumbre del que hablaba en la introducción más arriba. En los siguientes cuatro artículos de esta columna estudiaremos varios ejemplos de análisis musical por vía de la probabilidad. En 2010 David Temperley publicó un excelente libro [Tem10], Music and Probability, cuyo título no puede ser más elocuente; véase la portada del libro en la figura abajo. Aprovecharemos este recorrido por la música de la mano de la probabilidad para analizar el libro. Figura 1: Music and probability, de David Temperley Ciertamente, el libro de Temperley no se podría considerar como un texto posible para un curso de probabilidad para músicos (o al menos para musicólogos), especialmente el capítulo 2. Cubre demasiado rápido y de una manera algo superficial el material básico de probabilidad (apenas siete páginas). Por el contrario, tiene el mérito de que sus ejemplos y explicaciones intuitivas son muy efectivos y originales. En verdad, la verdadera valía del libro reside en las aplicaciones que presenta. Para que el lector se haga una idea precisa de su contenido, en la figura 2 de abajo se encuentra el índice de contenidos. Figura 2: Índice de contenidos de Music and probability ¿Cuál sería, pues, una buena introducción a la probabilidad para músicos? Eso, claro es, depende del nivel previo de conocimiento que traigan esos músicos. Para fijar ideas, pensaremos en un alumno medio que estudia música con intención de llegar a ser profesional y que hizo el bachillerato, uno de letras (como mucho el de ciencias sociales). Con frecuencia, la última vez que estudió matemáticas fue en 4o de la ESO. El programa de este curso, de 4o de la ESO, tomado de [BOC15] (páginas 104–105), consiste en lo siguiente: Contenidos de matemáticas de 4o de la ESO: Aritmética: números reales y radicales. Álgebra: polinomios, fracciones algebraicas, ecuaciones y sistemas no lineales. Geometría y trigonometría: razones trigonométricas, triángulos rectángulos, distancias, vectores en el plano, ecuaciones de la recta en el plano. Funciones: conceptos básicos, representación gráfica de parábolas e hipérbolas, representación de raíces, exponenciales y funciones definidas a trozos. Estadística, combinatoria y probabilidad: estudio de una variable estadística, distribuciones bidimensionales, recta de regresión, combinatoria y técnicas de recuento, conceptos básicos de probabilidad. Como se puede apreciar, los contenidos son los habituales, nada fuera de lo esperado. Este es, sin embargo, el problema. Son los contenidos habituales. Esto significa, en el contexto de España, enseñanza tradicional, donde el alumno es un sujeto pasivo, donde hay más énfasis en la enseñanza del profesor que en el aprendizaje del alumno, donde el profesor ejerce una autoridad que no favorece el aprendizaje, donde el conocimiento se le da al alumno construido externamente y donde los contenidos se centran en los aspectos calculísticos y operativos en lugar de en las ideas y los conceptos, que es la verdadera riqueza y goce de las matemáticas. Para una crítica certera y feroz de la enseñanza actual de las matemáticas, urgimos encarecidamente al lector que lea el legendario artículo El lamento de un matemático de Paul Lockhart [Loc08]. Y por más paradójico que pueda sonar, el propio BOCM propone, a continuación de los contenidos, objetivos de aprendizaje de tipo conceptual e incluso emocional (“Confianza en las propias capacidades”). He aquí esa paradójica lista de objetivos de aprendizaje: Procesos, métodos y actitudes en matemáticas: 1. Resolución de problemas. Planificación del proceso de resolución de problemas. Estrategias y procedimientos puestos en práctica: uso del lenguaje apropiado: (gráfico, numérico, algebraico, etc.), reformulación del problema, resolver subproblemas, recuento exhaustivo, empezar por casos particulares sencillos, buscar regularidades y leyes, etc. Reflexión sobre los resultados: revisión de las operaciones utilizadas, asignación de unidades a los resultados, comprobación e interpretación de las soluciones en el contexto de la situación, búsqueda de otras formas de resolución, etc. 2. Investigaciones matemáticas. Planteamiento de investigaciones matemáticas escolares en contextos numéricos, geométricos, funcionales, estadísticos y probabilísticos. Práctica de los procesos de matematización y modelización, en contextos de la realidad y en contextos matemáticos. Confianza en las propias capacidades para desarrollar actitudes adecuadas y afrontar las dificultades propias del trabajo científico. 3. Utilización de medios tecnológicos en el proceso de aprendizaje para: (a) la recogida ordenada y la organización de datos. (b) la elaboración y creación de representaciones gráficas de datos numéricos, funcionales o estadísticos. (c) facilitar la comprensión de propiedades geométricas o funcionales y la realización de cálculos de tipo numérico, algebraico o estadístico. (d) el diseño de simulaciones y la elaboración de predicciones sobre situaciones matemáticas diversas. (e) la elaboración de informes y documentos sobre los procesos llevados a cabo y los resultados y conclusiones obtenidos. (f) comunicar y compartir, en entornos apropiados, la información y las ideas matemáticas. Las razones por las que calificamos esta lista de paradójica son que, en la realidad —en la triste realidad diríamos— esto no se enseña o se mal enseña. Por un lado, los profesores persisten en la enseñanza tradicional de las matemáticas, a pesar de su fracaso evidente. Por otro lado, los alumnos adoptan una actitud de vómito (memorizar la materia, sin comprenderla, con frecuencia el día anterior, y vomitarla el día del examen para después olvidarlo todo y así fomentar la ignorancia). A esto se añade el mal funcionamiento del sistema educativo (¿existe la inspección educativa en este país?), que permite lo anterior, junto una confusión pedagógica notable (¿quién enseña pedagogía a los profesores de instituto y universidad?, ¿cómo es posible que no conozcan nada sobre la psicología de los alumnos, su primordial material de trabajo?, ¿cómo es posible que algunos presuman de esta ignorancia y otros muchos nunca se decidan a cubrir esa laguna?). Si de verdad queremos enseñar probabilidad a los músicos, debe ser desde el aprendizaje auténtico y significativo y no desde la enseñanza tradicional. En realidad, el capítulo 2 del libro de Temperley abunda en esa enseñanza tradicional. Se apresura por cubrir los rudimentos porque quiere llegar a las fascinantes y emocionantes aplicaciones. Pero este enfoque es un error porque los lectores se rendirán mucho antes si no entienden el capítulos de los fundamentos de la probabilidad. 2. Aprendizaje de la Probabilidad para músicos En esta sección vamos a explicar brevemente cómo enfocaríamos la enseñanza de la probabilidad a músicos. La probabilidad, como dijimos antes, es razonamiento en presencia de la incertidumbre y se rinda a la evidencia de que los modos deterministas de razonamiento no funcionan en muchos contextos. Por tanto, la única manera de que alguien, músico o no, aprenda probabilidad es que se enfrente a problemas de probabilidad. De modo que empezaríamos proponiendo algunos problemas, por ejemplo, el clásico problema de Monty Hall. Helo aquí. Problema 2.1 El nombre de la paradoja viene por el nombre del presentador del concurso Let’s make a deal. En el concurso se presenta al concursante tres puertas; detrás de una ellas hay un coche y detrás de cada una de las otras dos una cabra. El concursante elige una puerta y entonces Monty Hall, el presentador, abre otra puerta que siempre corresponde a la de una cabra. En este momento el presentador ofrece al concursante la posibilidad de cambiar su elección. ¿Debe el concursante mantener su elección original o escoger la otra puerta? ¿Supone alguna diferencia? Este problema lo resolverían los alumnos en clase, no importa cuánto tarden, no importa cuántos errores cometan, no importan cuánto se resistan a razonar (muchos traerán baja autoestima matemática). Con este problema evaluaría su capacidad de argumentación, su rigor intelectual, su lenguaje, la precisión de su vocabulario, su autoestima matemática, su empatía, entre otras variables de importancia para el aprendizaje individual y colectivo. Tras unas pocas sesiones de problemas de probabilidad, entraríamos en un mínimo de formalización y de terminología. En las discusiones habría aparecido la necesidad de dicha terminología y formalización. Habríamos de dar los conceptos de experimento aleatorio, espacio muestral, espacio de sucesos, sucesos elementales y compuestos, sucesos incompatibles. Dado que nuestros alumnos tendrían muy lejos los conjuntos, se haría necesario un repaso de este material, siempre en forma de problemas y discusiones, y dejando que ellos mismos se expliquen la materia entre sí. De ahí entraríamos a la definición de espacio de probabilidad, que sería la definición axiomática de Kolmogorov. Esta definición, si se presenta adecuadamente, la puede comprender un alumno de primero de grado superior, por ejemplo. Tras esta definición vendrían la prueba de propiedades y, de nuevo, la resolución de problemas. Como ejemplo de propiedades, podríamos poner las siguientes: Teorema 2.2 Sea (E,℘,P) un espacio de probabilidad. (a) Si A,B son dos sucesos cualesquiera y A ⊆ B, entonces P(A) ≤ P(B). (b) La probabilidad es un número entre 0 y 1. (c) Para todo A ∈ ℘, se tiene que P(A) = 1 - P(A). (d) Si A,B son dos sucesos cualesquiera, entonces P(A ∪ B ) = P (A) + P(B )- P (A ∩ B ) Tras este primer bloque de contacto con la probabilidad, entraríamos en la probabilidad condicionada. Con mis alumnos de informática, suelo emplear cerca de una hora en discutir cuál es el concepto que está detrás de la probabilidad condicionada y por qué llegamos a la fórmula Profundizando en este contexto, aprenderían el teorema de la probabilidad total y el concepto de independencia. Este aprendizaje tiene que venir reforzado por problemas y discusiones. No aprenderán todo este aparato conceptual sin el crecimiento intelectual que supone resolver problemas y explicarle la solución a sus compañeros. Y, por fin, iríamos al grandioso teorema de Bayes. Aquí es muy importante que entiendan este teorema en el contexto epistemológico, esto es, como mejora de los modelos de conocimiento. Los problemas deben elegirse cuidadosamente. En particular, y esto vale para todo lo anterior, los problemas que se propongan a los alumnos deben suponerles dificultades de lectura comprensiva y deben ser problemas que contengan una fuerte carga de interpretación (no deben ser problemas de respuesta cerrada). En [Góm15b, Góm15c] se pueden encontrar las notas de probabilidad en la asignatura que damos para ingenieros informáticos. Sobre mis métodos de aprendizaje, que son una combinación del método Moore (aprendizaje por indagación) y del aprendizaje colaborativo, se puede consultar [Góm15a]. Sobre la aplicación de dichos métodos al aprendizaje de la música, véase [TG15] (escrito en colaboración con Manuel Tizón).   Bibliografía [BOC15] BOCM. Decreto 48/2015. http://www.bocm.es/boletin/CM_Orden_BOCM/2015/05/20/BOCM-20150520-1.PDF, mayo de 2015. [Cur05] ACM Computing Curricula. The joint task force for computing curricula 2005. http://www.acm.org/education/curricvols/CC2005-March06Final.pdf, 2005. [Fel63] W. Feller. An Introduction to Probability Theory and Its Applications. Wiley, 1963. [Góm10a] P. Gómez. Las matemáticas en la música de Xenakis III. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=11648&directory=67, diciembre de 2010. [Góm10b] P. Gómez. Las matemáticas en la música de Xenakis II. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=11510&directory=67, noviembre de 2010. [Góm10c] P. Gómez. Las matemáticas en la música de Xenakis I. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=11360&directory=67, octubre de 2010. [Góm15a] P. Gómez. El método Moore o el aprendizaje por indagación. http://webpgomez.com/social/educacion/408-metodo-moore, consultado en septiembre de 2015. [Góm15b] P. Gómez. Probabilidad (I) (notas de la asignatura de estadística). http://www.ma.eui.upm.es/usuarios/Fmartin/Docencia/Estadistica-15/Guion-Estad-15-16-tema-2-(I).pdf, septiembre de 2015. [Góm15c] P. Gómez. Probabilidad (II) (notas de la asignatura de estadística). http://www.ma.eui.upm.es/usuarios/Fmartin/Docencia/Estadistica-15/Guion-Estad-15-16-tema-2-%28II%29.pdf, septiembre de 2015. [Loc08] Paul Lockhart. El lamento de un matemático. La gaceta de la Real Sociedad Matemática Española, 11(4):737–766, 2008. Documento accesible en http://www.rsme.es/gacetadigital/abrir.php?id=824. [RB06] Rudolf E. Radocy and J. David Boyle. Psychological Foundations of Musical Behavior. Charles C Thomas, Illinois, 2006. [Tem10] D. Temperley. Music and Probability. MIT Press Ltd, 2010. [TG15] M. Tizón and P. Gómez. El aprendizaje por indagación II. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=14957&directory=67, consultado en septiembre de 2015. [Xen01] Iannis Xenakis. Formalized Music: Thought and Mathematics in Composition. Number 6 in Harmonologia. Pendragon Press, Hillsdale, NY, 2001.
Lunes, 02 de Noviembre de 2015 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. Fractales Los fractales son extremadamente ubicuos y, por lo que vamos a ver en el artículo de este mes, profundamente humanos, ya que al menos los encontramos en actividades tan diversas como las matemáticas y la música. En la columna de este mes glosaremos el artículo Fluctuations of Hi-Hat Timing and Dynamics in a Virtuoso Drum Track of a Popular Music Recording [EPV+15] publicado en la revista PLoS ONE y cuyos autores son los investigadores Esa Räsäänen, Otto Pulkkinen, Tuomas Virtanen, Manfred Zollner y Holger Hennig (todos ellos físicos de prestigiosas universidades). En este artículo, los investigadores han descubierto patrones fractales en la música del percusionista Jeff Porcaro (1954–1992), quien es especialmente popular por que fue el batería de la banda de rock Toto. Pero ¿qué son los fractales? Hay muchas maneras de responder a esta pregunta dependiendo del interlocutor. Para aquel interlocutor con formación matemática son conjuntos recursivos de dimensión fraccionaria (véase [Man04] y las referencias allí contenidas para los aspectos técnicos de esta definición). Hubo matemáticos que intuyeron el concepto, aunque no lo formalizaron suficientemente, pero fue Mandelbrot quien en 1975 introdujo el término fractal y proporcionó una descripción y una formalización coherentes y funcionales. Desde entonces el estudio de estos objetos explotó exponencial, tanto en la matemática pura (teoría del caos, procesos estocásticos) como en las aplicaciones (predicciones, optimización, arte, informática gráfica). Para el interlocutor con menos formación matemática, un fractal es un conjunto autosemejante (no siempre estrictamente), esto es, un conjunto que se repite a sí mismo a diferentes escalas. En la figura de abajo podemos ver el conjunto de Mandelbrot. Si hiciésemos zum en cualquier parte comprobaríamos que la parte es igual al todo salvo en las proporciones y que no importa el nivel de zum que apliquemos que esa propiedad se conserva. En el artículo Fractals [Wik15] de Wikipedia se encuentra ilustrado este proceso de amplificación sucesiva de las partes del conjunto de Mandelbrot. Figura 1: El conjunto de Mandelbrot Para muchos, los fractales están relacionados con el arte y a menudo se oye hablar del arte fractal entre el público no matemático. En particular, existe la llamada música fractal, música de composición inspirada en los patrones fractales o bien con estructura fractal. 2. Jeff Porcaro Jeff Porcaro fue un influyente percusionista, escritor de canciones y productor. Aunque es muy conocido por haber sido el batería de la banda de rock Toto, Porcaro fue un músico de estudio que participó en cientos de álbumes y que gozaba de una gran reputación entre los músicos de su generación. Sin ánimo de dar una lista exhaustiva, Porcaro tocó para Paul McCartney, Dire Straits, Michael Jackson, Al Jarreau, George Benson, Joe Cocker, Stan Getz, Barbra Streisand, Donna Summer, Diana Ross, Eric Clapton, Miles Davis, Bruce Springsteen, Elton John, entre otros. Como se puede ver, los gustos musicales de Porcaro eran muy amplios y su versatilidad como músico, alta. Su originalidad como percusionista ha sido muy apreciada y para muchos ha sido un auténtico renovador de la batería, especialmente en el panorama del jazz y el rock de entre finales de los 70 y principios de los 90. En Youtube hay muchos vídeos (no de buena calidad siempre) sobre él, tanto de sus compañeros músicos como de sus fans (lamentablemente, murió muy joven). Por ejemplo, en este vídeo [Por15b] podemos escuchar un solo de Porcaro, vibrante, lleno de inventiva, y con un sentido de la tímbrica deslumbrante. En este otro vídeo [Por15a], Nick Molenda explica en detalle la técnica de Porcaro; analiza las figuras rítmicas que usa, la elección de los acentos, la combinación de tambores y en particular su técnica de charles (hit-hat en inglés), por la que era especialmente famoso. Porcaro pensaba que la docencia era importante y en Youtube se encuentran muchos vídeos en que explica su técnica; en este aspecto era de una generosidad infrecuente. 3. Los patrones fractales en la música de Porcaro El artículo de Esa Räsäänen y sus colaboradores es bastante complejo, sobre todo por las técnicas de análisis que utilizan, y aquí solo lo describiremos con un propósito divulgativo. Muchos fenómenos naturales presentan fluctuaciones de ruido rosa, también llamadas fluctuaciones fractales. Dichos fenómenos se encuentran en campos como la física, la biología, la economía y la música. Estudios previos a este artículo mostraron que la altura de sonido y el volumen presentan fluctuaciones fractales. Con respecto al ritmo también existen estudios que examinan esas fluctuaciones, pero sin embargo están limitados metodológicamente ya que se han realizado o bien en condiciones ideales en el laboratorio o bien con un solista tocando en presencia de un metrónomo. El estudio que nos ocupa va un paso más allá e investiga música grabada en vivo, en condiciones reales, y sin metrónomo, en este caso en la música de Porcaro. En concreto, sus autores investigan las propiedades de correlación del volumen de patrones rítmicos y para ello proponen métodos novedosos. El artículo, empero, no presenta interpretaciones musicológicas de los resultados (todos sus autores son físicos). En este trabajo se analiza el patrón de charles de una pieza representativa, I keep forgettin’, de Michael McDonald, grabada en 1982 con Porcaro a la batería. El patrón de charles se toca con una sola mano (Porcaro declara en un vídeo que tocar esos patrones con una sola mano proporcionaba una articulación más suave). Para analizar la señal los autores usaron herramientas muy sensibles, capaces de detectar tiempos de ataque de las notas del orden de milisegundos. A continuación, llevaron a cabo un análisis de series temporales de las sucesiones de los ataques obtenidos. Un primer análisis mostró que los ataques presentaban las variaciones típicas de una pieza grabada sin metrónomo. Tras ello, usaron el método de deducción de la fluctuación de tendencias (DFA, detrended fluctuation analysis en sus siglas inglesas) para estudiar la autocorrelación entre las distintas partes de la pieza y así analizar el nivel de autosemejanza. El DFA, que fue introducido por primera vez en 1994 por Peng y otros, es una generalización del análisis ordinario de la fluctuación. Este análisis aparece en procesos estocásticos, teoría del caos y análisis de series temporales. Se emplea con frecuencia para examinar la estructura interna de series temporales, especialmente autocorrelaciones de rango amplio. Los resultados de los análisis anteriores revelaron que los patrones rítmicos y de volumen detectados a pequeña escala, en un par de compases, se replicaban a escalas mayores hasta llegar a la escala de la pieza entera. Incluso los patrones de desviación expresiva del tempo siguen pautas regulares. Uno de los autores, Henning, “cree firmemente que la presencia de estos patrones es parte de la magia de la manera de tocar de Porcaro”. En las conclusiones los autores se hacen muchas preguntas fascinantes, entre ellas si estos patrones son universales o propios de Porcaro (creen que son universales), cómo se originan esos patrones a nivel neuronal, cómo se pierden esos patrones con la edad o la enfermedad (recientemente descubrieron un pianista profesional con Parkinson que los había perdido). El caso es que este trabajo ha confirmado sólidamente la presencia de los fractales en la música.   Bibliografía [EPV+15] Räsäänen E., O. Pulkkinen, T. Virtanen, M. Zollner, and H. Hennig. Fluctuations of Hi-Hat Timing and Dynamics in a Virtuoso Drum Track of a Popular Music Recording. PLoS ONE, 10(6), 2015. [Man04] Benoît Mandelbrot. Fractals and Chaos. Berlin: Springer, 2004. [Por15a] Jeff Porcaro. Jeff Porcaro on Rosanna - Shuffle Groove Breakdown by Nick Molenda. https://www.youtube.com/watch?v=u-N3ohNSYsU, visionado en septiembre de 2015. [Por15b] Jeff Porcaro. Solo de Jeff Porcaro. https://www.youtube.com/watch?v=-5BIUhCMQo8, visionado en septiembre de 2015. [Wik15] Wikipedia. Fractals. https://en.wikipedia.org/wiki/Fractal, consultada en agosto de 2015.
Viernes, 25 de Septiembre de 2015 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. Introducción Históricamente, la teoría de la música en Occidente ha sido desarrollada por músicos y desde la propia música. Uno podría pensar: ¿por quién si no? En cualquier periodo de la historia de la música Occidental que observemos, desde la Edad Media a nuestros días, encontraremos muchos teóricos de la música y con muy diversos enfoques. En general, su misión es la de describir, codificar, explicar y proponer nuevos modos de escribir, pensar y componer la música. Entre las cuestiones más importantes a las que se han dedicado los teóricos de la música se cuentan la clasificación de los intervalos, los sistemas de afinación, la definición de los modos, la conducción de voces, la teoría de la consonancia y la disonancia, la clasificación de los acordes, la organización rítmica y métrica, la organización melódica, la orquestación y la psicoacústica, por citar unas cuantas. Hasta el final del siglo XIX esta situación se mantuvo intacta. Sin embargo, la psicología se consolidó como disciplina científica y desde entonces hasta el presente tomó como objeto el estudio de la percepción y la cognición musicales. Se estudiaron a fondo los procesos de percepción del sonido a nivel físico así como el papel de la enculturación en la percepción musical. Por ejemplo, por mucho que nos parezca natural, la clasificación de los intervalos en consonantes y disonantes que conocemos en la música occidental no es ni mucho un universal musical y los percibimos así en buena parte por la exposición a esa música a la que hemos sido sometidos. En suma, podemos decir que una nota es nuestra experiencia de un sonido. La música es un rico entramado de múltiples elementos, en que abundan las estructuras complejas y aparecen patrones repetidamente. Las matemáticas, por otra parte, son el estudio de la cantidad, la estructura, el espacio y el cambio [Wik15]. Indudable e inexorablemente, los matemáticos acabarían por estudiar la música de un modo sistemático. Así surge la teoría matemática de la música. Cierto es que en las últimas décadas esta disciplina ha cogido mucha fuerza, pero ya desde los griegos se estudió la música desde un punto de vista matemático (Pitágoras usó las proporciones para construir sistemas de afinación). El objeto de este artículo es ilustrar el papel de la teoría matemática de la música en la moderna teoría de la música. 2. ¿Por qué una teoría matemática de la música? La teoría matemática de la música usa estructuras y técnicas matemáticas para analizar obras musicales, para estudiar, caracterizar y reconstruir objetos musicales, y finalmente como fuente de inspiración para la composición musical. Esta es una definición que dio Thomas Fiore [Fio11] en 2011 y que resume concisa y adecuadamente el objeto de la teoría matemática de la música. Hay varios matemáticos y músicos que han dedicado sus esfuerzos de investigación a la teoría matemática de la música (las cursivas no son un error). Déjenos el lector nombrar unos cuantos, quizás los más importantes del panorama en las tres últimas décadas. Uno de los pioneros de la moderna teoría matemática de la música es Guerino Mazzola. Este matemático y músico de free jazz escribió un libro, The Topos of Music, Geometric Logic of Concepts, Theory, and Performance [Maz02], donde aplica la teoría de categorías y álgebra abstracta a múltiples aspectos de la música, desde la misma ontología hasta la modelización de ritmo, melodía, armonía, orquestación e interpretación sin olvidar la creación de una musicología computacional. La obra de Mazzola tiene un carácter enciclopédico y fundacional y en ella encontramos mucha matemática moderna aplicada al análisis y la composición musicales. Posee un apéndice que contiene los fundamentos matemáticos para entender la obra. Estos incluyen teoría de conjuntos, teoría de grupos (de monoides a grupos abelianos), teoría de anillos, el algoritmo de Euclides, teoría de módulos, teoría de categorías, geometría algebraica, lógica, topología —en especial topología algebraica— y finalmente cálculo y ecuaciones diferenciales ordinarias. Como se puede apreciar, estas no son matemáticas triviales ni mucho menos. David Lewin es otra figura importante en la teoría matemática de la música. Su pensamiento musical no está expuesto en una obra principal, al estilo de Mazzola, sino que está repartido a lo largo de los múltiples artículos que escribió en sus 69 años de vida (murió en 2003). Sin embargo, es en su Generalized Musical Intervals and Transformations [Lew87] donde expone lo esencial de su teoría transformacional de la música. Esta teoría estudia en particular cómo se produce la transformación del material musical. Lewin aplica la teoría de grupos a tal efecto. Otra figura muy activa es Thomas Noll, matemático y músico que da clases e investiga en la Escola Superior de Música de Cataluña. Noll fue alumno de doctorado de Mazzola y hereda y prosigue la tradición de abstracción y aplicación de la matemática moderna a la música. Noll ha estudiado especialmente las estructuras matemáticas subyacentes en los objetos musicales, en particular la construcción de escalas bien definidas, la clasificación de modos e intervalos así como las operaciones musicales. También es un gran defensor de la introducción de las matemáticas en el currículo de los músicos. Como editor ha estado al cargo de la revista Journal of Mathematics and Music. Por último, me gustaría citar a Dmitri Tymoczko, compositor y teórico de la música en la Universidad de Princenton. Desarrolló un método de análisis armónico y de conducción de voces basado en topología, al que bautizó como teoría geométrica de la música; véanse [Tym11],[Tym15]. En este método modeliza las armonías como puntos en un cierto espacio topológico y las progresiones de acordes se corresponden a ciertas trayectorias entre dichos puntos. Además, Tymoczko escribió un artículo, The geometry of musical chords [Tym06], que fue publicado en la prestigiosa revista Science (tiene un alto factor de impacto y un alto porcentaje de rechazos); fue el primer artículo sobre música que publicaba dicha revista. 3. Conclusiones Arriba no defendí vehemente la validez de la teoría matemática de la música. Considero que a esta altura es innecesario. Soy perfectamente consciente de que en los conservatorios de este país no se considera la posibilidad de que se enseñe este tipo de teoría de la música. Creo que es una cuestión de tiempo —probablemente, de mucho tiempo— que se vaya introduciendo poco a poco. Me pregunto cuándo se enseñarán en los conservatorios, por ejemplo, los resultados de Tymoczko, cuyos modelos están claramente orientados al análisis musical, en especial al de la música atonal. Nótese que Tymoczko es músico y no matemático y, por tanto, nada sospechoso de un contubernio de matemáticos con ínfulas de teóricos de la música. O ¿qué herramientas de análisis se puede ofrecer a un estudiante de conservatorio ante una música compuesta desde principios matemáticos (música fractal, música algorítmica, la obra de Xenakis)? Pocas si solo nos restringimos a las técnicas clásicas. Abogar por la introducción de la teoría matemática de la música no implica eliminar los modos tradicionales de análisis. Antes bien, la idea es complementarlo. Los fenómenos musicales cada vez son más complejos y requieren herramientas que puedan captar esa complejidad y riqueza. Y en ciertos contextos las herramientas clásicas no son suficientes. Por último, somos conscientes de que ha habido excesos por parte de algunos practicantes de la teoría matemática de la música. Los analizamos exhaustivamente en la columna de octubre de 2012 [Góm15]. Dichos excesos no invalidan la teoría matemática de la música porque a estas alturas ya ha probado su poder explicatorio y su capacidad de inspiración. Hay que hacer una teoría correcta, significativa y potente, y evitar extralimitarse, pues ninguna teoría de la música, matemática, tradicional, o histórica por sí sola será capaz de explicar satisfactoriamente algo tan bello y complejo como la música.   Bibliografía [Fio11] T. Fiore. What is Mathematical Music Theory? An Introduction via Perspectives on Consonant Triads. Colloquium held at Stony Brook University, 2011. [Góm15] P. Gómez. Alcance y extralimitaciones de las matemáticas y la computación en la música. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=14518&directory=67, consultada en junio de 2015. [Lew87] D. Lewin. Generalized Musical Intervals and Transformations. New Haven, CT, and London: Yale University Press, 1987. [Maz02] G. Mazzola. The Topos of Music. Birkhäuser Basel, 2002. [Tym06] D. Tymoczko. The geometry of musical chords. Science, 313:72–74, 2006. [Tym11] D. Tymoczko. A Geometry of Music: Harmony and Counterpoint in the Extended Common Practice. Oxford University Press, 2011. [Tym15] D. Tymoczko. Chordgeometries. http://dmitri.tymoczko.com/ChordGeometries.html, consultada en enero de 2015. [Wik15] Wikipedia. Mathematics. https://en.wikipedia.org/wiki/Mathematics, consultada en junio de 2015.
Jueves, 23 de Julio de 2015 | Imprimir | PDF |  Correo electrónico
Cultura y matemáticas/Música y matemáticas
Autor:Paco Gómez Martín (Universidad Politécnica de Madrid)
1. Introducción Este es el último artículo de la serie Otras armonías son posibles. La serie está basada en el libro de Tom Johnson Other harmony (beyond tonal and atonal) [Joh14a], libro en que se investiga los sistemas armónicos no tradicionales. Entre ellos, hemos seleccionado para esta serie de cuatro artículos aquellos que tienen base matemática. Por completitud, en el primer artículo de la serie [Góm15a] dimos unas nociones básicas de la armonía tonal; en el segundo artículo [Góm15b] analizamos la armonía atonal con ejemplos tomados de la técnica dodecafónica, la nomenclatura de acordes de Forte y la clasificación de Jedrzejewski basada en teoría de nudos. En el tercer artículo [Góm15d] estudiamos las armonías de Euler, Hauer, Slonimsky y Schillinger, autores que inventaron sistemas armónicos con base matemática. En este último artículo examinaremos las ideas matemáticas del resto del libro de Johnson, ideas que se basan en conceptos en apariencia simples y que dan lugar a sistemas armónicos desligados de la psicoacústica (como es el caso de la armonía tonal clásica). 2. Igualdad y completitud En el capítulo Equal and Complete [Joh14b] (página 109 y siguientes), Johnson analiza el papel que la igualdad y completitud en la estética musical y en particular en la armonía. Él mismo reconoce que muchos músicos e improvisadores no tienen ningún interés en esas dos características; quieren tener máxima libertad y no quieren estar constreñidos por reglas formales. Sin embargo, otros músicos e improvisadores —aunque habría que matizar que en distintos grados — sí han sentido atracción por la igualdad y la completitud y han reconocido su valía como criterios estéticos. Para justificar por qué esos criterios son válidos estéticamente, Johnson menciona la corriente literaria OuLiPo o taller de literatura potencial. Esta corriente tiene un fuerte carácter experimental y usa técnicas literarias que implican estrictos límites formales, los cuales desembocan en obras tales como novelas anagramáticas, variaciones temáticas, literatura combinatoria, entre otras. Para más información sobre OuLiPo recomendamos al lector que visite su excelente página web [OuL15]. Por su calidad, y también por cariño, pues se trata de una compañera de Divulgamat, no resistimos la tentación de mencionar a Marta Macho [Mac15d]. Es una experta en la obra de Oulipo y ha contribuido notablemente a su difusión en España; véanse, como botón de muestra, los magníficos artículos de divulgación [Mac15c], [Mac15a],  [Mac15e], y [Mac15b]. Johnson también argumenta la importancia de la igualdad y completitud extrayendo ejemplos de la poesía, de la música misma (de la obra de Bach y de Jürg Frey, del grupo Wandelweiser) y de las artes plásticas (del minimalista Sol LeWitt). Pero ¿qué significa igualdad y completitud en la armonía? Hay muchas maneras de interpretar ambos conceptos, sin duda, y Johnson en buena parte del resto del libro se dedica a estudiar los diferentes matices escondidos en ellos. El capítulo Equal and Complete acaba con un ejemplo de Jürg Grey, un miembro del grupo Wandelweiser, formado por un conjunto de intérpretes y compositores de carácter internacional, fundado en 1992, y que tiene fuertes influencias de John Cage y su tratamiento del silencio. La obra que analiza Johnson es Sam Lazaro Bros, una pieza que consiste exclusivamente en las 12 triadas menores, donde la primera y segunda inversión se permiten así como conducciones de voces entre las notas de los acordes. La obra, según Johnson, “nunca resulta aburrida o repetitiva”. Entusiasmado por el modo en que Grey compuso Sam Lazaro Bros, Johnson describe cómo se lanzó él a componer una pieza en que aparecieran todos (completitud) las transposiciones e inversiones de un acorde de 3 notas (igualdad), el acorde Forte 3-7 (do-re-fa) y de modo que cada acorde tenga dos notas en común con el siguiente. Encontró que la tarea no era tan fácil como había supuesto en un principio. Para aclarar las ideas se ayudó del siguiente grafo: Figura 1: Grafo con los 24 acordes pertenecientes al acorde 3-7 de Forte (figura tomada de [Joh14b]). El cual dio lugar a la siguiente secuencia de acordes: Figura 2: Secuencia de los acordes pertenecientes al acorde 3-7 de Forte (figura tomada de [Joh14b]). Johnson concluye (aunque sin pruebas) que “podemos percibir completitud cuando oímos una secuencia como esta, al menos a un cierto nivel inconsciente”. 3. Alturas y sumas En el capítulo, Heights and Sums, Johnson explora la generalización de altura a acordes. En general, se habla de la diferencia de altura entre dos notas como el intervalo medido desde la más grave a la más aguda. Ahora hablamos de la altura de un acorde. Empecemos por numerar las notas, por ejemplo desde do. La nota do es el 0, la nota do# es 1, la nota re 2 y así sucesivamente. Cada uno de estos números es la altura de la nota. Dado un acorde, se define su altura como la suma de las alturas de sus notas. Así por ejemplo, el acorde de do mayor, do-mi-sol, tiene altura 11 porque la altura de sus notas es . El lector ya habrá adivinado que el juego compositivo y armónico es el de escribir una pieza en que aparezcan todos los acordes que tengan una altura fija. Para ilustrar a fondo el concepto, Johnson da una tabla con el número de acordes que hay para una altura dada cuando esta varía entre 3 (el mínimo posible) y 30 (el máximo posible). Figura 3: Número de acordes de tres notas con altura dada (figura tomada de [Joh14b]). Como se ve en la figura 3, el mínimo valor se alcanza con alturas 3 y 30, y el máximo valor para el rango de alturas entre 15 y 19, con 15 acordes cada una. Fijémonos en la altura 16. Los 15 acordes resultantes están en la siguiente tabla: ,,,,,, ,,,,, ,,} ¿Cómo conectar estos conjuntos de acordes? Johnson, entre las muchas posibilidades, escoge dos que aplican dos propiedades matemáticas: se unen bien por sus diferencias mínimas o bien por sus diferencias máximas. Por diferencias mínimas quiere decir moviendo las notas del acorde lo mínimo posible (con frecuencia una subida y una bajada de un semitono). En el caso de las diferencias mínimas, la figura 4 muestra una posibilidad. Para que la altura se mantenga constante, una subida de un semitono ha de compensarse con la bajada de otro semitono. Figura 4: Acordes de suma 16 unidos por sus diferencias mínimas (figura tomada de [Joh14b]). Para las diferencias máximas se intenta mover las notas lo más posible dejando la altura constnate. Cuando se trata de las diferencias máximas, la conducción de voces se hace un poco brusca. Aquí está una solución dada por Johnson. Figura 5: Acordes de suma 16 unidos por sus diferencias máximas (figura tomada de [Joh14b]). 4. Progresión de acordes En el capítulo Advancing Johnson abunda en la idea de conectar acordes que compartan el mayor número de notas entre sí, por ejemplo, que solo varíe una nota entre acorde y acorde. Esta idea no es extraña a la armonía tonal ni mucho menos. En la armonía tonal el enlace entre acordes se hace cambiando el mínimo número de notas y dos acordes se consideran semejantes o relacionados entre sí si provienen de escalas que difieren en el menor número de notas (como do mayor y sol mayor, por ejemplo). Evidentemente, aquí Johnson usa esta idea para conectar acordes fuera del contexto tonal. Como ejemplo inicial, pone el de ir desde el acorde hasta el (en este capítulo Johnson fija un acorde origen y un acorde final). La secuencia sería (se muestra incompleta, página 136): → →  → ......→ →  → Esta idea da lugar a bonitos grafos de acordes. En el siguiente ejemplo, el autor de Other harmony toma el conjunto de notas (inspirado en el Thesaurus de Slonimsky [Slo47]) y genera el grafo de la figura 6. Los nodos del grafo son el conjunto de acordes de tres notas tomados de ese conjunto, y dos acordes están unidos por una arista si difieren solo en un nota. El acorde origen es re-fa#-sol y el acorde final si-do-mi. Recorrer el grafo entero visitando cada acorde una sola vez empezando en el acorde origen y terminando en el acorde final es equivalente a encontrar un camino hamiltoniano en el grafo. El grafo en cuestión admite tal camino, como se comprueba fácilmente. Figura 6: Grafo de los acordes de 3 notas formados a partir de (figura tomada de [Joh14b]). Por último y en un giro inesperado, Johnson propone usar ¡el círculo de quintas! para construir una progresión de acordes, nada menos que en el ignoto territorio de la Otra armonía. Casi se diría que Johnson escribe esta sucesión de dominantes con un sentido de lo prohibido a la vez divertido y gratificante. Figura 7: El acorde Forte 4-16 en un ciclo de quintas (figura tomada de [Joh14b]). 5. Intervalos adyacentes Johnson está interesado ahora en progresiones donde se fijan las notas más grave y aguda de un acorde y se varían las notas interiores. El autor previene al lector de un error y es el de pensar que la altura del acorde no varía. Si tomamos el caso de una triada mayor, , y observamos sus intervalos, vemos que no cambian con respecto a los de una triada menor . Ambos acordes están formados por una quinta justa, una tercera mayor y una tercera menor. La diferencia está solamente en el orden de aparición de dichos intervalos. Sin embargo, ambas triadas tienen alturas diferentes. La triada menor tiene altura 10 y la triada mayor, 11. Entre los ejemplos con que Johnson ilustra esta técnica nos llama la atención las progresiones en que se mueve una sola voz cada vez. Johnson contempla todas las posibilidades para esta progresión y construye un grafo. Se podría pensar —y así lo reconoce el propio Johnson— que el grafo tendrá bastantes triángulos, pero no es así; principalmente está formado por cuadrados, como se puede ver en la figura 8 (donde, por cierto, las notas externas no se han indicado). Figura 8: Grafo de los acordes de cinco notas con las mismos intervalos adyacentes y con las notas exteriores fijas (figura tomada de [Joh14b]). No es muy difícil ver que el grafo, que goza de bastante simetría, es, en efecto, hamiltoniano y que admite, por tanto, un ciclo que visita todos los nodos sin repetición. Una posible solución es la de la figura 9. Figura 9: Acordes correspondientes a la figura 8 (figura tomada de [Joh14b]). 6. Sumas módulo n Ahora Johnson abandona el concepto de altura y sus implicaciones armónicas y presenta uno nuevo: las sumas módulo n. Fijado un entero n distinto de cero, dos números enteros se dicen son congruentes módulo n si su diferencia es divisible por n. Por ejemplo, si n es 2, todos los números congruentes con 0 son los números pares y todos los congruentes con 1 son los números impares. La relación de congruencia es una relación de equivalencia y las clases de equivalencia asociadas son los restos de la división entera por n, que son 0, 1,…, n - 1. Johnson comienza considerando sumas módulo 2 del siguiente modo. Aquí el 2 va indicar el número de notas del acorde. Siguiendo con la numeración por semitonos de la octava de 0 a 11, Johnson clasifica los intervalos (acordes de dos notas) por la paridad de su altura. Así, obtiene intervalos pares e intervalos impares. La figura 10 muestra los intervalos pares a la izquierda (todos los que son congruentes con 0 módulo 2) y los impares a la derecha (todos los que son congruentes con 1 módulo 2). Figura 10: Clasificación de los intervalos módulo 2 (figura tomada de [Joh14b]). Esta división no deja de ser curiosa. La teoría de la consonancia ha sufrido cambios a lo largo de la historia y el intervalo disonante de hoy será la consonancia de mañana. En la armonía tonal la consonancia ha tenido un fundamento psicoacústico, basado en la serie de los armónicos. Aquí Johnson sugiere un criterio matemático, como por ejemplo que los intervalos pares se consideren consonantes y los impares disonantes, o viceversa. Cuando queremos considerar los acordes de 3 notas hemos de tomar números módulo 3. La relación de congruencia módulo 3 clasifica los números en tres grupos: los que al dividir por 3 da resto 0, los que da 1 y los que da resto 2 (y no hay otras posibilidades). En la figura 11 se muestran todos los acordes de 3 notas clasificados según la congruencia módulo 3 de su altura. Figura 11: Acordes de 3 notas clasificados módulo 3 (figura tomada de [Joh14b]). La clase de los acordes 0 módulo 3 está formado por acordes con dos intervalos iguales; de ahí que acordes disminuidos y similares aparezcan en dicha clase. En la clase 1 módulo 3 aparecen, en cambio, acordes menores. Y, finalmente, en la clase 2 módulo 3 encontramos la triada mayor junto con otros acordes de diversa naturaleza. Nótese que la transposición o la inversión de un acorde no cambia su congruencia. La razón por la que la transposición no cambia la congruencia es porque se añade una altura constante a cada una de las tres notas del acorde, es decir, se añade un múltiplo de 3, que es 0 módulo 3. En cuanto a la inversión, dado que la octava son 12 semitonos y 12 es 0 módulo 3, y dado que la inversión consiste en cambiar una nota una octava arriba, tampoco afecta a la congruencia módulo 3. En el resto del capítulo Johnson sigue analizando más acordes, entre ellos los de cuatro notas, para lo cual usa toma módulo 4 en la altura. El grupo de acordes que suman 1 módulo 4 resulta contener todos los acordes de séptima de dominante. El grupo cuya suma es 3 módulo 4 también es interesante y en él encontramos los acordes de Tristán así como otros acordes más cromáticos. Para terminar esta sección voy a reproducir el grafo de la página 162 del libro de Johnson. En él se muestran 30 acordes del grupo cuya suma es 1 módulo 4, donde se ha trazado una arista si dos acordes tienen tres notas en común. Figura 12: Grafo de 30 acordes con suma igual a 1 módulo 4 (figura tomada de [Joh14b]). 7. Tetracordos paninterválicos y homometrías El siguiente capítulo, All-interval tetrachords and other homometries, versa sobre homometrías y es quizás uno de los mejores capítulos del libro. Dado un acorde, su contenido interválico consiste en todos los intervalos que se pueden formar con sus notas. Un acorde de dos notas solo tiene un posible intervalo; uno de tres notas da lugar a tres intervalos. Por ejemplo, la triada mayor da lugar a tres intervalos: 4, 5 y 3 (seguimos midiendo los intervalos en semitonos). Los intervalos del acorde se miden tomando la distancia más corta entre las dos notas; esto da lugar a que los intervalos no sean mayores que 6, el tritono. Cuantas más notas tenga el acorde, mayor se hace el contenido interválico. Dos acordes se dicen que son homométricos si tienen el mismo contenido interválico; para más información sobre acordes homométricos, véase la serie dedicada al teorema del hexacordo ([Góm15c] y dos siguientes números). En la figura 13 se ve el contenido interválico de dos hexacordos (acordes de seis notas); se han dibujado las notas sobre un círculo de 12 puntos para mejor visualización. Una pregunta fácil de hacerse es si dos acordes homométricos son equivalentes en el sentido en que se puede obtener el uno del otro por transposiciones u otros movimientos rígidos. La respuesta es no y la propia figura 13 proporciona el contraejemplo. En el libro de Johnson se estudian los tetracordos paninterválicos, que son los acordes de cuatro notas cuyo contenido intervalo tiene los seis intervalos posibles exactamente una vez cada uno. Figura 13: El contenido interválico de dos acordes. Tetracordos paninterválicos hay 48, como bien lista Johnson, y son estos: Figura 14: Los 48 tetracordos paninterválicos (figura tomada de [Joh14b]). El libro de Johnson está plagado de visualizaciones de acordes y sus relaciones. Para los tetracordos paninterválicos propone el grafo de la figura 15. Este grafo muestra para cada acorde la tercera menor y mayor como un vértice; nótese que por ser paninterválicos dichas terceras han de existir. A continuación las conecta con las segundas menores y cuartas que aparecen en el acorde. En realidad, las aristas de este grafo son las que determinan cada uno de los tetracordos; compárense esas aristas con los elementos de la tabla de la figura 14. Figura 15: Los 48 tetracordos paninterválicos vistos en un grafo (figura tomada de [Joh14b]). 8. Diseño de bloques Los dos últimos capítulos de Other harmony toman un giro más radical e introduce el diseño de bloques (block designs). Las consideraciones para la construcción armónica se vuelven puramente matemáticas, en particular combinatorias. Esto es lo que dice Johnson al respecto, que reproduzco literalmente dada su elocuencia (dejo el original tal cual pues creo que se entiende bien): With block designs all acoustical characteristics are essentially forgotten. No more overtone series, no more ideas of consonance and dissonance, and no more octave equivalence. In the real world octaves never were equal, or even equivalent. Accepting the convention of octave equivalence was reasonable for music theorist Rameau to Forte, and this convention worked fine for the music they studied. (...) Block designs come from an abstract mathematical world, rather a long way from the acoustical world. Scales are no longer scales but rather sets. Chords are no longer chords but rather subsets. Notes are no longer notes but rather elements. Music theory is now replaced by group theory, though we can make music all the same. Un bloque es un conjunto de acordes de m notas que se extraen de una escala de n notas y en que se fija el número k de veces que aparecen en el bloque entero. Los bloques se designan por (n, m, k). El bloque más pequeño es (6, 3, 2), lo cual quiere decir que tiene 6 elementos, divididos en subconjuntos de 3 elementos y en los que cada par de elementos aparece 2 veces en cada uno de los bloques. Por comodidad, usemos el conjunto para designar los elementos del bloque. Todos las parejas sin repetición que se pueden formar con los elementos de este conjunto son: ,,,,, ,,,, ,,, ,, } Ahora habría que añadir un tercer elemento a cada pareja de modo que todo par de elementos apareciese exactamente dos veces. Ello implicará que desaparecerán algunas parejas. El conjunto final tiene 10 elementos y es este: ,,,,, ,,, , } Johnson presenta en la página 195 una visualización geométrica de este conjunto en forma de grafo; véase la figura 16. El grafo de la figura, dibujado como es habitual, no sería un grafo plano, pues se trata del grafo completo K5. Aquí Johnson duplica algunos vértices, los que aparecen entre paréntesis, y da una representación, digamos, pseudo-plana de K5. En esta representación las caras triangulares son los elementos del bloque, como es inmediato de comprobar. Figura 16: Grafo asociado al bloque (6, 3, 2) (figura tomada de [Joh14b]). Una posible transformación del grafo en notación musical puede ser la de la figura 17. Figura 17: Interpretación musical del bloque (6, 3, 2) (figura tomada de [Joh14b]). 9. Bloques paralelos En este último capítulo se consideran bloques con una condición extra y es que los bloques estén definidos de tal forma que por cada subconjunto aparezca su complementario. A este tipo de bloques los llama Johnson bloques paralelos (en realidad una mejor terminología sería bloques autocomplementarios). El bloque (6 3, 2) que aparece más arriba no es paralelo porque el complementario del subconjunto no aparece en el bloque. De nuevo, Johnson nos sorprende gratamente con otro grafo en que representa profundamente las relaciones entre los acordes. En la figura 18 vemos los 20 acordes que se pueden forman con tres notas. De ellos, la mitad están rodeados por un círculo y otros no. Los que tienen círculo forman una clase paralela y Johnson los ha unido con una línea discontinua. Las aristas sólidas están dadas por la relación de diferencia mínima (dos acordes varían en una sola nota). Para una mejor visualización, los nodos de la izquierda van en orden creciente de altura, mientras que los de la derecha van en orden decreciente de altura. Por último, nótese que la clase con círculo es paralela, pero que la clase sin círculo es también una clase paralela. Esto es consecuencia de la propia definición de bloque paralelo. Figura 18: Visualización de bloques paralelos en (6, 3, 2) (figura tomada de [Joh14b]). Johnson muestra otro método para obtener bloques paralelos, los cuadrados. Por ejemplo, el bloque (9, 3, 1) lo extrae del siguiente cuadrado o matriz 1 2 3 4 5 6 7 8 9 Curiosamente, cuando se leen los elementos de este cuadrado horizontalmente, verticalmente y diagonalmente se obtienen bloques paralelos correspondientes a (9, 3, 1) (cada fila abajo corresponde con un bloque paralelo): ,,, ,,, ,,, ,,} 10. Progresiones armónicas Casi no El último capítulo Johnson habla de las progresiones Casi no que no son otras que las progresiones que no van a ningún sitio. De nuevo, las palabras más elocuentes para explicar esto son las del propio Johnson: We are accustomed to thinking of chord progressions as progressions that go somewhere, and these (Almost not progressions) just noodle around as if they were going to neighbor notes and back. Each note is as important as each other note, and they somehow belong together, because they have equal places in a complete block design. A continuación Johnson justifica brevemente las progresiones Casi no poniendo ejemplo de la historia de la música con las armonías wagnerianas y post-wagnerianas. Cierra el capítulo con un análisis de estas progresiones, que ya por brevedad, no glosamos aquí. 11. Conclusiones En una serie de cuatro artículos hemos glosado el libro de Tom Johnson Other harmony (beyond tonal and atonal). Este libro es, en el fondo, una excursión por las ideas matemáticas que inspiraron nuevas formas de concebir la armonía. Esperamos que al lector que proviene del mundo de las matemáticas le haya abierto los ojos a la armonía, sobre todo a las Otras Armonías, y que, en cambio, al lector que proviene del mundo de las música le haya abierto los ojos a los conceptos matemáticos. Si esto hemos conseguido, siquiera modestamente, habremos cumplido nuestro objetivo.   Referencias [Góm15a] P. Gómez. Otras armonías son posibles (I). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16413&directory=67, consultado en febrero de 2015. [Góm15b] P. Gómez. Otras armonías son posibles (II). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16445&directory=67, consultado en marzo de 2015. [Góm15c] P. Gómez. El teorema del hexacordo (I). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=10806&directory=67, consultado en mayo de 2015. [Góm15d] P. Gómez. Otras armonías son posibles (III). http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16588&directory=67, consultado en mayo de 2015. [Joh14a] Tom Johnson. Other harmony. 75 Editions, 2014. [Joh14b] Tom Johnson. Other harmony. http://oh.editions75.com, 2014. [Mac15a] Marta Macho. 50 (+1) años de OuLiPo. http://www.matematicalia.net/articulos/v7n3sep2011/OuLiPo.pdf, consultado en mayo de 2015. artículo publicado en la revista digital Matematicalia. [Mac15b] Marta Macho. El material del taller de literatura OuLiPo. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16316&directory=67, consultado en mayo de 2015. [Mac15c] Marta Macho. Oulipo: mestizaje entre cifras y letras. http://www.ehu.eus/~mtwmastm/Alliance2013.pdf, consultado en mayo de 2015. [Mac15d] Marta Macho. Página web de Marta Macho. http://www.ehu.eus/~mtwmastm/Datos.html, consultado en mayo de 2015. [Mac15e] Marta Macho. Taller de literatura OuLiPo. http://divulgamat2.ehu.es/divulgamat15/index.php?option=com_content&view=article&id=16260&directory=67, consultado en mayo de 2015. [OuL15] OuLiPo. OuLiPo | Ouvroir de littérature potentialle. http://OuLiPo.net/, consultado en mayo de 2015. [Slo47] N. Slonimsky. Thesaurus of scales and melodic patterns. Charles Scribner’s Sons, 1947.
Jueves, 18 de Junio de 2015 | Imprimir | PDF |  Correo electrónico

<< Inicio < Anterior 1 2 3 4 5 6 7 8 9 10 Siguiente > Fin >>
Página 6 de 13

© Real Sociedad Matemática Española. Aviso legal. Desarrollo web