Skip to main content

Open Access Rhythmische Segmentierung von Sprach- und Musiksignalen und ihre Nachbildung mit einem Funktionsschema

Sixty short pieces of different kinds of music (about 5 s each) were presented to eleven subjects. The subjects reproduced the preceived rhythm of the music on a Morse-key. The results showed significant accumulations of the reproduced time intervals at values of 125, 250, and 500 ms. A comparison with results of the rhythm of speech, which are published in a companion paper, yielded significant differences in the perceived rhythm of speech and music. In music, accumulations of ratios of time-intervals following one another were found at ratios of 1:1 and 2:1, in speech, however, a more equal distribution between the time ratios of 1:1 and 2:1 was measured. It was shown that speech and music can be distinguished alone on the basis of rhythm. A model is proposed, which is based on the conception that rhythm events, which typify the segmentation of sounds by the ear, are caused by temporal changes of loudness and/or pitch, About 90% of the measured rhythm events can be simulated by models.

Zusammenfassung

Aus verschiedenen Musikrichtungen wurden 60 Ausschnitte mit einer Dauer von je ca. 5 s 11 Versuchspersonen dargeboten. Die Versuchspersonen reproduzierten den wahrgenommenen Rhythmus der Musik auf einer Morsetaste. Es ergaben sich rhythmische Segmentierungen mit signifikanten Häufungen der reproduzierten Zeitintervalle bei 125, 250 und 500 ms. Ein Vergleich mit entsprechenden, in einem weiteren Aufsatz dargestellten Ergebnissen zum Rhythmus von Sprache zeigte signifikante Unterschiede des wahrgenommenen Rhythmus von Sprache und Musik. Die Zahlenverhältnisse aufeinanderfolgender Zeitintervalle ergaben bei Musik Häufungen bei den Verhältnissen 1:1 und 2:1, bei Sprache hingegen wurde eine eher gleichmäßige Verteilung der Zeitverhältnisse zwischen 1:1 und 2:1 beobachtet. Es konnte gezeigt werden, daß Sprache und Musik bereits allein aufgrund des Rhythmus voneinander unterschieden werden können. Zur Beschreibung der rhythmischen Segmentierung wird ein Funktionsschema vorgeschlagen, das auf der Vorstellung beruht, daß rhythmische Ereignisse, welche die Segmentierung von Schallsignalen durch das Gehör kennzeichnen, durch zeitliche Änderungen im Lautheitsund Tonhöhenverlauf hervorgerufen werden. Mit Hilfe des Funktionsschemas können ca. 90% der gemessenen rhythmischen Ereignisse nachgebildet werden.

Sommaire

On a soumis à onze sujets un total de soixante échantillons (durant chacun environ 5 secondes) extraits de diverses compositions musicales. Les sujets devaient reproduire au moyen d'un manipulateur Morse le rythme musical tel qu'ils le percevaient. Les segmentations rythmiques résultant de ces tests se signalent par des accumulations significatives des intervalles temporels autour des valeurs 125, 250 et 500 ms. Une comparaison avec des expériences analogues effectuées sur des échantillons de parole révèle des différences manifestes. Alors que les rapports numériques de durée entre intervalles temporels consécutifs fournissent des accumulations nettes pour les valeurs 1:1 et 2:1 dans le cas de la musique, on a observé une répartition à peu près équitable des rapports entre les valeurs 1:1 et 2:1 dans le cas de la parole. On a même pu démontrer qu'il était possible de distinguer la parole de la musique par simple inspection du rythme. Pour décrire la segmentation rythmique, on propose un schéma fonctionnel reposant sur l'hypothèse que les événements rythmiques perçus comme segmentation des signaux sonores sont en réalité des variations temporelles de la sonie et de la tonie. Ce schéma fonctionnel rend compte d'environ 90% des événements rythmiques enregistrés.

Document Type: Research Article

Publication date: 01 November 1984

  • Access Key
  • Free content
  • Partial Free content
  • New content
  • Open access content
  • Partial Open access content
  • Subscribed content
  • Partial Subscribed content
  • Free trial content