Frage:
Warum spielen Menschen, nicht Geräte, Musik?
evgeny
2018-03-11 11:32:41 UTC
view on stackexchange narkive permalink

Wenn ich sehe, wie eine Person Musik spielt, indem ich Noten liest, stellt sich die Frage, warum Geräte sie nicht stattdessen abspielen können. Ich meine nicht, Musik zu spielen, die bereits von Leuten aufgenommen wurde, sondern von Grund auf neu. Wäre es nicht viel billiger und genauer, wenn die Notenschrift nicht von einem Musiker, sondern von einem automatischen Gerät wiedergegeben würde?

Unterschied zwischen einem Foto und einem Porträt?
Natürlich ist billiger nicht immer besser, aber wie wäre "genauer" besser? Es gibt keine Eins-zu-Eins-Äquivalenz zwischen Musik und Notation. Was bedeutet es also überhaupt zu behaupten, dass Musik genauer sein könnte, wenn die Notation genau interpretiert würde?
Geräte spielen ständig Musik. **Die ganze Zeit**. Bei jedem EDM oder Dubstep wird die Sequenzierung stark beansprucht. Drum-Maschinen sind seit den 80er Jahren beliebt, und selbst der flüchtigste Blick auf Rap oder Hip-Hop zeigt, dass sequenzierte Drum-Patterns in großem Umfang verwendet werden.
"... und genauer ..." Auf die Gefahr hin, philosophisch zu werden, könnte argumentiert werden, dass Genauigkeit beim Musizieren zweitrangig ist; Die persönliche Note eines Künstlers verleiht einer Interpretation eine nichtmechanische Einzigartigkeit.
Es würde für niemanden einen Unterschied machen, der nicht zuhörte. Es geht oft NICHT um Präzision. Es geht nicht nur um die Übersetzung der Notenschrift in Klang, sondern um die * Interpretation *. Hervorragend demonstriert von Evelyn Glennie in ihrem [TED Talk] (https://www.ted.com/talks/evelyn_glennie_shows_how_to_listen).
Bemerkenswertes Beispiel für ein Gerät, das Musik abspielt: https://www.youtube.com/watch?v=URZLKECFjaY
Zu einer Zeit hatte ich eine Anwendung (ich kann mich nicht an den Namen erinnern), mit der man Musik in Standardnotation schreiben konnte. Der Computer würde dann das Stück wie geschrieben spielen. Es könnte leicht die gesamte Notation auf der Seite interpretieren, sogar Akzente und Lautstärkeänderungen hinzufügen. Das Ergebnis klang jedoch immer etwas flach und konserviert.
Ich bin ein Musiker, der Musik mit Geräten macht. Ich spiele sowohl Musik als auch Geräte.
Ich stimme Evelyn Glennies [TED Talk] (https://www.ted.com/talks/evelyn_glennie_shows_how_to_listen) zu, den @LeeKowalkowski empfohlen hat. Wenn Sie wirklich an der Antwort auf diese Frage interessiert sind, lohnt es sich, sie 32 Minuten lang zu hören. Bemerkenswert ist, dass ihr Ruhm eine zutiefst taube Percussionistin ist, sodass Sie sicher sein können, dass ihre Einstellung in der Tat einzigartig sein wird!
Dies wurde bereits im Mittelalter getan, möglicherweise sogar früher.
Vierzehn antworten:
#1
+40
Dekkadeci
2018-03-11 12:19:28 UTC
view on stackexchange narkive permalink

Es ist irgendwie problematisch. Geräte spielen bereits Musik ab. Das Player Piano spielte bereits vor 1910 automatisch Musik auf Rollen. Es gibt Stücke mit Notenschrift für Player Piano - wie Marc-Andre Hamelins Originalmanuskript für seinen "Circus Galop" für Player Piano aussieht ist heute erhalten.

Ich vermute, dass ein Teil der Gründe, warum Menschen immer noch gerne Interpretationen von Musik hören, die von Menschen und nicht nur von Computern gespielt wird, genau auf menschliche Ungenauigkeit zurückzuführen ist - wir betonen bestimmte Noten leicht, variieren ihren Rhythmus leicht und sogar Nehmen Sie leichte Tempowechsel vor, und all dies lässt Performances eher menschlich als roboterhaft klingen. (Dies macht das Transkribieren von Stücken von MIDIs, die von Menschen eingegeben wurden, geradezu albtraumhaft - 64. Noten und bizarre Tuplets sind an der Tagesordnung.)

Wenn Sie jedoch Musik von der Elektronik spielen möchten, hören Sie sich Soundtracks von Videospielen an. Ein Großteil der Musik (insbesondere das 8-Bit-Material) beinhaltet KEINE Live-Aufnahmen von Menschen, die Instrumente spielen.

Ich war peripher an der Aufgabe beteiligt, die von George Gershwin für Larry Adler erstellten Pianorollen wiederherzustellen. Wir mussten eine Menge "falsches" Gefühl in diese zurückbringen, um sie für eine moderne Aufnahme geeignet zu machen, die schließlich auf einem Disklavier für sein [80. Geburtstagsalbum] (https://en.wikipedia.org) aufgenommen wurde / wiki / The_Glory_of_Gershwin).
Hier ist ein Beispiel für einen Videospiel-Soundtrack, der nicht aufgezeichnet, sondern vom Computer live abgespielt wurde (aus MOD / S3M / IT-Dateien): https://www.youtube.com/watch?v=7MSFW8pZ-_4
Ich denke, sie wurden tatsächlich in einen sich bewegenden Streifen geschnitten, als der Spieler spielte; Sie müssten später für die Steuerdaten bearbeitet werden, bevor sie in Massenproduktion hergestellt werden. Sie sind jedoch im Vergleich zu einer modernen Midi-Aufnahme, die über so etwas wie ein Disklavier oder sogar nur ein gutes Sampleset wiedergegeben wird, absolut unzureichend. Ich habe damals die Brötchen gesehen; Obwohl ich nicht direkt an der eigentlichen mechanischen Wiederherstellung beteiligt war, habe ich einige Arbeiten am Midi durchgeführt, bevor er für die Aufnahmen verwendet wurde. Es wurde erwähnt, dass sie "tatsächlich von Gershwin selbst hergestellt" wurden, damit Adler sie live nutzen konnte.
Für ein auffälligeres Gegenbeispiel ist Google "black MIDI" - das Genre besteht aus Songs, die auf einem typischen Keyboard physisch nicht von Hand gespielt werden können. Typische Beispiele können alle 88 Tasten gleichzeitig oder innerhalb von zehn oder Hunderten von Millisekunden voneinander auslösen.
@Kevin - Gegenbeispiel für was?
@DavidBowling: Für "Warum spielen Menschen die ganze Musik?" - Sie tun es nicht.
Vocaloid-Software, DAWs vom Typ FLstudio, Modul-Tracker, direktes Komponieren für Midi… Es gibt mindestens vier Branchen, in denen es darum geht, Musik zu machen, indem Sie entweder auf der Maschine des Künstlers oder auf Ihrer komponieren und dann rendern.
@Fax Irgendwie bin ich enttäuscht, dass das nicht https://www.youtube.com/watch?v=9NcPvmk4vfo war
#2
+25
topo Reinstate Monica
2018-03-11 13:46:24 UTC
view on stackexchange narkive permalink

Wie Sie wahrscheinlich wissen, gibt es viele nicht menschliche Geräte, die Musik abspielen. Dekkadeci hat einige historische Beispiele erwähnt; Heutzutage besteht ein typischer Workflow darin, MIDI-Daten (oder MIDI-ähnliche Daten) einem Computer oder Synthesizer zuzuführen, der die gewünschten Noten rendert.

Wenn Sie sich MIDI als eine Art Notenschrift vorstellen, lautet die Antwort auf Ihre Frage nur "... aber Geräte spielen notierte Musik - es ist sehr, sehr häufig, und ja, in vielen Fällen ist es wahrscheinlich billiger! "

Wenn Sie sich fragen, warum wir diese Geräte nicht als Standardnotation verwenden - Ein Grund dafür ist, dass dies historisch gesehen ziemlich schwierig gewesen wäre optische Musikerkennung durchführen. Heute scheint dies jedoch keine solche Herausforderung zu sein.

Ein weiterer Grund ist, dass die Notenschrift oft eine sehr vereinfachte Version dessen darstellt, was ein Spieler tun muss, um ein Stück subjektiv gut zu rendern. Es wird normalerweise erwartet, dass der Spieler die Informationen, die auf der Partitur stehen, während des Spielens ändert und ergänzt, das Timing ändert und akzentuierende Informationen und verschiedene Beugungen hinzufügt, je nach seinem eigenen Wissen darüber, welcher Spielstil angemessen wäre. Sie werden auch Spieltechniken hinzufügen, die ihrem eigenen Instrument entsprechend ihrem persönlichen Stil entsprechen.

(Es ist auch richtig, dass ein menschlicher Spieler auch Ungenauigkeiten und andere nicht absichtliche Spielartefakte wie Atem- und Saitengeräusche erzeugt, die als attraktiv angesehen werden können.)

I. Stellen Sie sich vor, es wäre möglich (wenn nicht einfach), Computer dazu zu bringen, auch diese stilistische Interpretation vorzunehmen, aber aus irgendeinem Grund sind kommerzielle Produkte, die dies tun, nicht üblich - normalerweise muss jeder Ausdruck programmiert werden, den Sie Ihrer Leistung hinzufügen möchten in explizit. Und dies kann eine Menge Arbeit sein - es ist oft einfacher (und daher tatsächlich billiger), das Stück einem erfahrenen Spieler des physischen Instruments zu geben, der ein Leben lang Erfahrung darin hat, Stücke auf stilistisch angemessene Weise zu spielen.

Ich denke, dieser Aspekt ist der Schlüssel zu Ihrer Frage - werden Maschinen, die vereinfachte Darstellungen von Musik interpretieren können, wie es ein menschlicher Spieler tut, wenn er eine Partitur liest, jemals üblich sein? Ich bin mir sicher, dass es getan wurde, und ich bin mir ziemlich sicher, dass es möglich sein würde, es gut zu machen, aber ich bin mir nicht sicher, ob es zu den Arbeitsabläufen passt, wie Musik normalerweise live und im Studio gemacht wird - wenn wir Interpretation brauchen Wir neigen dazu, uns auf einen Menschen zu verlassen, um dies zu gewährleisten.

Es gibt auch einige Gründe im Zusammenhang mit menschlichem Verhalten, warum wir die Maschinen nicht übernehmen lassen. Eine davon ist, dass die Leute lieber einen attraktiven / berühmten / gut gekleideten jungen Mann oder eine Dame (oder eine Gruppe davon) sehen, die ein Stück spielt. Oder ihre Kinder, wenn es das Schulorchester ist - es gibt viele soziale Gründe, warum die Leute das Gefühl haben wollen, dass die Musik eine Kommunikation von einem Menschen zum anderen ist.

Die andere Sache ist - Musik spielen ist normalerweise angenehm - warum also die Maschinen den ganzen Spaß haben lassen?

In Bezug auf Ihren Standpunkt zum Programmieren beim Spielen von Nuancen ist dies ein großer Teil der Erstellung einer Vocaloid-Performance, und diese sind in Bezug auf nicht-menschliche Performances ziemlich beliebt.
#3
+11
leftaroundabout
2018-03-12 06:24:45 UTC
view on stackexchange narkive permalink

Selbst wenn "genauer" eindeutig ein wünschenswertes Ziel wäre - wie würden Sie genau "definieren"? Musikalische Notation ist keine wirklich mathematisch genau definierte Syntax, obwohl sie viele mathematische Aspekte hat. Am einfachsten ist vielleicht Rhythmus / Meter: Sie können etwas wie

state⁄₄ Zeit angeben, dh Sie beginnen mit einer Zeiteinheit (ein Balken ) und teilen ist in vier gleiche Teile, die schlägt . Jeder Schlag kann weiter unterteilt werden in eine Potenz von zwei gleichen Quavern / Semiquavern / usw. oder in eine beliebige ganzzahlige Anzahl gleicher Tuplets .

Aber tut es ? Diese Beschreibung kommt sicherlich ziemlich nahe, wenn Sie Rock / Pop beschreiben möchten, aber die Notenschrift ist viel älter und während des größten Teils ihrer Geschichte - sowie für Aufführungen von romantischer, klassischer, barocker oder Renaissance-Musik heute - ist das nicht ganz so wie es funktioniert. In der klassischen Musik bedeutet ⁴⁄₄ Zeit eher nur, dass Sie vier Elemente zu einem Takt gruppieren, nicht wirklich, dass diese Beats metronomisch gleich sind. Tatsächlich wird es allgemein als falsch angesehen, wenn Sie beispielsweise alle drei Schläge eines Walzers auf dieselbe Weise spielen. Die 1 sollte nicht nur stärker sein, sondern normalerweise auch etwas später, als ein Metronom vermuten lässt. Wie viel genau? Es ist nicht definiert, bis der Dirigent / Solist / Konzertmeister urteilt.

Wenn man die Tonhöhe betrachtet, wird es noch schwieriger. Obwohl viele die 12-Edo-Stimmung (wie sie auf einem digitalen Keyboard oder einer gut gestimmten Gitarre zu finden ist) als „exakten Standard“ betrachten, ist auch dies eine relativ junge Erfindung, und anders als beim Rhythmus sollte sie nicht einmal als mathematisch angesehen werden Ideal: Die physikalische Grundlage für das Phänomen der Harmonie ist die Resonanz zwischen Obertönen , und dies wird in nur Intonation erreicht. 12-edo bietet anständige, aber hörbar unvollständige Annäherungen an die reine Intonation, und gute Sänger und Streicher können so normale digitale Keyboards / Sequenzer zuverlässig überintonieren. Sie könnten jetzt sagen, sicher können wir einen digitalen Synthesizer nur in Intonation stimmen? Nun, Sie könnten, aber hier stoßen wir erneut auf das Mehrdeutigkeitsproblem: Die meiste Musik lebt nicht in einem einzigen definitiven Just-Intonation-Raum. Sie haben eher einige Akkorde, die eine eindeutige Beziehung zur JI-Frequenz haben, aber die Beziehung zwischen verschiedenen Akkorden ist oft nicht so klar - es kann zwei oder drei verschiedene Möglichkeiten geben, wie sie als JI abgeleitet werden können. Der Versuch, jedes Intervall auf ein genaues ganzzahliges Verhältnis festzulegen, führt häufig zu lustigen Problemen wie Kommapumpen. In der Praxis müssen Sie also aufgeben, alles perfekt zu machen. Tatsächlich ist es wohl wünschenswert , einige Akkorde etwas rauer zu machen als in JI, um die dissonante Spannung einer Dominante zu erhöhen und den aufgelösten Tonic-Sound im Vergleich umso harmonischer zu machen. Pau Casals war (in) berühmt dafür, die meisten anderen Spieler tendieren dazu, sich eher an JI oder sogar an 12-edo zu halten. Wieder ist es Sache des Dolmetschers , zu entscheiden, was „perfekt“ ist.

Damit eine Maschine tatsächlich „genau“ spielen kann, müssen Sie zuerst Sie müssen definieren, welche Art von Perfektion Sie anstreben, und in vielen Fällen besteht die einzige Möglichkeit darin, das Timing und die Tonhöhe der besten menschlichen Spieler zu messen. Aber dann kann Ihre Maschine niemals genauer sein als diese menschlichen Spieler.

Computergespielte Musik bietet andere tatsächliche Vorteile, weshalb z. Spiele benutzen es. Die Dateigröße für einzelne Songs ist viel kleiner (im Vergleich zu gigantischem FLAC). Die Wiedergabe wird durch die Grenzen des aktuell verwendeten Geräts und nicht des Aufnahmegeräts begrenzt (im Vergleich zu verlustbehafteten MP3s).
#4
+6
user48816
2018-03-11 13:51:24 UTC
view on stackexchange narkive permalink

Individuelle Interpretationen neigen für mich zu etwas anderem als der Partitur, nach der sie arbeiten. Ich bin ziemlich gut darin, anhand von Partituren zu arbeiten, aber es dauert oft mehrere Doppelaufnahmen, bis ich eine Wiedergabe mache, die ich für überzeugend und sinnvoll halte. Wenn Sie die Zwischenstufen aufschreiben würden, würden sie immer noch übereinstimmen und die Partitur produzieren.

Jetzt spiele ich Akkordeon. Es ist irgendwie interessant, dass diese Unterschiede wichtiger sind, wenn das Instrument nur spärlich registriert ist, wenn die Klangveränderungen durch den Balgdruck nicht durchschnittlich ausfallen und der Balg zu einem bloßen Lautstärkeregler wird, und ich eine Flöte, Mundharmonika oder Violine kanalisieren kann / p>

Als ähnliche Beobachtung fällt es Midi-Expandern viel schwerer, eine vernünftige Solovioline zu produzieren als eine Orchesterviolinensektion. Die Artikulation wird sparsam notiert und ist dennoch ein sehr wichtiger Teil der Interpretation. Bei Soloinstrumenten sind Artikulation, Atemdruck und Bogentechnik in Verbindung mit subtilen Notengruppierungen und Akzenten ein wichtiger Teil der Aufführung.

Für Kulissen kann automatisierte Musik wie Drumcomputer, Arrangeure oder Midi-Tracks direkt aus Notationsprogrammen ein praktischer Ersatz sein. Das Ersetzen von Soloinstrumenten wirkt sich nachteiliger auf die Attraktivität des Endprodukts aus.

#5
+6
Martin
2018-03-11 22:36:43 UTC
view on stackexchange narkive permalink

Musik hat viel mehr zu bieten als nur Noten zu spielen.

  • Viel Musik erzählt Geschichten : Um die Geschichte zu erzählen, müssen Sie sie verstehen, damit Sie dem Gerät beibringen können, was sie sehen sollen die Geschichte, wie sie sich verbindet, was die großen Ideen sind.
  • Auch wenn Sie keine Geschichte an sich haben, gibt es immer noch Ideen hinter guter Musik. Diese Ideen kommen nicht nur in Noten zum Ausdruck, sondern auch darin, wie sie gespielt werden und insbesondere wie Gruppen von Noten gespielt werden. Dies wird als Phrasierung bezeichnet und ist einer der wichtigsten Aspekte beim Musikhören. Wenn die meisten Menschen unterschiedliche Interpretationen hören, denken sie oft, dass eine nicht so gut ist wie die andere, oder vielleicht ist eine sogar langweilig. Das hat oft mit musikalischer Phrasierung zu tun. Phrasierung ist nicht nur ein technischer Aspekt, sondern erfordert musikalisches Verständnis: Sie müssen wissen, was die Phrasen in einem Stück sind und was sie zusammen bedeuten, dh Sie müssen verstehen, was vor sich geht.
  • Verschiedene Stücke haben unterschiedliche Stimmungen, die sich auch auf die Phrasierung auswirken. Es gibt bestimmte Dinge, die Sie tun können, um die Stimmungen zu vermitteln, aber Sie müssen verstehen, was es ist. Es ist nicht so einfach wie in Moll zu spielen, wenn Sie traurig sind, oder in Dur zu spielen, wenn Sie glücklich sind. Es kann sogar zu Ironie kommen.
  • Live-Musik wird (stark) von der Umgebung beeinflusst, und das Feedback der Umgebung zur Musik ist einer der Gründe, warum die meisten Menschen Live-Musik mehr genießen als nur eine MP3-Datei abzuspielen. Warum? Weil die Umgebung die Stimmung aller beeinflusst, wodurch die Menschen anders spielen. Wenn Sie regelmäßig tanzen gehen, haben Sie diesen Effekt vielleicht erlebt - deshalb haben Sie einen DJ: um die Musik an die Menge anzupassen, weil sie es nicht alleine kann. Die meisten Menschen sind sich jedoch einig, dass Live-Musik sogar besser ist als der beste DJ, da die Musiker mehr tun können, um die Musik an das Publikum anzupassen, als der DJ.

Wenn Sie kein professioneller Musiker sind, werden Sie nicht viele dieser Nuancen hören und möglicherweise nicht einmal viele fühlen. Aber je mehr Sie zuhören, desto mehr lernen Sie - und desto weniger werden Sie mit Nur-Maschinen-Wiedergaben zufrieden sein.

Alles, was ich oben gesagt habe, sind Dinge, die gelernt werden können und mit der Technik zusammenhängen. Ich sage nicht, dass eine Maschine das nicht kann, ich behaupte, dass Maschinen es noch nicht können . Vielleicht werden wir in ein paar Jahren, vielleicht in dreißig Jahren, KI haben, die Musik in dem Stil macht, den Sie wollen, und daraus entstehen neue Stile.

Aber seien Sie versichert, die meiste Musik wird immer noch von Menschen gemacht.

Warum? Weil die meiste Musik im Kern ein soziales Unterfangen ist. Wir haben das Gefühl, dass es uns etwas über uns oder die Welt um uns herum sagt, wir denken, dass es uns mit anderen verbindet oder dass wir diese Menschen verstehen können. Junge Leute weinen und werden ohnmächtig, wenn sie ihren Lieblingsstar sehen. Niemand würde das für eine Maschine tun. Selbst wenn es nicht die technischen Probleme gäbe, auf die ich oben hingewiesen habe, wäre es billiger, aber niemand würde es kaufen. Es gibt einige Dinge, die Sie einfach nicht billig bekommen.

Ich fürchte, das meiste davon ist Glaube, keine Tatsache. (Und ich bin ein professioneller Musiker. Und ich mag es auch nicht.)
Was meinst du mit "das meiste davon"? Der technische Aspekt (Phrasierung, Stimmung usw.)? Ich würde sagen, das ist eine Tatsache, aber da ich kein Musikwissenschaftler bin, habe ich nur anekdotische Daten, um sie zu sichern. Der letzte Absatz? Nun, ich würde sagen, es gibt viele Beispiele dafür, z. die japanische Gruppe AKB48, deren Erfolg genau auf der Tatsache beruht, dass die Dolmetscher Menschen sind - die Musik ist ... weniger als bemerkenswert.
#6
+5
Scott Wallace
2018-03-13 16:40:11 UTC
view on stackexchange narkive permalink

Neben all den anderen Antworten: Nicht nur Menschen können ziemlich gut Musik machen, sondern viele Menschen machen lieber selbst Musik. Es ist mir eigentlich egal, ob jemand meine Musik mit Software "präziser" reproduzieren kann: Ich spiele sowieso für mich selbst und auch für andere. Ich habe nichts gegen Musik, die von Silizium interpretiert wird, aber ich bin ein Mensch, und meine Zuhörer auch, es macht Spaß, also was ist der Vorteil? Lassen Sie Computer Musik für andere Computer abspielen.

_Menschen machen lieber selbst Musik_ Tolle Antwort! Wenn ich nur die 'beste' Musik wollte, würde ich niemals eine Note spielen - ich würde Aufnahmen der Großen machen - Leute, die ich in 1000 Jahren des Übens nie erreichen konnte. Die Sache ist, ** ich spiele gerne **.
@Stinkfoot- das ist genau das.
#7
+4
Stinkfoot
2018-03-13 13:08:33 UTC
view on stackexchange narkive permalink

(Diese Antwort umfasst das, was in anderen großartigen Antworten über den menschlichen Faktor beim Musizieren gesagt wurde. Sie schaut einfach über die Details hinaus und verallgemeinert diese Konzepte. Sie nimmt eher einen "philosophischen / psychologischen" Blickwinkel als einen 'musikalischer' Winkel.)

Warum spielen Menschen, nicht Geräte, Musik?

  • Warum paaren sich Menschen mit andere Menschen und nicht ihre Autos, obwohl sich Autos viel besser bewegen als Menschen?
  • Warum fühlen sich die meisten Menschen ohne andere Menschen einsam, selbst wenn sie von „intelligenten“ Maschinen umgeben sind, die viel „intelligenter“ sind 'und mehr zuverlässig als andere Menschen?
  • Warum schätzen Menschen (hoffentlich ..) ihre Freunde mehr als ihre Smartphones, obwohl sie ihre Telefone ständig benutzen und pflegen?
  • Was machen die meisten Leute spielen lieber Schach mit einem menschlichen Gegner als mit einem Computer, obwohl der Computer nie müde wird, nie schummelt und immer in der Stimmung für ein Spiel ist Ich?
  • Warum verwenden so viele Partys und Veranstaltungsorte eine Live-Band anstelle eines DJs oder einer Musikbox? (Vielleicht ist das ein Teil Ihrer Frage ...)
  • Warum spielen Musiker lieber mit anderen Musikern als mit einem Klick-Track oder MP3s?
  • ... Wir könnten dieser Liste weiterhin unzählige Elemente hinzufügen.

Die Antwort auf alle diese Fragen, einschließlich Ihrer, ist dieselbe:

Menschen, die Mensch sind, beziehen sich besser auf andere Menschen und ihre Handlungen als auf Maschinen; Menschen bevorzugen in der Regel Personen gegenüber Maschinen für ihre Interaktionen und ihre Kameradschaft. Maschinen sind ... Maschinen , keine Menschen. Sie handeln, reagieren oder denken nicht wie Menschen.

Die Einzelheiten, warum Menschen in Bezug auf Musik (und alle anderen Aktivitäten) so sind, können aufgeschlüsselt und mit unzähligen Details erklärt werden - einige dieser Details sind in den veröffentlichten Antworten gut artikuliert. Dieser grundlegende Punkt geht jedoch über bestimmte Details hinaus und kann möglicherweise überhaupt nicht vollständig und genau quantifiziert oder detailliert werden, obwohl praktisch alle Antworten unterschiedliche Aspekte hervorgehoben haben - er ist grundsätzlich nicht greifbar.

Ein ähnliches Verhalten findet sich in Die meisten anderen Arten und vielleicht sogar bestimmte leblose Objekte - das liegt in der Natur der Sache.

#8
+3
gnasher729
2018-03-11 22:47:36 UTC
view on stackexchange narkive permalink

Es ist absolut machbar und es ist geschafft. Es gibt eine Menge Software, mit der Sie Musik in Notenschrift eingeben und die Musik über ein über MiDi angeschlossenes Gerät abspielen können. Normalerweise ist das Gerät ein Synthesizer; Es ist durchaus möglich, ein Klavier, eine Kirchenorgel oder viele andere Geräte anzuschließen, nur ein mechanisches Problem. Und das Lesen Noten von Noten ist nicht so schwierig.

Warum dies keine besonders schöne Musik hervorbringt, liegt an den Einschränkungen der Noten. Wenn Sie einem Pianisten Noten geben, spielt er nach einiger Übung nicht , was die Noten sagen. Sie werden diese Note etwas lauter spielen, diese Note etwas schneller, und es gibt eine gewisse Möglichkeit, den Klang jeder Note zu ändern (nicht so sehr auf einem Klavier, viel mehr auf anderen Instrumenten). Und dieser Unterschied zwischen gespielter Musik und Noten ist beabsichtigt (für einen guten Musiker) und verbessert das gesamte Hörerlebnis.

Die andere Frage lautet: Warum? Wenn es in einem Konzertsaal ein Konzert mit klassischer Musik gibt, würde ich Geld bezahlen, um Musik zu hören (a) gespielt von 50 echten Musikern, (b) gespielt von einem Computer und 50 Musikgeräten oder (c) aufgenommen auf einer CD und auf einigen guten Lautsprechern wiedergegeben?

#9
+3
supercat
2018-03-13 01:23:40 UTC
view on stackexchange narkive permalink

Ein erfahrener Musiker, der ein typisches Instrument spielt, manipuliert es auf viele subtile Arten, um das beabsichtigte musikalische Ergebnis des Komponisten zu erzielen. Während es für jemanden an einem Computer möglich wäre, alle diese Manipulationen manuell festzulegen, kann es Stunden dauern, bis alle erforderlichen Anpassungen vorgenommen sind, um eine Minute perfekt klingender Musik zu erzeugen. Im Gegensatz dazu kann ein Musiker oder eine Gruppe von Musikern, die gerade aufgenommen werden, in nur 60 Sekunden eine Minute nutzbarer Musik produzieren.

Ein weiterer wichtiger Punkt. Vielleicht ist es nur Aberglaube von meiner Seite, aber es ist auch etwas Besonderes für mich an einer Live-Performance, bei der die Musik genau hier und jetzt gemacht wird.
@ScottWallace: Das kann es definitiv geben, besonders bei einer Gruppe, die sich regelmäßig trifft. In einem sehr realen Sinne können sich die Menschen zusammen als "Instrument" formen, das vom Leiter / Regisseur gespielt wird. Ich bin mir nicht sicher, inwieweit professionelle Gruppen diesen Punkt mit Stücken erreichen, die sie zum Zweck einer einmaligen Aufnahme lernen und möglicherweise nie wieder spielen, im Vergleich zu Gruppen, die Stücke zu einem regulären Repertoire hinzufügen.
ja. Leider kennen wir alle Beispiele für Live-Konzerte, bei denen es offensichtlich ist, dass die Musiker erst zwei Wochen zuvor zusammengekommen sind und vielleicht zweimal geprobt haben. An diesem Punkt wird die Unmittelbarkeit der Live-Performance peinlich.
@ScottWallace: Das hängt mit einer Unterscheidung zusammen, die ich von jemandem gehört habe: der Unterscheidung zwischen * Proben * und * Üben *. Die Probe konzentriert sich auf das Lernen einer bestimmten Gruppe, während sich das Üben auf allgemeinere Aspekte der Leistung konzentriert. Einige Gruppen können beschließen, ein Musikstück vor Ort ohne * jede * Probe zu spielen und es festzunageln, wenn alle Mitglieder genug * Übung * haben, um zusammenzuarbeiten.
#10
+2
Stephen Hazel
2018-03-11 20:13:05 UTC
view on stackexchange narkive permalink

Geräte funktionieren gut mit Zeitgenauigkeit und schlagen alle Noten.

aber ein Mensch spielt jede Note mit einer bestimmten Lautstärke. und wahrscheinlich jedes Mal ein wenig anders.

Die einzige Möglichkeit, diese Auswahl von Volumes für jede Notiz an den Computer zu senden, besteht darin, sie live aufzuzeichnen. (oder Schritt, was auch immer).

Diese Auswahl individueller "Geschwindigkeiten" lässt einen von Menschen gespielten Song erstaunlich klingen. Außerdem wird ein Mensch das Tempo stellenweise nur geringfügig variieren.

Techno und EDM hören - DAS kann ein Computer spielen. Es wird schnell langweilig. Hören Sie sich klassische Klavier- oder 70er-Jahre-Songs an, in denen Menschen die Musik tatsächlich spielten. Man kann sagen, dass Menschen es besser machen. und wird es immer.

#11
+2
Laurence Payne
2018-03-12 03:40:24 UTC
view on stackexchange narkive permalink

Aufgenommene Musik hat die Live-Performance in enormem Maße überholt. Bisher gibt es normalerweise EINIGE menschliche Eingaben und die Computer werden verwendet, um die ursprüngliche Leistung zu korrigieren und zu verbessern. Aber ich befürchte, die Leute, die selbstgefällig darauf bestehen, dass Technologie niemals einer menschlichen Leistung eines großen Künstlers gleichkommt, werden sich irgendwann so albern fühlen, wie diejenigen, die darauf bestanden, dass ein Schachcomputer niemals einen Großmeister schlagen würde.

Sie können Betrachten Sie dies als aufregend, Sie können es als traurig und erschreckend betrachten.

Der große Unterschied zwischen Schach und Musik besteht darin, dass erstere klare, mathematisch aussagekräftige Gewinnbedingungen haben. Musik nicht. Es wird also immer die Meinung sein, ob ein Computer besser spielt als der beste Mensch, obwohl Computer für jedes Kriterium, das als perfekt angesehen wird, zunehmend mühelos gewinnen werden.
@leftaroundabout - Hervorragender Punkt. StarTreks Commander Data, ein Android, wurde so programmiert, dass er den Stil von 300 großen Geigern perfekt nachahmt. Aber er hatte keinen eigenen Stil, weil er kein Mensch war - etwas, das er oft beklagte.
@Stinkfoot - yep. Aber vielleicht könnte Commander Data 2.0 seinen eigenen Stil entwickeln. Ich weiß nicht, ob wir jemals so weit kommen werden oder ob wir sollten, aber ich sehe keine theoretischen Hindernisse für die Leistung von Hardware und Wetware.
@ScottWallace - Ich glaube nicht an "Wet-Ware" - wir sind Menschen, keine "nassen" Computer. Siehe die Schriften des Physikers Sr. Roger Penrose - Kaisers neuer Geist, Schatten des Geistes ...
Es gibt Philosophie und Glauben. Aber wenn die Ergebnisse so ähnlich werden, dass niemand sie auseinanderhalten kann ... Kennen Sie die James Blish-Kurzgeschichte 'Ein Kunstwerk'? Es prophezeit, dass mechanisch produzierte Kunst minderwertig sein wird, aber akzeptiert wird. Ich bin mir nicht sicher, ob es minderwertig sein wird.
Wer weiß? Als Mensch fürchte ich, dass ich immer zugunsten meiner Mitmenschen voreingenommen sein werde. Aber was passiert, wenn die Roboter als Menschen durchgehen können?
@Stinkfoot - vielleicht müssen wir uns darauf einigen, dass wir uns nicht einig sind. Im Moment ist es sicherlich richtig, dass es keinen Vergleich zwischen Menschen und allem gibt, was Computer tun können, um beispielsweise ein Jazz-Riff zu improvisieren. Und Computer könnten niemals mit uns konkurrieren können. Auf jeden Fall bin ich für eine menschliche Teilnahme an der Musik.
@ScottWallace _Aber was passiert, wenn die Roboter als Menschen passieren können? _ - "Als Mensch passieren" macht es nicht menschlich. Meine Philosophie / Meinung / Überzeugung ist, dass sich biologische Einheiten von Natur aus von mechanischen / elektrischen unterscheiden. Es geht nicht nur darum, etwas "nass" oder "trocken" zu machen. Ich bin alle für die Teilnahme des Menschen an der Musik - das ist eine sichere Position. :) :)
@LaurencePayne - Ich bin der Meinung (sei es eine Frage des Glaubens oder der Vernunft ...), dass mechanisch produzierte Kunst ein Oxymoron ist. Es ist nur eine Nachahmung von Kunst, wenn sie mechanisch hergestellt wird - es ist keine Kunst. Was ist der Unterschied? Der Unterschied besteht darin, dass kein Picasso oder Beethoven oder Charlie Parker jemals aus Robotern und Computern entstehen wird, die sich gegenseitig programmieren, um Musik zu malen oder zu komponieren oder Musik zu spielen, da sich ihre Verfahren zur Synthese von "Kunst" grundlegend von denen von Menschen unterscheiden, die Kunst schaffen **, nicht synthetisieren .. _Evolution_ könnte auf diese Weise möglich sein, aber nicht _ ** Revolution ** _.
@Stinkfoot - wir können uns durchaus darauf einigen, die Teilnahme des Menschen an der Musik zu fördern.
#12
  0
MickeyfAgain_BeforeExitOfSO
2018-03-12 17:12:13 UTC
view on stackexchange narkive permalink

Geschriebene Musik ist und war nie mehr als eine Annäherung an die Emotionen, die der Komponist vermitteln wollte. Verschiedene Musiker spielen / spielen ein Stück zumindest geringfügig anders, und Sie als Zuhörer werden einige davon mehr oder weniger genießen als andere. Ohne den emotionalen Inhalt, den sowohl der Darsteller (als auch der Zuhörer) bereitstellen, wären diese Schwingungen keine Musik, sondern lediglich Geräusche.

_diese Schwingungen wären keine Musik, sondern nur Lärm_ - es gibt viele synthetische Musik, die kein 'Lärm' ist. Es ist normalerweise nicht so befriedigend wie handgefertigte Musik.
#13
  0
elliot svensson
2018-03-29 01:30:15 UTC
view on stackexchange narkive permalink

Die Automatisierung ersetzt jeden Tag Menschen bei sich wiederholenden Aufgaben, von Berechnungen (verwenden Sie stattdessen Excel!) über das Waschen von Autos bis hin zu Empfehlungen für eine gute Pizzeria. Das Lesen der Notizen ist eine sich wiederholende Aufgabe: Warum verschwenden Menschen ihr kreatives Potenzial und ihren gesunden Menschenverstand, wenn es darum geht, Notizen zu lesen und präzise wiederzugeben, was ihnen jemand anderes gesagt hat?

Gute Frage! Das liegt daran, dass Musik eine Form der Kommunikation ist und es keinen Spaß macht, mit einem Roboter zu kommunizieren.

Ich habe gerade die folgende Definition für Musik geschrieben, die ich jetzt hier über Musik verkaufe .stackexchange.com:

Musik ist, wenn eine Person Ton verwendet, um andere Ideen als die Sprache zu kommunizieren.

Vielleicht stellen Sie den Wert des Lernens der Reproduktion in Frage geschriebene Musik auf Ihrem Instrument mit Genauigkeit und Präzision. Mach dir keine Sorgen! ... das hat viel Wert: Ohne Genauigkeit und Präzision auf Ihrem Instrument können Sie musikalische Ideen weder als Solist noch in einem Ensemble klar kommunizieren.

Wenn Sie die Ideen nicht klar kommunizieren können, dann Sie kann die Musik nicht machen. Und das bringt Sie aus der Gleichung heraus!

Ein Instrument zu lernen ist schwer, wie Malen zu lernen, Fahrrad zu fahren, zu sprechen oder zu gehen ist schwer. Aber es ist eine große Belohnung, wenn Sie Ihr Instrument musikalisch einsetzen, sobald Sie die anfänglichen Hürden überwunden haben. Gib nicht auf!

#14
  0
skinny peacock
2018-04-14 22:51:02 UTC
view on stackexchange narkive permalink

Meine Antwort ist kurz und einfach. Menschen haben die Fähigkeit, sich Dinge vorzustellen und zu hören, die wir als Musik bezeichnen können. Dinge, die nichts dagegen haben, können das nicht.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...