Der Live-Modus ist der Problemfall (die aktive Spur in Logic), alle anderen Spuren werden automatisch vorberechnet so gut es eben parallel geht. Da ist Logic sehr effizient. Der Live Fall ist z.B. in MainStage der einzigste Fall, weil man eben immer live spielt. Also zurück zur Live Erklärung:Häschen hat geschrieben: ↑15 Mai 2020 - 11:47Ist es tatsächlich unmöglich einen "Super Live Modus" zu schaffen, in dem man beispielsweise bestimmen kann: 4 Kerne sollen wie EINER funktionieren?
Oder zu sagen der "Super Live Modus" funktioniert nur auf einer LIVE Spur. Kern 1 übernimmt Plugin Slots 1-3, Kern 2 die Slots 4-6 etc.
Wenn man von einem Kern auf den anderen überreichen würde, was ja im Audio Fluss bei Plugins tatsächlich passiert, würde man so die Parallelisierung nicht umgehen können?
In fast allen Fällen sind die Effekte extrem "billig" (zumindest auf heutigen Rechnern). Der Overhead um parallel zu rechnen, gerade bei kleinen Buffergrößen, ist stets größer als die benötigte CPU Leistung zum Berechnen des eigentlichen Effektes. Das Plugin mit der größten CPU Last ist fast immer ein Software Instrument und davon gibt es pro Channel Strip nur eins. Ich habe noch nie einen Fall gesehen, wo die CPU Last eines Channel Strips sinnvoll automatisch auf mehrere CPUs aufgeteilt werden kann – und wir können die CPU Last pro Plugin messen um das zu testen. Klar, es mag Fälle geben, wo das Instrument trivial, aber ein Effekt extrem viel kostet, aber diese teuren Effekte können in aller Regel auf einem Bus geschoben werden und werden dann eh anders berechnet. Für ein Musikprogramm ist es nicht sinnvoll dem User zu viel Kontrolle über die interne CPU Lastenverteilung zu geben – es geht quasi immer in die Hose. Am Ende ist die Stabilität immer wichtiger, als die maximale Performance.
Ein Effekt von Parallelisierung zudem ist eine Verlängerung der Latenz, hier also eine Verdoppelung (bei 10 Plugins in Reihe auf unterschiedlichen CPUs wäre das natürlich sogar eine Verzehnfachung). Diese Latenz kann man auch nicht kompensieren, denn in der Live-Spur ist das niemals möglich – sie ist ja eben live. Teilweise kann man etwas tricksen, denn wenn man die CPU Last pro Kern reduzieren kann, kann man einen Punkt erreichen, wo man die Buffergröße reduzieren kann, was die Latenz der Parallelisierung kompensieren kann. Das ist eindeutig ein sehr fortgeschrittenes Setup und nur für große Produktionen sinnvoll, wo man auf ganz spezielle konstante Fälle optimiert (Musicals mit stets gleichem Setup für Monate machen das, i.d.R. um die Stabilität des Setups zu maximieren – die optimieren für die Zeit der Proben und fassen dann nix mehr an). Auf einem Mac Pro kann man die Buffergröße häufig auf 32/64 reduzieren und somit ist die Latenz des Systems kein Problem mehr und die CPU Last ist auch kein Thema. AppleCare hat mit meiner Hilfe vor 2 Jahren die Artikel verfaßt: MainStage 3: Reducing latency in MainStage 3 https://support.apple.com/en-gb/HT202982, der im wesentlichen auch auf Logic zutrifft.
Übrigens: ein Adaptive Limiter mit 100ms wird in einer Live-Spur/Channel Strip natürlich IMMER das Audiosignal um 100ms verzögern, das ist live logischerweise nicht kompensierbar.