
mir wirklich leid, dass unser Projekt in letzter Zeit von so vielen Rückschlägen begleitet wurde. Je weiter Zeal X-2 wächst, desto fehleranfälliger wird es – und je mehr Zeit vergeht, desto häufiger tauchen unerwartete Probleme auf.
Auch wenn Roman inzwischen zurück ist, hat uns der Rückschlag im musikalischen Bereich fast vier Monate gekostet. Ursprünglich war ein externer Komponist mit an Bord – doch aus persönlichen und leider auch unprofessionellen Gründen ist diese Zusammenarbeit abrupt gescheitert. Ich möchte bewusst keine Namen nennen, weil ich solchen Menschen keine Plattform bieten will. Statt lange darüber zu diskutieren, habe ich beschlossen, die Musik selbst in die Hand zu nehmen – auch wenn es mich viel Zeit und Kraft gekostet hat.
2. Soundtrack & Dank an die Community
Das verlorene Geld ist mir dabei gar nicht so wichtig – viel mehr schmerzt die Zeit, die ich investiert habe. Nächtelang habe ich komponiert, gemischt, getüftelt. Und trotzdem möchte ich euch als kleine Entschuldigung – und als Zeichen meiner Wertschätzung – zumindest eine erste Kostprobe des Soundtracks geben.
Jede einzelne Sekunde, die ich in dieses Projekt stecke, kommt aus tiefstem Herzen.
Modelle, Code, Musik – ich habe all meine Zeit und Energie hineingesteckt.
Inspirationen für den Soundtrack
Der Soundtrack ist stark von den Spielen meiner Kindheit geprägt – darunter Serious Sam (Musik von Damjan Mravunac), Mega Man, Castlevania und Arcade-Klassiker
wie Cho Ren Sha 68k. Für mich sind das die Mozarts meiner Jugend. Und ich wette: Selbst wenn ich irgendwann mal an Demenz leiden sollte, würde ich diese Melodien noch summen – sabbernd, aber mit ganzem Herzen.
QuoteWas mich bei der Produktion überrascht hat, waren die Preise digitaler Instrumente. Manche VSTs kosten fast so viel wie echte Gitarren – aber sie eröffnen kreative Möglichkeiten, die ich nicht mehr missen möchte.
4. Testhörer & Qualitätssicherung
Ein weiterer wichtiger Aspekt während der Entstehung des Soundtracks war das Feedback meiner Testhörer. Nach stundenlangen Sessions im Mixing oder Komponieren wird das Gehör irgendwann betriebsblind – man kennt das auch vom Zeichnen: Nach stundenlanger Arbeit verliert man den objektiven Blick (oder eben das Gehör) für das, was man da gerade geschaffen hat. Oft dauert es ein bis zwei Tage, bis sich das Gehör normalisiert und man wieder mit frischen Ohren hören kann.
Dank meiner Testhörer konnte ich diesen Effekt deutlich abkürzen: Sie haben die Stücke frühzeitig unter die Lupe genommen, auf kleine Unsauberkeiten hingewiesen und mir damit geholfen, gezielt nachzubessern – bevor sich Fehler einschleifen konnten.
Ein riesiges Dankeschön an Ako, Tasso und Anusha – eure detaillierten Analysen und ehrlichen Rückmeldungen waren für mich extrem wertvoll. Ohne euch wäre die Qualität des Soundtracks nicht da, wo sie heute ist.
5. Dank an LEGO / Cosplay-Cover
Ein ganz besonderer Dank geht außerdem an LEGO, eine gute Freundin, großartige Cosplayerin und Maschinenbauerin. Sie hat das neue Cover des Soundtracks mitgestaltet – ein echter Gänsehautmoment für mich. Solche Begegnungen geben mir immer wieder neue Kraft, weiterzumachen.
6. Schlusswort
Trotz aller Hürden hat mich dieser Soundtrack stärker gemacht – musikalisch wie menschlich. Danke an alle, die mich auf diesem Weg begleiten.
– Henrik
Einstieg in DIY-Motion-Capture mit Limitierungen
Der Wunsch, eigene Animationen auf Basis echter Bewegungen umzusetzen, führte mich zu einem eher ungewöhnlichen Gerät: der guten alten Kinect. Ursprünglich für die Xbox 360 gedacht, lässt sich die Kamera mit ein wenig technischem Aufwand als kostengünstiges Motion-Capturing-System nutzen – zumindest im Ansatz.
Ich wollte herausfinden: Wie komplex ist es wirklich, eigene Bewegungen aufzunehmen und in Blender zu übertragen? Spoiler: Es ist möglich – aber nicht ohne Frustpotenzial.
Die Einrichtung war machbar:
-
- Treiber, Middleware und Blender-Bridge aufsetzen
- Einfache Bewegungsabfolgen aufnehmen
- Rigging und Retargeting aufs eigene Modell übertragen
Das Ganze funktioniert – aber: Viele Bewegungen müssen in Blender nachbearbeitet, gesäubert oder komplett ersetzt werden, um wirklich brauchbar zu sein. Gerade bei schnellen Bewegungen oder bei komplexeren Körperhaltungen wird es ungenau.
Das große Problem: Qualität vs. Aufwand
Die größte Herausforderung ist nicht die Technik, sondern das Feintuning:
- Ungenaue Gelenkpositionen
- Clipping oder steife Übergänge
- Hoher Zeitaufwand für Nachjustierung mit Keyframes
Trotzdem ist der Kinect-Ansatz ein spannender Einstieg für alle, die sich nicht gleich ein Studio-Setup leisten können – gerade für Prototypen, FX oder Hintergrundanimationen.
Fazit: Lernkurve mit Potenzial
Die Kinect ist keine Wunderwaffe – aber als Werkzeug zum Lernen und Experimentieren definitiv wertvoll.
Mit zusätzlichem Know-how in Blender-Animation, Constraints und Bone-Tuning kann man auch aus eingeschränktem Material ausdrucksstarke Bewegungen entwickeln.
Ich werde weiter testen – und vielleicht irgendwann eine Hybridlösung entwickeln: Mocap + Handkeyframes.
Denn am Ende zählt nicht das Tool – sondern die Vision dahinter.
Level-Patch-Update – Performance kostet Zeit
Auch an dieser Stelle muss ich mich einmal mehr entschuldigen: Der nächste Patch verzögert sich. Aber ich möchte euch nicht einfach nur um Geduld bitten – sondern einen echten Einblick geben, warum das so ist und was genau im Hintergrund passiert.
Was wurde gemacht?
Ich habe sämtliche Level neu auf den Nexus gepatcht – das ist der interne Speicherbereich der Engine, der sowohl Framerate als auch Ladezeiten maßgeblich beeinflusst.
Dabei geht es nicht nur um Code – auch Texturen, Schatten, Modelle und Beleuchtung greifen auf diesen Speicher zu. Um die Performance zu verbessern, musste ich einen komplett neuen Weg gehen.
Licht-Baking mit Blender
Die bisher genutzte engineinterne statische Beleuchtung musste ich entfernen – sie sah zwar gut aus, belastete aber den Nexus massiv.
Da ich nun echte Modelle im Level benutze, funktioniert die interne statische Lichtfunktion nicht mehr sauber.
Zwar bietet Acknex eine dynamische Beleuchtung für Modelle – aber diese ist auf 8 Lichtquellen begrenzt. Die sind a llerdings bereits fest verplant.
Also blieb nur ein Weg: Alle statischen Lichtquellen in Blender vorrechnen.
Das bedeutet:
- Jede Fläche erhält eine eigene Textur mit vorgebackenem Licht
- Das bisherige Kachelmuster verschwindet
- Die Levels laden länger – laufen aber deutlich flüssigerboard.egammo.eu/index.php?attachment/25/