menu
 

Philosophie de conception et implémentation du système de musique interactive dans Condor Heroes (射雕)

Contenu sonore pour les jeux vidéo

Prologue
Introduction
Aperçu du système de musique
Contenu
    Synchronisation des PNJ avec la musique
        《一剪梅》Lecture aléatoire des poèmes chantés
       
《望海潮》Compagnon fredonnant une mélodie scénique pendant les pauses ou en synchronisation avec la musique
    Synchronisation des poèmes chantés 3D avec la bande musicale 2D
    Synchronisation de la bande musicale et des soutras 3D des PNJ
    Évolution de la musique scénique en temps réel
    Conception des transitions entre les différentes régions de musique scénique en évitant les changements fréquents et gênants
        Musique scénique et gestion des silences
Détails techniques
    Organisation du projet Wwise
    Groupes de musiciens
    Musique de combat
    Connecter les Conductors au monde
Épilogue

Prologue

« Comment puis-je renforcer l'immersion et le réalisme dans les jeux vidéo, au-delà du simple usage d'une bande musicale en fond sonore ? » En tant que superviseur musical et compositeur principal sur ce projet, c'est avec cette question en tête que j'ai orienté mes recherches dès le début du projet.

Introduction

Condor Heroes (射雕) est un jeu MMO en monde ouvert dans un style chinois, se déroulant à l'époque de la dynastie Song (960-1279), et dont l'histoire est inspirée du roman d'arts martiaux de Jin Yong (Louis Cha) « La Légende du héros chasseur d'aigles ». Selon l'histoire de la Chine, la dynastie Song fut une période prospère, marquée par un essor économique et culturel ainsi qu'un développement notable de la diversité musicale, dont les formes les plus populaires étaient les spectacles de groupes folkloriques traditionnels, organisés dans des lieux d'art populaire appelés Goulan Washe (勾栏瓦舍).

Par ailleurs, selon les recherches, les mètres poétiques chinois (词牌 : les vers respectent une structure et une prosodie fixes régissant rythme et phonologie) se prêtent davantage à la mise en musique que la poésie chinoise ancienne. À l'époque, ils étaient couramment utilisés comme vecteurs de promotion culturelle, les paroles évoquant souvent la situation politique, l'esprit du temps et les sentiments de la société.

img1

Groupe de musiciens folkloriques tiré du jeu, jouant des poèmes chantés chinois

Et si je faisais « revivre » ces groupes folkloriques traditionnels en les intégrant comme musique 3D, en leur dédiant des scènes spécifiques dans le jeu et en leur composant de nouvelles œuvres basées sur des mètres poétiques (词牌) correspondant à l'époque et aux récits du jeu ? Cela permettrait de recréer le quotidien des civils d'autrefois, offrant ainsi aux joueurs et aux personnages du jeu une immersion plus profonde, comme s'ils revivaient véritablement le passé.

Voici l'arrangement final des instruments chinois utilisés (de gauche à droite, dans l'image ci-dessus) : 筚篥 Hichiriki (Bili), 箫 Xiao, 小镲 Petites cymbales, 古琴 Guqin, 琵琶 Pipa, 缶 Fou, 大鼓 Grand tambour, 碗琴 Wanqin, 拨浪鼓 / 小笛 Hochet-tambour / petite flûte (joués par les jumelles), 碰铃 / 古筝 Clochettes / Guzheng (joués par les jumeaux), 尺八 Shakuhachi, 方响 Fangxiang, 笙 Sheng, 檀板 Tanban, parfois accompagnés de 箜篌 Konghou et 三弦 Sanxian.

Tous ces instruments sont joués en 3D avec des courbes d'atténuation naturelles simulées par Wwise ; ainsi, pour les joueurs qui se retrouveraient égarés, cette musique pourrait servir de guide dans un système de « navigation sonore » ou simplement comme un easter egg pour ceux qui la découvriraient par hasard.

Une fois la conceptualisation de ce groupe de musique folklorique terminée, une question essentielle s'est posée concernant la manière dont ces mètres poétiques chantés allaient être intégrés dans le jeu et la logique de lecture à adopter. Vous vous posez peut-être certaines questions. Par exemple :

  • Ces poèmes chantés en 3D risquent-ils d'entrer en conflit avec la logique de lecture de la bande musicale en 2D ?
  • Que se passe-t-il avec la bande musicale lorsque les joueurs s'approchent de ces groupes de musiciens ?
  • Etc.

Dès les premières étapes de développement du jeu, j'ai travaillé sur la conception d'un système de musique global et j'ai choisi de m'éloigner des compositions classiques, des règles de lecture habituelles et des formes d'expression conventionnelles de la musique dans les jeux vidéo chinois traditionnels.

Cet article débutera avec les poèmes chantés en 3D mentionnés précédemment. Il se focalisera principalement sur les fonctionnalités suivantes de notre système de musique interactive, et détaillera le travail technique de notre programmeur audio.

  • Synchronisation des poèmes chantés 3D et des fredonnements aléatoires 3D des PNJ.
  • Synchronisation des poèmes chantés 3D avec la bande musicale 2D.
  • Synchronisation de la bande musicale avec les chants de soutras 3D des PNJ.
  • Évolution dynamique de la musique scénique en temps réel.
  • Conception des transitions entre les différentes régions de musique scénique, évitant des changements trop fréquents et gênants.

Aperçu du système de musique

Après une première exploration, il est devenu évident que l'approche typique de Wwise, consistant à utiliser un unique Event de musique contrôlé par des States globaux ou des Switches, serait trop rigide pour nos besoins qui incluaient les éléments suivants :

  • Il ne devrait pas y avoir de frontière nette entre la musique diégétique et la musique non diégétique. La première peut devenir la seconde et inversement. De plus, certains éléments d'un thème musical peuvent être diégétiques tandis que d'autres ne le sont pas ; ces éléments eux-mêmes peuvent apparaître et disparaître de façon dynamique en fonction de la conception du niveau, du code du jeu ou même d'une séquence cinématique.
  • Le jeu propose un monde vaste et détaillé, rempli de personnages, de lieux et de rencontres. Le système de musique doit pouvoir donner la priorité à l'un ou l'autre selon la situation, programmer des moments de silence et gérer ce qui se passe lors des pauses.
  • Le jeu étant basé sur un livre, la narration y occupe une place centrale. Il comporte de nombreuses séquences linéaires et cinématiques qui doivent être synchronisées avec la musique, parfois sur un rythme précis.

Il est évident que cela nécessite la prise en charge d'au moins plusieurs émetteurs 3D de musique, de callbacks, d'un système de priorisation et, en plus de tout cela, d'un grand nombre d'outils d'édition. Tout cela a été implémenté dans ce que nous avons appelé un « Conductor System » (système de chefs d'orchestre), composé de trois éléments principaux :

  1. Un « World Conductor » (chef d'orchestre du monde). Il s'agit d'une entité globale qui met en file d'attente, établit des priorités et programme la lecture des thèmes musicaux en fonction d'ensembles de règles définies dans des tables de données. Par exemple, les musiques scéniques ont généralement une priorité plus faible que les autres musiques et sont suspendues pendant les combats. Le World Conductor peut également transmettre des callbacks musicaux en dehors du système de musique afin de synchroniser des éléments de gameplay (par exemple lors de cinématiques).
  2. Des « Music Conductors » (chefs d'orchestre de musique) qui gèrent le flux de contrôle du thème musical et coordonnent une ou plusieurs sources musicales jouant simultanément. Ils peuvent également maintenir un état en interne si nécessaire. Par exemple, nous pouvons enregistrer la dernière position de lecture d'un thème musical afin de la reprendre plus tard (dans le cas où un thème ayant une priorité plus élevée aurait été déclenché entre-temps).
  3. Les « Music Sources » (sources musicales) sont des entités qui exécutent les commandes d'un Music Conductor et les transposent en appels API de Wwise. Chaque source peut être placée à un endroit arbitraire dans le monde du jeu. La première Music Source d'un Conductor est toujours considérée comme une « piste guide » - elle est utilisée pour collecter les callbacks, et toutes les autres sources sont synchronisées avec elle si nécessaire.

Il s'agit d'une architecture simple en strates, où les entités de niveau inférieur ne connaissent pas celles de niveau supérieur. De plus, les Music Conductors et les Music Sources devaient avoir leurs interfaces Blueprint respectives. Cela a généré quelques problèmes de configuration au départ, mais nous a ensuite permis d'ignorer complètement la logique de lecture de la musique, tout en restant intégrés au mécanisme de priorisation et de programmation du World Conductor. Par exemple, à un moment donné, nous avons voulu ajouter un instrument virtuel avec lequel les joueurs pourraient interagir et jouer une mélodie harmonisée avec un thème musical en cours de lecture. Tout ce que nous avons eu à faire a été de créer une Music Source spécifique ne jouant pas de musique à proprement parler, mais capable de reconnaître l'accord du thème musical en cours de lecture auquel elle appartenait, et qui contenait une heuristique simple permettant de déclencher des notes aléatoires mais en harmonie.

Le comportement du système de musique est configuré via les assets et tables de données d'Unreal. Comme le World Conductor sépare les détails de l'implémentation du code du jeu, l'intégration avec les cinématiques et les systèmes de dialogue, ainsi que l'implémentation de l'interface utilisateur de debug et l'ajout d'acteurs de délimitation de niveaux ont été un jeu d'enfant. La mécanique de States du World Conductor gère dynamiquement les transitions, quel que soit l'endroit d'où provient la requête de contrôle musical. L'un des systèmes intéressants que nous avons développés est ce que nous avons appelé le « Conductor Sequencer » (Séquenceur de chef d'orchestre). Il permet de séquencer les commandes envoyées au World Conductor à la manière d'un tracker, et nous l'avons largement utilisé dans des situations scénarisées où la musique devait suivre un flux de contrôles strict.

Contenu

img2

Synchronisation des PNJ avec la musique

《一剪梅》Lecture aléatoire des poèmes chantés

Ce texte poétique utilise des descriptions scéniques pour évoquer des émotions. Il dépeint des scènes imprégnées d'une profonde nostalgie, à la fois vibrantes et rustiques. Voici quelques éléments clés concernant la conception sonore :

  • Facile à chanter et entraînant (pour les civils).
  • Les enfants PNJ peuvent chanter en chœur.
  • Éviter la complexité des textures instrumentales chinoises, privilégier la simplicité.

Le fredonnement des joueurs et des PNJ est déclenché de manière aléatoire et synchronisé avec le poème chanté. Nous avons demandé à nos acteurs vocaux d'interpréter ces chants.

Dans la capture vidéo ci-dessous, vous pouvez entendre que nous avons positionné les instruments et les voix à différents endroits (visibles dans la capture d'écran) afin de simuler l'idée que « Toutes les familles habitant dans cette zone de jardin se réunissent souvent pour jouer des instruments et chanter ensemble » ; même les enfants (PNJ) fredonnent en jouant avec leurs cerfs-volants. De plus, afin de refléter le caractère culturel de cette musique transmise de génération en génération, cela a permis d'imprégner cette zone d'un charme rustique.

img3

En raison de la proximité des différents modèles de personnages, les joueurs peuvent entendre des strates musicales synchronisées provenant de différentes directions, quels que soient leurs déplacements.

《望海潮》Compagnon fredonnant une mélodie scénique pendant les pauses ou en synchronisation avec la musique.

Dans la plupart des cas, le PNJ qui suit le joueur n'interagit que pendant les moments de combat. Cependant, dans ma philosophie de conception, le PNJ qui accompagne le joueur reste un enfant tout au long du jeu, et il fredonne occasionnellement des airs et se montre parfois espiègle ; j'ai donc décidé de lui insuffler un peu de « spiritualité » (juste pour lui donner une petite touche de vie).

Dans la capture de jeu ci-dessous, vous pouvez entendre le frère fredonner de manière aléatoire des bribes de poèmes chantés, tout en restant parfaitement en rythme.

img3.5

Synchronisation des poèmes chantés 3D avec la bande musicale 2D

Dans une ville, un groupe peut jouer une chanson (par exemple 《无题》), synchronisée avec la bande musicale de la région. Cependant, cela soulève un problème potentiel : ne risque-t-elle pas d'entrer en conflit avec la bande musicale ?

Pour cette situation, j'ai suivi les principes de conception suivants :

  • Limiter la durée de lecture des groupes de musiciens jouant des poèmes chantés.
  • Faire en sorte que la bande musicale soit jouée en parfaite synchronisation avec les poèmes chantés.
  • Composer la bande musicale avec un tempo et une instrumentation inspirés de la musique du poème chanté, afin qu'elles s'entrelacent harmonieusement.
  • Ajuster dynamiquement le volume de la bande musicale en fonction de la proximité.

En résumé, le résultat final est que chaque fois que le joueur s'approche de l'objet 3D, le volume de la bande musicale diminue progressivement, dirigeant ainsi l'attention vers l'objet 3D. De plus, comme les vitesses, les tonalités et les progressions harmoniques des deux morceaux de musique sont exactement les mêmes, le joueur n'a pas l'impression d'un « changement brutal de musique » mais, au contraire, d'une transition fluide entre les deux morceaux qui continuent d'exister de manière indépendante une fois qu'il s'éloigne. Cette transition est subtile et difficile à remarquer sans une écoute attentive, ce qui brouille également les frontières entre musique diégétique et non diégétique.

Des règles de synchronisation similaires ont été appliquées à de nombreux autres endroits du jeu.

img4

Synchronisation de la bande musicale et des soutras 3D des PNJ

Le temple de Lingquan est l'un des temples bouddhistes historiques les plus emblématiques, occupant également une place importante dans le jeu. En raison de son caractère sacré, je ne voulais pas me contenter d'une bande musicale thématique pour instaurer une sérénité solennelle, comme c'est souvent le cas, mais j'espérais plutôt pouvoir y intégrer de nouveaux éléments. En matière de conception sonore, outre les poissons en bois et les cloches frappés par les moines dans le temple, y avait-il d'autres éléments particuliers à exploiter ?

C'est ainsi qu'est née l'idée d'intégrer le chant quotidien des moines récitant les écritures bouddhistes.

J'ai demandé à un ingénieur du son de se rendre dans un temple bouddhiste en Chine afin d'enregistrer et de collecter des échantillons de ces prières chantées. Une fois les enregistrements reçus, j'ai procédé aux étapes suivantes :

  • Synchroniser la tonalité du chant avec la bande musicale.
  • Aligner le tempo du chant sur celui de la bande musicale.
  • Déclencher aléatoirement les séquences de chant sur le premier temps des mesures de la bande musicale.

img5

Évolution de la musique scénique en temps réel

Certains joueurs joueront inévitablement du matin jusqu'à midi ou de l'après-midi jusqu'au soir, traversant ainsi plusieurs périodes de la journée en une seule session. Étant donné que l'heure du jeu est synchronisée avec l'heure locale du joueur, l'approche classique pour ce type de jeux consiste à attribuer un morceau de musique distinct à chaque période de la journée. Cependant, nous voulions éviter des changements de musique « trop perceptibles ». J'ai donc choisi de faire évoluer et de modifier dynamiquement l'ensemble des thèmes des musiques scéniques en apportant des variations progressives tout au long de la journée au sein des mêmes pistes.

  • Définir le matin, l'après-midi et le soir comme trois périodes distinctes de transition musicale.
  • S'assurer que les variations musicales proviennent toujours des mêmes pistes.
  • Préserver la dynamique musicale en équilibrant à la fois « continuité » et « variation ».
  • La musique doit être perçue comme un morceau complet lorsqu'elle est jouée sur une période donnée.

Ainsi, au lieu d'entendre une coupure brutale entre les morceaux, les joueurs ressentiront plutôt que « la musique de cette scène semble s'être enrichie dans l'après-midi » ou que « la musique de cette scène s'est adoucie en soirée ».

  

img6

Conception des transitions entre les différentes régions de musique scénique en évitant les changements fréquents et gênants

Les descriptions ci-dessus mettent en avant les changements interactifs de musique qui se produisent lorsque le joueur est actif dans une même scène ou dans des conditions fixes. En plus de cela, nous avons également conçu certaines logiques musicales pour les moments où le joueur marche ou se téléporte d'un endroit à un autre, que ce soit en raison de la progression de l'intrigue ou d'une exploration libre.

Pour simplifier, je ne veux pas que les joueurs soient confrontés à un changement immédiat de musique chaque fois qu'ils entrent dans une nouvelle zone. Une telle répétition serait ennuyeuse et fatigante, et étant donné qu'il est possible d'entrer dans une zone et d'en sortir immédiatement par erreur, il est préférable d'introduire un temps de reconnaissance tampon et un « intervalle de silence ». Par exemple :

Pour les scènes régulières :

  • Activer l'action musicale en cours lorsque le système détecte que le joueur est resté dans une nouvelle zone pendant un certain temps.
  • Activer la nouvelle musique après un certain nombre de secondes d'intervalle de silence.

Pour certaines scènes spéciales :

  • Diminuer progressivement certains instruments de la musique en cours et continuer de la jouer sans autres changements.
  • Déclencher un court accent musical (stinger) spécifique lorsque le joueur entre dans la nouvelle zone.

Dans les jeux à monde ouvert comme Condor Heroes, les joueurs n'ont pas toujours envie d'entendre de la musique en permanence. L'ajout de 30% à 40% de moments de silence dans la bande musicale peut aider à réduire la fatigue auditive.

Musique scénique et gestion des silences

Les délimitations de niveaux peuvent définir des volumes musicaux qui indiqueront au World Conductor quelle musique doit être jouée dans chaque zone. Par convention, nous avons choisi de ne pas jouer la musique en boucle, permettant ainsi aux joueurs de profiter d'un moment de calme avant que la musique ne reprenne plus tard. Pendant ces pauses, le système de musique informe le jeu que les personnages peuvent jouer des événements vocaux spéciaux, comme fredonner ou siffler des mélodies et des motifs de la musique précédemment jouée.

Le World Conductor connaît également l'heure actuelle du jeu et peut programmer des variantes du thème correspondant au matin, à la journée ou à la nuit. De plus, un « moment calme » configurable peut être programmé pendant lequel aucune musique scénique ne sera déclenchée.

Des zones d'exclusion peuvent être définies pour faire disparaître progressivement la musique d'une zone lorsque le joueur s'approche de certains endroits, soit pour en souligner l'importance, soit pour laisser de l'espace aux événements qui se produisent ou qui sont sur le point de se produire.

La musique d'une zone peut être interrompue par des combats ou d'autres rencontres, car elle a généralement la priorité la plus basse. Dans ce cas, le World Conductor mettra en pause le thème en cours de lecture et le reprendra après qu'un thème de priorité plus élevée ait été explicitement arrêté. Par ailleurs, les événements mis en pause sont toujours considérés comme des voix actives dans Wwise car ils influencent l'auto-ducking. 

Le World Conductor peut également réaliser d'autres transitions plus complexes, similaires à celles disponibles dans Wwise, telles qu'une synchronisation de base sur la mesure musicale et la lecture de stingers pour masquer les transitions. Ces transitions sont configurées dans des tables de données.

Détails techniques

Organisation du projet Wwise

Chaque thème musical composé pour le jeu possède sa propre hiérarchie, indépendante des autres. Les Work Units sont organisées en fonction de l'usage de chaque musique, telle que la musique de combat, scénique ou de séquence linéaire, entre autres. Chaque type de musique est assigné à son propre bus afin de faciliter le mixage et de permettre à l'auto-ducking de fonctionner de manière sélective lorsque cela est nécessaire.

img7

Le fait que chaque thème musical soit isolé des autres a augmenté la complexité de l'implémentation du côté du moteur de jeu, qui devait désormais gérer les transitions, les stingers, les fondus enchaînés, ainsi que les silences et la synchronisation. Ces deux derniers points étaient particulièrement importants pour nous, car ils impliquaient des exigences spécifiques difficiles à gérer avec une musique contrôlée par un seul PlayingID, ce que nous aborderons plus en détail plus tard.

Nous avons essentiellement retiré une grande partie de la complexité du projet Wwise et l'avons réintroduite dans le code. L'implémentation de la musique varie, parfois considérablement, selon son type. Par exemple, certains thèmes suivent la structure typique d'un Switch Container, tandis que d'autres dépendent du code pour pouvoir être lus en boucle. En termes de système de musique, différentes classes de « Conductors », que je vais tenter de décrire ci-dessous, ont été implémentées.

Groupes de musiciens

Cette musique diégétique est représentée dans le jeu par un groupe de musiciens virtuels qui interprètent des chansons à des moments précis. Le joueur peut entrer en mode d'écoute et la caméra commence à se déplacer autour des personnages. Voici les exigences impliquées :

  • Chaque instrument ou voix peut être positionné individuellement dans une scène.
  • Les thèmes musicaux ne sont pas lus en boucle.
  • Bien qu'il s'agisse d'un jeu à un seul joueur, les joueurs doivent entendre les groupes de musiciens se produire à des moments précis, de sorte que tout le monde entende à peu près la même chose, même si des joueurs rejoignent le jeu en plein milieu de la représentation.

Je vois deux façons d'implémenter une musique diégétique parfaitement synchronisée entre plusieurs endroits du monde : en gérant un groupe d'envois vers des bus auxiliaires 3D, ou en jouant chaque instrument en tant qu'Event séparé. Nous avons choisi la seconde solution. Je ne me souviens plus pourquoi. Nous avons observé que lorsqu'un groupe d'Events de la même longueur est posté avant l'appel à AK::SoundEngine::RenderAudio, il sera joué de manière synchronisée de manière permanente. Avec la contrainte que ces Events doivent avoir des paramètres identiques de streaming, de virtualisation et de table de recherche, ce que nous avons géré dans le projet avec l'aide de WAAPI.

De plus, Wwise présente certaines restrictions sur l'action SeekOnEvent que nous avons dû utiliser pour synchroniser la position de lecture de la musique. La plus importante est que les Events lus en boucle ne peuvent pas faire l'objet d'un Seek, ce qui signifie que tous les instruments du groupe sont des one-shots de longueurs égales qui seront mis en boucle par le « Conductor » si nécessaire.

Musique de combat

Le jeu comporte deux types de musique de combat : les combats de boss et les mini-rencontres.

Je commencerai par le premier, car son Conductor suit un modèle d'implémentation typique de Wwise avec des Switch Containers et des transitions. Le combat de boss progresse toujours à travers des parties spécifiées dans une direction ; par exemple, intro → stage 1 → stage 2 → victoire ou échec. Nous avons implémenté un Switch « Music_Part » générique pour cela et avons établi une convention sur la signification de chaque partie numérotée.

Contrairement aux combats de boss, les mini-rencontres n'ont pas d'étapes ; leur musique est préparée comme une boucle infinie. Du point de vue de la composition, la musique est divisée en parties avec des caractères distincts et des courtes transitions entre elles. La musique commence par un fondu d'entrée et s'arrête par un fondu de sortie, le Conductor suit la position de lecture pour reprendre la musique plus tard à l'endroit où elle s'est arrêtée... ce qui serait le cas si la vie était aussi simple. Cependant, dans notre cas, cette musique reprend au marqueur qui suit la position où la musique s'est arrêtée précédemment. Il se trouve que ces marqueurs sont placés là où commencent les transitions. Le fait de commencer la musique sur ces transitions par un fondu renforce le caractère anecdotique et récurrent de chaque rencontre.

img8

Comme cette musique nécessite une fonction Seek, la lecture en boucle est gérée par le Conductor.

En ce qui concerne les fondus d'entrée, Wwise ne fournit pas d'API pour les contrôler à partir du code. Ceci peut être contourné en suivant la séquence suivante : Poster un Event → Mettre en pause l'Event immédiatement → Attendre une frame jusqu'à ce que RenderAudio soit appelé → Reprendre la lecture avec la durée de transition spécifiée. Si vous n'incluez pas une frame de pause, Wwise va essentiellement condenser la séquence de commandes et va penser que l'Event devrait jouer initialement mais ne reprendra pas sa lecture. Je ne me souviens pas pourquoi, mais il y avait une raison pour laquelle nous avons fini par reprogrammer cette méthode de contournement pour utiliser des RTPCs avec des temps d'interpolation pour les fondus.

Connecter les Conductors au monde

Jusqu'à présent, nous avons couvert le fonctionnement interne des différents types de thèmes musicaux. Il nous reste à donner quelques exemples de la façon dont notre système permet une interaction complexe entre la musique et d'autres systèmes de jeu :

  1. Dans l'un des niveaux, un temple comporte un autel qui déclenche des sons légers en réponse à des callbacks de Wwise. 
  2. En parcourant le monde extérieur, le joueur peut trouver un petit village où un personnage chante une chanson en parfaite synchronisation avec la bande musicale en cours de lecture.
  3. Un musicien jouant du tambour attire l'attention du joueur sur un endroit spécifique. En l'atteignant, une cinématique commence et met en scène un tournoi de combats. Cette boucle de tambour diégétique se transforme en musique de cinématique non diégétique qui se termine par un coup de gong. Le gong signifiant la fin du combat, il était important pour nous d'avoir une synchronisation parfaite entre son retentissement et les images. Nous avons implémenté cette synchronisation en envoyant un callback depuis le World Conductor vers un Level Sequence qui sauterait à la prochaine coupure cinématique dès sa réception. Le callback a été créé à partir d'une musique Wwise identifiée avec un nom spécial.

Dans tous les exemples, la fonctionnalité a été implémentée avec l'API Conductor ; le code du jeu n'avait pas besoin de connaître quoi que ce soit de Wwise.

Épilogue

Cet article donne un aperçu relativement systémique de notre implémentation de musique interactive à base de « Conductor », en soulignant son rôle central dans l'amélioration de l'immersion du joueur, de l'interaction émotionnelle et de l'expérience de jeu en général. Nous avons travaillé très fort pour faire en sorte que n'importe quel type de bande musicale soit non seulement « émotionnel » mais aussi « rationnel » dans des contextes donnés, et nous espérons que cela a été aussi intéressant pour vous de le lire que cela l'a été pour nous de le développer.

Qimei Shi & Eugene Cherny

Qimei Shi & Eugene Cherny

Qimei Shi (Compositrice)

Superviseure Musicale, Compositrice Sénior de musique de jeu, Conceptrice de Musique Interactive depuis 7 ans dans l'industrie du jeu. Créative, innovante, perfectionniste.

https://www.sqmmusic.com/

LinkedIn

Eugene Cherny (Programmeur Audio)

Programmeur Audio, travaillant actuellement dans l'industrie du jeu vidéo. Avec un peu d'expérience dans le domaine de l'art et universitaire.

https://eugn.ch/

LinkedIn

Commentaires

Laisser une réponse

Votre adresse électronique ne sera pas publiée.

Plus d'articles

Découverte du nouveau plugiciel Impacter

Aperçu Impacter est un nouveau plugiciel source inspiré par l'esprit du plugiciel original SoundSeed...

3.11.2022 - Par Ryan Done

Licence Indé gratuite de Wwise | Le meilleur de l'audio au service des développeurs indépendants

Créer une expérience audio immersive correspondant à la vision de votre projet peut être une chose...

18.7.2024 - Par Audiokinetic

La Musique de Spacefolk City

Introduction au jeu Spacefolk City est une version accessible, excentrique et absurde d'un jeu de...

12.11.2024 - Par Alex May

Combiner Strata, Wwise et Unreal pour des expériences de jeu immersives

Dans cet article, nous allons explorer comment travailler avec Strata pour faire de la conception...

26.2.2025 - Par Chase Steele

Récapitulatif des sessions de l'Audiokinetic Theater | GDC 2024

Cela a été un honneur incroyable d'accueillir tous les professionnels de l'audio venus présenter...

12.3.2025 - Par Audiokinetic

Tour d'horizon rapide dans le monde de la conception de voix

Depuis les premières bribes de dialogues dans les jeux vidéo des années 80, les développeurs ont dû...

26.3.2025 - Par Charles Pateman

Plus d'articles

Découverte du nouveau plugiciel Impacter

Aperçu Impacter est un nouveau plugiciel source inspiré par l'esprit du plugiciel original SoundSeed...

Licence Indé gratuite de Wwise | Le meilleur de l'audio au service des développeurs indépendants

Créer une expérience audio immersive correspondant à la vision de votre projet peut être une chose...

La Musique de Spacefolk City

Introduction au jeu Spacefolk City est une version accessible, excentrique et absurde d'un jeu de...