Recherche d'articles

Sélectionnez un produit

Répertoire d'assistance de null

Explorez tous les articles de null (Last Updated )

Aucun article trouvé.

Résultats de recherche

Aucun article trouvé.

Assistant AI : production d'un son hautement réaliste

Article mis à jour pour la dernière fois le 4 mars 2026

En tant qu'auteur de module, vous souhaitez faire plus que simplement présenter des informations, vous souhaitez créer des expériences d'apprentissage en ligne multisensorielles qui trouvent un écho auprès des apprenants. L'utilisation créative du son peut vous aider à y parvenir. Les fonctionnalités de synthèse vocale et d'effets sonores d'AI Assistant vous permettent de créer des voix et des effets sonores très réalistes générés par l'IA pour un contenu plus immersif et accessible.

À l'origine, ces deux fonctionnalités n'étaient accessibles que dans Storyline 360. Cependant, depuis la mise à jour de juillet 2025, AI Assistant de Rise 360 peut générer une narration texte-parole. Consultez ce guide de l'utilisateur pour commencer à créer des narrations générées par l'IA dans Rise 360.

Dans Storyline 360, ces fonctionnalités sont accessibles depuis le menu déroulant Insérer de l'audio dans le menu AI Assistant situé dans le ruban. Retrouvez-les sous l'onglet Accueil ou Insérer lorsque vous êtes en mode diapositive ou discutez avec l'Assistant AI dans le panneau latéral pour plus de commodité.

Donnez vie à la narration grâce à des voix générées par l'IA

Si vous avez déjà utilisé la synthèse vocale classique, vous auriez probablement souhaité que les voix sonnent moins, eh bien, robotisées. La synthèse vocale d'AI Assistant donne vie à la narration grâce à des voix générées par l'IA qui tiennent compte du contexte et qui sonnent de manière plus naturelle et plus humaine ! Découvrez la différence de qualité entre une voix standard, une voix neuronale et une voix générée par l'IA en cliquant sur les liens vers les exemples de synthèse vocale ci-dessous.

Pour commencer, cliquez sur l'icône Insérer un son dans le menu AI Assistant pour ouvrir la boîte de dialogue Generate AI Audio. Une bibliothèque de voix générées par l'IA, que vous pouvez filtrer par sexe, âge et accent, s'affiche sous l'onglet Voix. Les voix ont également des descriptions telles que « profond », « confiant », « net », « intense » et « apaisant » et des catégories qui peuvent vous aider à déterminer leurs cas d'utilisation idéaux, qu'il s'agisse d'émissions d'actualités, de méditation ou même d'ASMR. Trouvez ces qualités sous le nom de la voix et utilisez le bouton de lecture pour prévisualiser la voix.

Actuellement, vous avez le choix entre 52 voix prédéfinies, et vous pouvez marquer vos voix préférées en cliquant sur l'icône en forme de cœur. Ainsi, vous pouvez accéder facilement à vos voix préférées sans avoir à parcourir la liste. Notez que les voix étiquetées « Legacy » ne seront pas mises à jour lorsque les futurs modèles d'IA s'amélioreront.

Basculez l'option Afficher sur Favoris pour retrouver toutes vos voix préférées, ou sur Dans le projet pour voir les voix utilisées dans le projet en cours. Une fois que vous avez choisi une voix, cliquez sur le bouton intitulé Utiliser pour passer à l'onglet Synthèse vocale. La voix que vous avez choisie est déjà présélectionnée.

Entrez ensuite votre script dans la zone de texte prévue à cet effet ou cliquez sur le lien Ajouter à partir des notes de diapositive pour copier les notes de votre diapositive. Le script peut comporter au maximum 5 000 personnages. Pour des raisons d'accessibilité, laissez la case Générer des sous-titres cochée. AI Assistant générera automatiquement des sous-titres codés. Vous pouvez déterminer instantanément si votre narration de synthèse vocale comporte des sous-titres codés grâce à l'étiquette CC qui apparaît à côté de chaque sortie.

Trouvez d'autres voix dans la bibliothèque vocale

Outre les voix prédéfinies, vous avez également accès à une bibliothèque vocale étendue contenant des milliers de voix ultraréalistes générées par l'IA qui peuvent être filtrées par âge, sexe et cas d'utilisation. Découvrez la voix adaptée à votre contenu dans la bibliothèque vocale en consultant les guides d'utilisation suivants.

Période de préavis de suppression vocale

Une voix peut être assortie d'un délai de préavis, qui indique la durée pendant laquelle vous pourrez accéder à la voix si son créateur décide de la supprimer de la bibliothèque vocale. Dans ce cas, la voix supprimée ne sera plus disponible dans la bibliothèque. Si vous l'avez déjà ajoutée à My Voices dans Storyline 360 ou aux favoris dans Rise 360, la voix supprimée apparaîtra toujours dans votre liste et pourra être utilisée pour générer du nouveau contenu, mais dans Storyline 360, vous verrez un avertissement et la date à laquelle elle n'est plus disponible. Une fois le délai de préavis expiré, la voix affichera un message d'erreur et ne pourra plus être prévisualisée ni utilisée pour générer du nouveau contenu. Vous pouvez le supprimer pour libérer l'un de vos emplacements vocaux personnalisés.

La plupart des voix sont assorties d'un délai de préavis, mais d'autres non. Les voix sans délai de préavis disparaissent immédiatement de la bibliothèque vocale si le créateur de la voix décide de les supprimer. Le contenu généré à l'aide d'une voix supprimée de la bibliothèque vocale continuera de fonctionner comme un fichier audio normal.

Régler les paramètres vocaux

Contrairement à la synthèse vocale classique, les voix générées par l'IA dans la synthèse vocale d'AI Assistant peuvent être personnalisées pour une performance vocale personnalisée. Le paramètre Modèle vous permet de choisir entre trois options différentes :

  • v3 (bêta) - Compréhension contextuelle, émotionnelle et expressive la plus expressive possible dans plus de 70 langues. Autorise un maximum de 3 000 personnages. Notez que ce modèle est activement développé. Les fonctionnalités peuvent changer ou vous pouvez rencontrer un comportement inattendu au fur et à mesure que nous l'améliorons. Pour de meilleurs résultats, veuillez consulter certaines techniques d'incitation ci-dessous.
  • Multilingue v2 (modèle par défaut) - Discours réaliste extrêmement stable et d'une précision exceptionnelle, avec support technique pour 29 langues. Autorise un maximum de 10 000 personnages.
  • Flash v2.5 - Légèrement moins stable, mais peut générer plus rapidement grâce au support technique de 32 langues. Autorise un maximum de 40 000 personnages.

Conseil de pro : certaines voix sonnent mieux avec certains modèles, et certains modèles fonctionnent mieux dans certaines langues. Essayez différentes combinaisons pour trouver celle qui fonctionne le mieux. Par exemple, la voix de Matilda sonne plus naturellement en espagnol avec le modèle multilingue v2 qu'avec le modèle v3.

Le paramètre Stabilité contrôle l'équilibre entre la régularité et le caractère aléatoire de la voix. La vitesse définit le rythme, et la similarité détermine dans quelle mesure l'Assistant AI doit respecter la voix d'origine lors de sa réplication.

Les paramètres supplémentaires incluent l'exagération du style, qui amplifie le style de la voix d'origine, et l'amplification du haut-parleur, qui améliore la similitude entre la voix synthétisée et la voix. Notez que si l'un de ces paramètres est ajusté, la génération de votre discours prendra plus de temps.

Jouez avec ces paramètres pour trouver le bon équilibre pour votre contenu. Le tableau ci-dessous indique la valeur du curseur par défaut pour chaque paramètre. Pour le modèle v3, la stabilité est la seule option disponible.

RéglageStoryline 360Rise 360
Stabilité0,5050
Vitesse1,00100
Similitude1,00100
Exagération du style0,000
Amplificateur du haut-parleur (case à cocher)VérifiéVérifié

Remarque : Certaines voix du modèle multilingue v2 ont tendance à avoir un volume irrégulier (s'estompant vers la fin) lors de la génération de longs clips. Il s'agit d'un problème connu lié au modèle sous-jacent, et notre sous-processeur d'intelligence artificielle pour la synthèse vocale s'efforce de le résoudre. En attendant, nous vous suggérons les solutions de contournement suivantes :

  • Utiliser une voix différente
  • Passez au modèle Flash v2.5
  • Améliorez la stabilité de la voix
  • Divisez manuellement votre texte en petits morceaux pour générer des clips plus courts

Dois-je utiliser le protocole SSML ?

AI Assistant dispose d'un support technique limité pour le langage de balisage de synthèse vocale (SSML), car les voix générées par l'IA sont conçues pour comprendre la relation entre les mots et ajuster leur diffusion en conséquence. Si vous devez contrôler manuellement le rythme, vous pouvez ajouter une pause. La méthode la plus cohérente consiste à insérer la syntaxe <break time="1.5s" /> dans votre script. Cela crée une pause exacte et naturelle dans le discours. Par exemple :

Avec leurs sens aiguisés, <break time="1.5s" /> les chats sont d'habiles chasseurs.

Utilisez les secondes pour décrire une pause d'une durée maximale de trois secondes.

Vous pouvez essayer un simple tiret - ou un en-dash pour insérer une brève pause ou plusieurs tirets pour une pause plus longue. ...Les points de suspension fonctionnent également parfois pour ajouter une pause entre les mots. Cependant, ces options peuvent ne pas fonctionner de manière cohérente. Nous vous recommandons donc d'utiliser la syntaxe ci-dessus pour des raisons de cohérence. Gardez simplement à l'esprit qu'un nombre excessif de balises de rupture peut potentiellement provoquer une instabilité.

Techniques d'invite pour la version 3 (bêta)

Le modèle v3 (bêta) introduit le contrôle émotionnel via des balises audio, permettant aux voix de rire, de chuchoter, d'être sarcastiques ou de faire preuve de curiosité, entre autres options.

Le tableau suivant répertorie les différentes balises que vous pouvez utiliser pour contrôler la transmission vocale et l'expression émotionnelle, ainsi que pour ajouter des sons et des effets de fond. Il inclut également des balises expérimentales pour des utilisations créatives.

Voix et émotionSons et effetsExpérimental
  • [rires], [rit plus fort], [commence à rire], [respiration sifflante]
  • [MURMURES]
  • [SOUPIRE], [EXPIRE]
  • [sarcastique], [curieux], [excité], [pleurant], [renifle], [malicieusement]

Exemple : [chuchotements] Ne regardez pas maintenant, mais je pense qu'ils nous ont entendus.

  • [coup de feu], [applaudissements], [applaudissements], [explosion]
  • [hirondelles], [gorgées]

Exemple : [applaudissements] Eh bien, ça s'est mieux passé que prévu. [explosion] Peu importe.

  • [fort accent X] (remplacez X par l'accent souhaité)
  • [chante], [woo]

Exemple : [fort accent français] Zat n'est pas ce que j'avais en tête, non non non.

Outre les balises audio, la ponctuation a également un impact sur la diffusion. Les ellipses (...) ajoutent des pauses, les majuscules mettent l'accent sur des mots ou des phrases spécifiques, et la ponctuation standard imite le rythme naturel de la parole. Par exemple : « C'était TRÈS réussi ! ... [commence à rire] Peux-tu y croire ? »

Conseils :

  • Utilisez des balises audio qui correspondent à la personnalité de la voix. Une voix calme et méditative ne criera pas, et une voix pleine d'énergie ne chuchotera pas de manière convaincante.
  • Des instructions très courtes peuvent entraîner des résultats incohérents. Pour une sortie plus cohérente et plus ciblée, nous vous suggérons des invites de plus de 250 caractères.
  • Certaines balises expérimentales peuvent être moins cohérentes entre les voix. Testez soigneusement avant utilisation.
  • Combinez plusieurs balises pour une transmission émotionnelle complexe. Essayez différentes combinaisons pour trouver celle qui convient le mieux à la voix que vous avez sélectionnée.
  • La liste ci-dessus n'est qu'un point de départ ; des balises plus efficaces peuvent exister. Essayez de combiner des états émotionnels et des actions pour trouver ce qui convient le mieux à votre cas d'utilisation.
  • Utilisez un langage naturel, une ponctuation appropriée et des indices émotionnels clairs pour obtenir des meilleurs résultats.

Les voix multilingues élargissent votre portée

Un autre avantage indéniable de la synthèse vocale générée par l'IA est sa capacité à combler les lacunes linguistiques, ce qui vous permet d'entrer en contact avec un public international. Avec un support technique disponible dans plus de 70 langues selon le modèle, dont certaines avec plusieurs accents et dialectes, la synthèse vocale d'AI Assistant permet à votre contenu de trouver un écho auprès d'un public mondial.

Il vous suffit de taper ou de coller votre script dans la langue prise en charge que vous souhaitez qu'AI Assistant utilise. (Même si la description vocale indique un accent ou une langue spécifiques, AI Assistant générera la narration dans la langue utilisée dans votre script.) Notez que certaines voix ont tendance à mieux fonctionner avec certains accents ou certaines langues, alors n'hésitez pas à expérimenter différentes voix pour trouver celle qui correspond le mieux à vos besoins.

Le tableau ci-dessous fournit un bref aperçu des langues prises en charge.

Disponible en version 3 (bêta), multilingue v2 et Flash v2.5 :

  • Arabe (Arabie Saoudite)
  • Arabe (Émirats arabes unis)
  • Bulgare
  • chinois
  • Croate
  • tchèque
  • danois
  • néerlandais
  • Anglais (Australie)
  • Anglais (Canada)
  • Anglais (Royaume-Uni)
  • Anglais (États-Unis)
  • Philippin
  • finnois
  • Français (Canada)
  • Français (France)
  • allemand
  • grec
  • Hindi
  • indonésien
  • italien
  • japonais
  • Coréen
  • Malais
  • polonais
  • Portugais (Brésil)
  • Portugais (Portugal)
  • roumain
  • russe
  • Slovaque
  • Espagnol (Mexique)
  • Espagnol (Espagne)
  • Suédois
  • Tamoul
  • Turc
  • Ukrainien
 
Disponible en v3 (bêta) et Flash v2.5 :
  • Hongrois
  • Norvégien
  • Vietnamien

Disponible uniquement dans la version 3 (bêta) :

  • Afrikaans (afr)
  • Arménien (hye)
  • Assamais (asm)
  • Azéri (aze)
  • biélorusse (bel)
  • Bengali (ben)
  • Bosnien (boss)
  • Catalan (chat)
  • Cebuano (ceb)
  • Chichewa (New York)
  • Estonien (est)
  • Galicien (glg)
  • Georgian (kat)
  • Gujarati (pistolet)
  • Haoussa (hau)
  • Hébreu (heb)
  • islandais (isl)
  • Irlandais (gle)
  • Javanais (jav)
  • Kannada (peut)
  • Kazakh (kaz)
  • Kirghizistan (kir)
  • Letton (lav)
  • Lingala (lin)
  • lituanien (lit)
  • Luxembourgeois (ltz)
  • Macédonien (mkd)
  • Malayalam (homme)
  • Chinois mandarin (cmn)
  • Marathi (mer)
  • Népalais (nep)
  • Pashto (pus)
  • Persan (fas)
  • Pendjabi (pan)
  • Serbe (srp)
  • Sindhi (sable)
  • Slovène (slv)
  • Somalien (som)
  • Swahili (swa)
  • Telugu (tél.)
  • Thai (thaï)
  • Urdu (urd)
  • Gallois (cym)

Création d'effets sonores à l'aide d'instructions

Les effets sonores qui correspondent à votre thème et à votre contenu peuvent mettre en évidence des actions ou des retours importants, comme le fait de cliquer sur un bouton ou de choisir une réponse correcte, offrant ainsi une expérience d'apprentissage en ligne plus attrayante et plus efficace. Avec les effets sonores d'AI Assistant, vous pouvez désormais utiliser les instructions pour créer facilement presque tous les sons imaginables. Plus besoin de perdre du temps à parcourir le Web à la recherche de sons prédéfinis qui peuvent coûter plus cher !

Commencez à créer des effets sonores de haute qualité en accédant au menu AI Assistant dans le ruban situé sous l'onglet Accueil ou Insérer. Cliquez ensuite sur la partie inférieure de l'icône Insérer un fichier audio, puis sélectionnez Effets sonores. (Vous pouvez également y accéder depuis le menu déroulant Audio de l'onglet Insérer. Sélectionnez simplement Effets sonores sous l'option AI Audio.) Dans la zone de texte, décrivez l'effet sonore souhaité et choisissez une durée. Vous pouvez régler le curseur d'influence rapide pour donner à AI Assistant une liberté plus ou moins créative dans la génération du son.

Comme AI Assistant comprend le langage naturel, les effets sonores peuvent être créés à l'aide d'une simple invite, comme « un simple clic de souris », ou d'une commande très complexe décrivant plusieurs sons ou une séquence de sons dans un ordre spécifique. Notez simplement que vous avez un maximum de 450 personnages pour décrire le son que vous souhaitez générer.

Cliquez sur les liens suivants pour écouter les effets sonores créés à l'aide d'une invite simple et d'une demande complexe.

Vous pouvez également régler la durée, c'est-à-dire la durée de diffusion de l'effet sonore, jusqu'à un maximum de 22 secondes. Par exemple, si votre message est « chien qui aboie » et que vous réglez la durée sur 10 secondes, vous recevrez des aboiements continus, mais une durée de deux secondes correspond à un aboiement rapide. En ajustant le curseur Prompt Influence vers la droite, AI Assistant se conforme strictement à votre demande, tandis que le fait de le faire glisser vers la gauche permet une interprétation plus libre.

Conseil de pro : vous pouvez déterminer instantanément si votre effet sonore comporte des sous-titres codés grâce à l'étiquette CC qui apparaît à côté de chaque sortie.

Quelques conditions générales à connaître

L'utilisation de la terminologie audio, c'est-à-dire du vocabulaire spécialisé que les experts de l'audio utilisent dans leur travail, peut vous aider à améliorer vos instructions et à produire des effets sonores encore plus dynamiques. Voici quelques exemples :

Braam : Un son de basse profond, résonnant et souvent déformé utilisé dans les médias, en particulier dans les bandes-annonces, pour créer une sensation de tension, de puissance ou de catastrophe imminente.

Whoosh : Un son rapide et sourd souvent utilisé pour souligner les mouvements rapides, les transitions ou les moments dramatiques.

Impact : bruit aigu et saisissant utilisé pour indiquer une collision, un impact ou un contact brusque et violent, souvent pour souligner un moment d'action ou d'importance.

Problème : bruit court, discordant, généralement numérique, qui imite un dysfonctionnement ou une distorsion, couramment utilisé pour transmettre des erreurs.

Foley : Le processus qui consiste à recréer et à enregistrer des effets sonores quotidiens, tels que des mouvements et des sons d'objets, en synchronisation avec les visuels d'un film, d'une vidéo ou d'un autre média.

Voici quelque chose d'amusant à essayer ! Créez un effet sonore de 3 secondes en utilisant le message « qualité studio, sound designed whoosh et braam impact ». L'augmentation de la durée peut produire de meilleurs effets sonores, mais créera également plus d'air mort vers la fin.

Conseil de pro : les onomatopées, des mots tels que « buzz », « boum », « clic » et « pop » qui imitent des sons naturels, sont également des termes importants en matière d'effets sonores. Utilisez-les dans vos instructions pour créer des effets sonores plus réalistes.

Tutoriels vidéo

Vous souhaitez en savoir plus avant de commencer ? Consultez nos didacticiels vidéo pour obtenir des conseils supplémentaires sur l'utilisation de l'Assistant AI pour générer des effets sonores et de synthèse vocale.

Articulate 360 Training propose également des didacticiels vidéo supplémentaires sur l'utilisation des autres fonctionnalités de l'AI Assistant.

Vous devez être connecté à votre compte Articulate 360 pour visionner les vidéos. Vous n'avez pas encore de compte ? Inscrivez-vous pour un essai gratuit dès maintenant !