Sfoglia gli articoli

Seleziona un prodotto

Directory di supporto di null

Esplora tutti gli articoli di null (Last Updated )

Nessun articolo trovato.

Risultati della ricerca

Nessun articolo trovato.

AI Assistant: produzione di audio altamente realistico

Ultimo aggiornamento dell'articolo 4 mar 2026

In qualità di autore del corso, non vuoi limitarti a presentare informazioni: vuoi creare esperienze di e-learning multisensoriali che abbiano un forte impatto sugli allievi. Usare il suono in modo creativo può aiutarti a raggiungere questo obiettivo. Le funzionalità di sintesi vocale ed effetti sonori di AI Assistant ti consentono di creare voci ed effetti sonori generati dall'intelligenza artificiale altamente realistici per contenuti più coinvolgenti e accessibili.

Originariamente, entrambe queste funzionalità erano accessibili solo in Storyline 360. Tuttavia, a partire dall'aggiornamento di luglio 2025, AI Assistant in Rise 360 può generare una narrazione da testo a voce. Consulta questa guida per l'utente per iniziare a creare narrazioni generate dall'intelligenza artificiale in Rise 360.

In Storyline 360, è possibile accedere a queste funzionalità dal menu a discesa Inserisci audio nel menu AI Assistant all'interno della barra multifunzione. Trovali nella scheda Home o Inserisci quando sei nella visualizzazione diapositiva o chatta con AI Assistant nel pannello laterale per una maggiore comodità.

Dai vita alla narrazione con voci generate dall'intelligenza artificiale

Se hai mai usato la classica sintesi vocale, probabilmente avresti voluto che le voci suonassero meno, beh, robotiche. La sintesi vocale di AI Assistant dà vita alla narrazione con voci generate dall'intelligenza artificiale e consapevoli del contesto che sembrano più naturali e umane! Scopri la differenza di qualità tra una voce standard, una voce neurale e una voce generata dall'intelligenza artificiale facendo clic sui link agli esempi di sintesi vocale riportati di seguito.

Per iniziare, fai clic sull'icona Inserisci audio nel menu Assistente AI per aprire la finestra di dialogo Genera audio AI. Nella scheda Voci viene visualizzata una libreria di voci generate dall'intelligenza artificiale, che puoi filtrare per sesso, età e accento. Le voci hanno anche descrizioni come «profonda», «sicura di sé», «nitida», «intensa» e «rilassante» e categorie che possono aiutarti a determinare i loro casi d'uso ideali, dai telegiornali alla meditazione o persino all'ASMR. Trova queste qualità sotto il nome della voce e usa il pulsante di riproduci per visualizzare l'anteprima della voce.

Attualmente, ci sono 52 voci predefinite tra cui scegliere e puoi contrassegnare le tue preferite facendo clic sull'icona a forma di cuore. In questo modo, puoi accedere facilmente alle tue voci preferite senza dover scorrere l'elenco. Tieni presente che le voci etichettate come «Legacy» non verranno aggiornate quando i futuri modelli di intelligenza artificiale miglioreranno.

Attiva l'opzione Visualizza su Preferiti per trovare tutte le tue voci preferite o In progetto per vedere le voci utilizzate nel progetto corrente. Dopo aver scelto una voce, fai clic sul pulsante con l'etichetta Usa per passare alla scheda Sintesi vocale. La voce che hai scelto è già preselezionata.

Successivamente, inserisci lo script nella casella di testo fornita o fai clic sul link aggiungi dalle note della diapositiva per copiare le note dalla diapositiva. Lo script può contenere un massimo di 5.000 personaggi. Per l'accessibilità, lascia selezionata la casella Genera sottotitoli codificati: AI Assistant genererà automaticamente i sottotitoli codificati. Puoi determinare istantaneamente se la tua narrazione da testo a voce contiene sottotitoli codificati tramite l'etichetta CC che appare accanto a ciascun output.

Trova altre voci nella Libreria vocale

Oltre alle voci predefinite, hai anche accesso a una libreria vocale estesa con migliaia di voci ultrarealistiche generate dall'intelligenza artificiale che possono essere filtrate per età, sesso e caso d'uso. Scopri la voce giusta per i tuoi contenuti nella libreria vocale consultando le seguenti guide per l'utente.

Periodo di avviso di rimozione vocale

Una voce può avere un periodo di preavviso, che specifica per quanto tempo potrai accedere alla voce se l'autore decide di rimuoverla dalla libreria vocale. Quando ciò accade, la voce rimossa non sarà più disponibile nella libreria. Se l'hai già aggiunta a Le mie voci in Storyline 360 o ai Preferiti in Rise 360, la voce rimossa verrà comunque visualizzata nell'elenco e potrà essere utilizzata per generare nuovi contenuti, ma in Storyline 360 vedrai un avviso e la data in cui non sarà più disponibile. Una volta scaduto il periodo di preavviso, la voce mostrerà un errore e non potrà più essere visualizzata in anteprima o utilizzata per generare nuovi contenuti. Puoi rimuoverlo per liberare uno dei tuoi slot vocali personalizzati.

La maggior parte delle voci ha un periodo di preavviso, ma alcune no. Le voci senza periodo di preavviso scompaiono immediatamente dalla libreria vocale se il creatore decide di eliminarle. I contenuti generati utilizzando una voce che è stata rimossa dalla libreria vocale continueranno a funzionare come normali file audio.

Regola le impostazioni vocali

A differenza della classica sintesi vocale, le voci generate dall'intelligenza artificiale nella sintesi vocale di AI Assistant possono essere personalizzate per prestazioni vocali su misura. L'impostazione Modello consente di scegliere tra tre diverse opzioni:

  • v3 (beta) - La più espressiva, la più ampia gamma emotiva e la comprensione contestuale in oltre 70 lingue. Consente un massimo di 3.000 personaggi. Si noti che questo modello è in fase di sviluppo attivo. Le funzionalità potrebbero cambiare o potresti riscontrare comportamenti imprevisti man mano che continuiamo a migliorarlo. Per ottenere i migliori risultati, consulta alcune tecniche di suggerimento riportate di seguito.
  • Multilingue v2 (modello predefinito): sintesi vocale realistica altamente stabile ed eccezionalmente accurata con supporto per 29 lingue. Consente un massimo di 10.000 personaggi.
  • Flash v2.5 - Leggermente meno stabile, ma in grado di generare più velocemente grazie al supporto per 32 lingue. Consente un massimo di 40.000 personaggi.

Suggerimento: alcune voci suonano meglio con determinati modelli e alcuni modelli offrono prestazioni migliori in lingue specifiche. Sperimenta diverse combinazioni per trovare quella che funziona meglio. Ad esempio, la voce di Matilda suona più naturale in spagnolo con il modello Multilingual v2 che con v3.

L'impostazione Stabilità controlla l'equilibrio tra la stabilità e la casualità della voce. La velocità determina il ritmo e la somiglianza determina quanto strettamente AI Assistant deve aderire alla voce originale durante la replica.

Le impostazioni aggiuntive includono Style exaggeration, che amplifica lo stile della voce originale, e Speaker boost, che migliora la somiglianza tra il parlato sintetizzato e la voce. Tieni presente che se una di queste impostazioni viene regolata, la generazione del parlato richiederà più tempo.

Divertiti con queste impostazioni per trovare il giusto equilibrio per i tuoi contenuti. La tabella seguente riporta il valore del cursore predefinito per ogni impostazione. Per il modello v3, Stability è l'unica opzione disponibile.

ImpostazioneStoryline 360Rise 360
Stabilità0,5050
Velocità1,00100
Somiglianza1,00100
Esagerazione stilistica0,000
Speaker boost (casella di controllo)ControllatoControllato

Nota: alcune voci nel modello Multilingual v2 tendono ad avere un volume incoerente, che si attenua verso la fine, quando si generano clip lunghe. Si tratta di un problema noto del modello sottostante e il nostro subprocessore AI per la sintesi vocale sta lavorando per risolverlo. Nel frattempo, suggeriamo le seguenti soluzioni alternative:

  • Usa una voce diversa
  • Passa al modello Flash v2.5
  • Aumenta la stabilità della voce
  • Suddividi manualmente il testo in blocchi più piccoli per generare clip più brevi

Devo usare SSML?

AI Assistant ha un supporto limitato per il linguaggio di sintesi vocale (SSML) perché le voci generate dall'intelligenza artificiale sono progettate per comprendere la relazione tra le parole e adattare di conseguenza la pronuncia. Se devi controllare manualmente il ritmo, puoi aggiungere una pausa. Il modo più coerente per farlo è inserire la sintassi nello script<break time="1.5s" />. Questo crea una pausa esatta e naturale nel discorso. Ad esempio:

Con i loro sensi acuti i <break time="1.5s" /> gatti sono abili cacciatori.

Usa i secondi per descrivere una pausa della durata massima di tre secondi.

Puoi provare un trattino semplice - o un em-dash per inserire una breve pausa o più trattini per una pausa più lunga. I puntini di sospensione ... a volte funzionano anche per aggiungere una pausa tra le parole. Tuttavia, queste opzioni potrebbero non funzionare in modo coerente, quindi consigliamo di utilizzare la sintassi sopra riportata per motivi di coerenza. Tieni presente che un numero eccessivo di tag di interruzione può potenzialmente causare instabilità.

Tecniche di richiesta per la versione 3 (beta)

Il modello v3 (beta) introduce il controllo emotivo tramite tag audio, permettendo alle voci di ridere, sussurrare, essere sarcastiche o mostrare curiosità, tra le altre opzioni.

La tabella seguente elenca vari tag che puoi usare per controllare la riproduzione vocale e l'espressione emotiva, nonché per aggiungere suoni ed effetti di sottofondo. Include anche alcuni tag sperimentali per usi creativi.

Voce ed emozioneSuoni ed effettisperimentale
  • [risate], [ride più forte], [inizia a ridere], [ansimando]
  • [sussurra]
  • [sospira], [espira]
  • [sarcastico], [curioso], [eccitato], [piange], [sbuffa], [maliziosamente]

Esempio: [sussurra] Ora non guardate, ma credo che ci abbiano sentito.

  • [sparo], [applausi], [applausi], [esplosione]
  • [rondini], [sorseggia]

Esempio: [applausi] Beh, è andata meglio del previsto. [Esplosione] Non importa.

  • [forte accento X] (sostituisci X con l'accento desiderato)
  • [canta], [woo]

Esempio: [forte accento francese] Zat non è quello che avevo in mente, non non non no.

Oltre ai tag audio, anche la punteggiatura influisce sulla consegna. Le ellissi (...) aggiungono pause, le maiuscole enfatizzano parole o frasi specifiche e la punteggiatura standard imita il ritmo naturale del parlato. Ad esempio: «Ha avuto MOLTO successo! ... [inizia a ridere] Riesci a crederci?»

Suggerimenti:

  • Usa tag audio che corrispondano alla personalità della voce. Una voce calma e meditativa non griderà e una voce energica non sussurrerà in modo convincente.
  • Richieste molto brevi possono portare a risultati incoerenti. Per un output più coerente e mirato, suggeriamo prompt di oltre 250 caratteri.
  • Alcuni tag sperimentali potrebbero essere meno coerenti tra le voci. Esegui un test accurato prima dell'uso.
  • Combina più tag per una trasmissione emotiva complessa. Prova diverse combinazioni per trovare quella più adatta alla voce che hai selezionato.
  • L'elenco precedente è semplicemente un punto di partenza; potrebbero esistere tag più efficaci. Sperimenta combinando stati emotivi e azioni per trovare ciò che funziona meglio per il tuo caso d'uso.
  • Usa un linguaggio naturale, una punteggiatura corretta e segnali emotivi chiari per ottenere i migliori risultati.

Le voci multilingue ampliano la tua portata

Un altro vantaggio importante della sintesi vocale generata dall'intelligenza artificiale è la capacità di colmare le lacune linguistiche, consentendoti di entrare in contatto con un pubblico internazionale. Con il supporto per oltre 70 lingue a seconda del modello, incluse alcune con accenti e dialetti multipli, la sintesi vocale di AI Assistant aiuta i tuoi contenuti a farsi conoscere da un pubblico globale.

Tutto quello che devi fare è digitare o incollare lo script nella lingua supportata che desideri venga utilizzata da AI Assistant. (Anche se la descrizione vocale rileva un accento o una lingua specifici, AI Assistant genererà la narrazione nella lingua utilizzata nella sceneggiatura.) Tieni presente che alcune voci tendono a funzionare meglio con determinati accenti o lingue, quindi sentiti libero di sperimentare con voci diverse per trovare quella più adatta alle tue esigenze.

La tabella seguente fornisce un rapido riepilogo delle lingue supportate.

Disponibile nelle versioni v3 (beta), Multilingual v2 e Flash v2.5:

  • Arabo (Arabia Saudita)
  • Arabo (Emirati Arabi Uniti)
  • bulgaro
  • Cinese
  • croato
  • cechi
  • danese
  • olandese
  • Inglese (Australia)
  • Inglese (Canada)
  • Inglese (Regno Unito)
  • Inglese (USA)
  • filippino
  • Finlandese
  • Francese (Canada)
  • Francese (Francia)
  • Tedesco
  • greco
  • hindi
  • Indonesiano
  • italiano
  • Giapponese
  • coreano
  • malese
  • polacco
  • Portoghese (Brasile)
  • Portoghese (Portogallo)
  • Rumeno
  • Russo
  • slovacco
  • Spagnolo (Messico)
  • Spagnolo (Spagna)
  • svedese
  • Tamil
  • turco
  • ucraino
 
Disponibile nella versione 3 (beta) e nella versione Flash 2.5:
  • Ungherese
  • norvegese
  • vietnamita

Disponibile solo nella versione 3 (beta):

  • afrikaans (afr)
  • Armeno (hye)
  • Assamese (asm)
  • Azerbaigiano (aze)
  • bielorusso (bel)
  • bengalese (ben)
  • bosniaco (bos)
  • Catalano (gatto)
  • Cebuano (ceb)
  • Chichewa (nuovo)
  • estone (est)
  • Galiziano (glg)
  • Georgiano (kat)
  • Gujarati (guj)
  • Hausa (hau)
  • Ebraico (heb)
  • islandese (isola)
  • Irlandese (gle)
  • giavanese (jav)
  • Kannada (uomo)
  • kazako (kaz)
  • kirghiso (kir)
  • lettone (lav)
  • Lingala (lin)
  • lituano (lit)
  • lussemburghese (ltz)
  • Macedone (mkd)
  • Malayalam (mappa)
  • Cinese mandarino (cmn)
  • Marathi (marzo)
  • Nepalese (nep)
  • Pashtu (pus)
  • Persiano (fas)
  • Punjabi (padella)
  • serbo (srp)
  • Sindhi (snd)
  • sloveno (slv)
  • Somalo (som)
  • Swahili (swa)
  • Telugu (tel)
  • tailandese (tha)
  • Urdu (urdo)
  • Gallese (cym)

Crea effetti sonori utilizzando le istruzioni

Gli effetti sonori in linea con il tema e il contenuto possono evidenziare azioni o feedback importanti, come fare clic su un pulsante o scegliere una risposta corretta, offrendo un'esperienza di e-learning più coinvolgente ed efficace. Con gli effetti sonori di AI Assistant, ora puoi usare le istruzioni per creare facilmente quasi tutti i suoni immaginabili. Non dovrai più perdere tempo a setacciare il Web alla ricerca di suoni predefiniti che potrebbero costare di più!

Inizia a creare effetti sonori di alta qualità accedendo al menu AI Assistant nella barra multifunzione sotto la scheda Home o Inserisci. Quindi, fai clic sulla metà inferiore dell'icona Inserisci audio e scegli Effetti sonori. (Puoi accedervi anche dal menu a discesa Audio nella scheda Inserisci. Seleziona semplicemente Effetti sonori nell'opzione AI Audio.) Nella casella di testo, descrivi l'effetto sonoro che desideri e scegli una durata. Puoi regolare il cursore Prompt influence per dare ad AI Assistant una licenza più o meno creativa nella generazione del suono.

Poiché AI Assistant comprende il linguaggio naturale, gli effetti sonori possono essere creati utilizzando qualsiasi cosa, da un semplice prompt come «un solo clic del mouse» a uno molto complesso che descrive più suoni o una sequenza di suoni in un ordine specifico. Tieni presente che hai a disposizione un massimo di 450 caratteri per descrivere il suono che desideri generare.

Fate clic sui seguenti collegamenti per ascoltare gli effetti sonori creati utilizzando un prompt semplice e uno complesso.

Puoi anche regolare la Durata, ossia la durata della riproduzione dell'effetto sonoro, fino a un massimo di 22 secondi. Ad esempio, se il prompt è «cane che abbaia» e imposti la durata su 10 secondi, abbaierai continuamente, ma una durata di due secondi equivale ad abbaiare rapidamente. Regolando il cursore Prompt Influence verso destra, AI Assistant aderisce rigorosamente al tuo prompt, mentre lo fai scorrere verso sinistra per un'interpretazione più libera.

Suggerimento: puoi determinare istantaneamente se il tuo effetto sonoro ha sottotitoli codificati tramite l'etichetta CC che appare accanto a ciascuna uscita.

Alcuni termini Pro da conoscere

L'uso della terminologia audio, un vocabolario specializzato utilizzato dagli esperti audio nel loro lavoro, può aiutare a migliorare le istruzioni e produrre effetti sonori ancora più dinamici. Ecco alcuni esempi:

Braam: Un suono di basso profondo, risonante e spesso distorto utilizzato nei media, in particolare nei trailer, per creare un senso di tensione, potenza o morte imminente.

Whoosh: un suono rapido e singhiozzante spesso usato per enfatizzare movimenti rapidi, transizioni o momenti drammatici.

Impatto: un rumore acuto e sorprendente usato per indicare una collisione, un urto o un contatto violento improvviso, spesso per evidenziare un momento di azione o di enfasi.

Glitch: un rumore breve, stridente e generalmente digitale che imita un malfunzionamento o una distorsione, comunemente usato per comunicare errori.

Foley: Il processo di ricreare e registrare effetti sonori quotidiani come movimenti e suoni di oggetti in sincronia con le immagini di un film, video o altri media.

Ecco qualcosa di divertente da provare! Genera un effetto sonoro di 3 secondi usando il prompt «Qualità da studio, suono progettato: whosh and braam impact». L'aumento della durata può produrre effetti sonori migliori, ma creerà anche più aria morta verso la fine.

Suggerimento: le onomatopee, parole come «buzz», «boom», «click» e «pop» che imitano i suoni naturali, sono anche termini importanti nel campo degli effetti sonori. Usali nelle istruzioni per creare effetti sonori più realistici.

Tutorial video

Vuoi saperne di più prima di iniziare? Dai un'occhiata ai nostri tutorial video per ulteriori indicazioni sull'uso di AI Assistant per generare effetti sonori e di sintesi vocale.

Articulate 360 Training offre anche tutorial video aggiuntivi sull'utilizzo di altre funzionalità di AI Assistant.

È necessario accedere al proprio account Articulate 360 per guardare i video. Non hai ancora un account? Registrati subito per una prova gratuita!