Wyszukiwanie artykułów

Wybierz produkt

Katalog pomocy dla null

Przeglądaj wszystkie artykuły null (Last Updated )

Nie znaleziono artykułów.

Wyniki wyszukiwania

Nie znaleziono artykułów.

AI Assistant: Tworzenie wysoce realistycznego dźwięku

Artykuł zaktualizowany ostatnio dnia 4 mar 2026

Jako autor kursu chcesz zrobić coś więcej niż tylko prezentować informacje - chcesz tworzyć wielozmysłowe doświadczenia e-learningowe, które rezonują z uczestnikami. Kreatywne wykorzystanie dźwięku może pomóc Ci się tam dostać. Funkcje zamiany tekstu na mowę i efekty dźwiękowe AI Assistant pozwalają tworzyć wysoce realistyczne głosy i efekty dźwiękowe generowane przez sztuczną inteligencję, zapewniając bardziej wciągające i dostępne treści.

Pierwotnie obie te funkcje były dostępne tylko w Storyline 360. Jednak od aktualizacji z lipca 2025 r. AI Assistant w Rise 360 może generować narrację zamiany tekstu na mowę. Odwiedź ten podręcznik użytkownika, aby rozpocząć tworzenie narracji generowanych przez sztuczną inteligencję w Rise 360.

W Storyline 360 dostęp do tych funkcji można uzyskać z menu rozwijanego Wstaw dźwięk w menu AI Assistant na wstążce. Znajdź je na karcie Strona główna lub Wstaw, gdy jesteś w widoku slajdów lub rozmawiasz z AI Assistant w panelu bocznym, aby zwiększyć wygodę.

Ożyw Narrację dzięki głosom generowanym przez sztuczną inteligencję

Jeśli kiedykolwiek używałeś klasycznego zamiany tekstu na mowę, prawdopodobnie chciałbyś, aby głosy brzmiały mniej, cóż, robotycznie. Tekst na mowę AI Assistant ożywia narrację dzięki świadomym kontekstowo głosom generowanym przez sztuczną inteligencję, które brzmią bardziej naturalnie - i ludzko! Sprawdź różnicę w jakości między głosem standardowym, głosem neuronowym i głosem generowanym przez sztuczną inteligencję, klikając łącza do poniższych przykładów zamiany tekstu na mowę.

Aby rozpocząć, kliknij ikonę Wstaw dźwięk w menu AI Assistant, aby otworzyć okno dialogowe Generuj dźwięk AI. Biblioteka głosów generowanych przez sztuczną inteligencję - które można filtrować według płci, wieku i akcentu - jest wyświetlana na karcie Głosy. Głosy mają również opisy takie jak „głęboki”, „pewny siebie”, „ostry”, „intensywny” i „kojący” oraz kategorie, które mogą pomóc w określeniu ich idealnych przypadków użycia, od transmisji informacyjnych po medytację, a nawet ASMR. Znajdź te cechy pod nazwą głosu i użyj przycisku odtwarzania, aby wyświetlić podgląd głosu.

Obecnie do wyboru są 52 gotowe głosy i możesz oznaczyć swoje ulubione, klikając ikonę serca. W ten sposób możesz łatwo uzyskać dostęp do preferowanych głosów bez konieczności przewijania listy. Zauważ, że głosy oznaczone jako „Legacy” nie będą aktualizowane, gdy przyszłe modele sztucznej inteligencji ulegną poprawie.

Przełącz opcję Widok na Ulubione, aby znaleźć wszystkie swoje ulubione głosy, lub W projekcie, aby zobaczyć głosy używane w bieżącym projekcie. Gdy już zdecydujesz się na głos, kliknij przycisk oznaczony Użyj, aby przejść do zakładki Tekst na mowę. Twój wybrany głos jest już wstępnie wybrany.

Następnie wprowadź skrypt w podane pole tekstowe lub kliknij link dodaj z notatek slajdu, aby skopiować notatki ze slajdu. Skrypt może mieć maksymalnie 5000 postacie. Dla ułatwień dostępu pozostaw pole Generuj napisy zamknięte zaznaczone — Asystent AI automatycznie wygeneruje napisy zamknięte. Możesz natychmiast określić, czy narracja zamiany tekstu na mowę ma napisy zamknięte za pomocą etykiety CC, która pojawia się obok każdego wyjścia.

Znajdź więcej głosów w bibliotece głosowej

Oprócz gotowych głosów masz również dostęp do rozszerzonej biblioteki głosowej z tysiącami ultrarealistycznych głosów generowanych przez sztuczną inteligencję, które można filtrować według wieku, płci i przypadku użycia. Znajdź odpowiedni głos dla swoich treści w bibliotece głosowej, sprawdzając poniższe instrukcje użytkownika.

Okres powiadomienia o usunięciu głosu

Głos może mieć okres wypowiedzenia, który określa, jak długo będziesz mieć dostęp do głosu, jeśli jego twórca zdecyduje się usunąć go z biblioteki głosowej. Gdy tak się stanie, usunięty głos nie będzie już dostępny w bibliotece. Jeśli wcześniej dodałeś go do Moje głosy w Storyline 360 lub Ulubione w Rise 360, usunięty głos będzie nadal wyświetlany na Twojej liście i może być używany do generowania nowej zawartości, ale w Storyline 360 zobaczysz ostrzeżenie i datę, kiedy nie będzie już dostępny. Po upływie okresu wypowiedzenia głos wyświetli błąd i nie można go już przeglądać ani używać do generowania nowych treści. Możesz go usunąć, aby zwolnić jedno z niestandardowych gniazd głosowych.

Większość głosów ma okresy wypowiedzenia, ale niektóre nie. Głosy bez okresu wypowiedzenia znikają natychmiast z biblioteki głosowej, jeśli twórca głosu zdecyduje się je usunąć. Wygenerowana zawartość za pomocą głosu, który został usunięty z biblioteki głosowej, będzie nadal działać jako zwykły plik audio.

Dostosuj ustawienia głosu

W przeciwieństwie do klasycznego zamiany tekstu na mowę, głosy generowane przez sztuczną inteligencję w funkcji zamiany tekstu na mowę AI Assistant można dostosować do indywidualnych potrzeb. Ustawienie Model pozwala wybrać jedną z trzech różnych opcji:

  • v3 (beta) - Najbardziej ekspresyjny, wysoki zakres emocjonalny i kontekstowe zrozumienie w ponad 70 językach. Pozwala na maksymalnie 3000 postacie. Zauważ, że ten model jest aktywnie rozwijany. Funkcjonalności mogą ulec zmianie lub możesz napotkać nieoczekiwane zachowanie, gdy będziemy je ulepszać. Aby uzyskać najlepsze wyniki, sprawdź poniższe techniki podpowiedzi.
  • Wielojęzyczny v2 (model domyślny) - Wysoce stabilna i wyjątkowo dokładna realistyczna mowa z obsługą 29 języków. Pozwala na maksymalnie 10 000 postacie.
  • Flash v2.5 - Nieco mniej stabilny, ale może generować szybciej dzięki wsparciu dla 32 języków. Pozwala na maksymalnie 40 000 postacie.

Wskazówka dla profesjonalistów: niektóre głosy brzmią lepiej w niektórych modelach, a niektóre modele działają lepiej w określonych językach. Eksperymentuj z różnymi kombinacjami, aby znaleźć to, co działa najlepiej. Na przykład głos Matyldy brzmi bardziej naturalnie w języku hiszpańskim w modelu Multilingual v2 niż w wersji 3.

Ustawienie Stabilność steruje równowagą między stabilnością głosu a przypadkowością. Szybkość ustawia tempo, a Podobieństwo określa, jak ściśle AI Assistant powinien przylegać do oryginalnego głosu podczas jego replikacji.

Dodatkowe ustawienia obejmują przesadę stylu, która wzmacnia styl oryginalnego głosu, oraz wzmocnienie głośnika, które zwiększa podobieństwo między syntetyzowaną mową a głosem. Pamiętaj, że jeśli którekolwiek z tych ustawień zostanie dostosowane, generowanie mowy potrwa dłużej.

Baw się tymi ustawieniami, aby znaleźć odpowiednią równowagę dla swoich treści. Poniższa tabela przedstawia domyślną wartość suwaka dla każdego ustawienia. Dla modelu v3, Stabilność jest jedyną dostępną opcją.

UstawienieStoryline 360Rise 360
Stabilność0,5050
Prędkość1.00100
Podobieństwo1.00100
Wyolbrzymianie stylu0.000
Wzmocnienie głośnika (pole wyboru)SprawdzoneSprawdzone

Uwaga: Niektóre głosy w modelu Multilingual v2 mają zwykle niespójną głośność - zanikającą pod koniec - podczas generowania długich klipów. Jest to znany problem z podstawowym modelem, a nasz podprocesor sztucznej inteligencji do zamiany tekstu na mowę pracuje nad jego rozwiązaniem. W międzyczasie proponujemy następujące obejścia:

  • Użyj innego głosu
  • Przełącz na model Flash v2.5
  • Zwiększ stabilność głosu
  • Ręcznie podziel tekst na mniejsze fragmenty, aby wygenerować krótsze klipy

Czy muszę używać SSML?

AI Assistant ma ograniczone wsparcie dla języka znaczników syntezy mowy (SSML), ponieważ głosy generowane przez sztuczną inteligencję mają na celu zrozumienie relacji między słowami i odpowiednie dostosowanie dostarczania. Jeśli chcesz ręcznie kontrolować stymulację, możesz dodać pauzę. Najbardziej spójnym sposobem na to jest wstawienie składni <break time="1.5s" /> do skryptu. Stwarza to dokładną i naturalną pauzę w mowie. Na przykład:

Dzięki swoim bystrym zmysłom <break time="1.5s" /> koty są wykwalifikowanymi myśliwymi.

Użyj sekund, aby opisać przerwę trwającą do trzech sekund.

Możesz wypróbować prosty myślnik - lub em-dash, aby wstawić krótką pauzę lub wiele myślników dla dłuższej pauzy. Elipsa ... czasami działa, aby dodać przerwę między słowami. Jednak te opcje mogą nie działać konsekwentnie, dlatego zalecamy użycie powyższej składni dla spójności. Pamiętaj tylko, że nadmierna liczba znaczników przerwania może potencjalnie spowodować niestabilność.

Techniki podpowiadania dla wersji 3 (beta)

Model v3 (beta) wprowadza kontrolę emocjonalną za pomocą tagów audio, umożliwiając między innymi śmiech, szeptanie, sarkastyczne lub okazywanie ciekawości.

W poniższej tabeli wymieniono różne tagi, których można użyć do kontrolowania dostarczania głosu i ekspresji emocjonalnej, a także do dodawania dźwięków i efektów tła. Zawiera również kilka eksperymentalnych tagów do kreatywnych zastosowań.

Głos i emocjeDźwięki i efektyeksperymentalny
  • [śmiech], [śmieje się mocniej], [zaczyna się śmiać], [świszczący oddech]
  • [szepcze]
  • [wzdycha], [wydycha]
  • [sarkastyczny], [ciekawy], [podekscytowany], [płacz], [prycha], [psotnie]

Przykład: [szepty] Nie patrz teraz, ale myślę, że nas usłyszeli.

  • [wystrzał], [brawa], [klaskanie], [eksplozja]
  • [jaskółki], [łyki]

Przykład: [brawa] Cóż, poszło lepiej niż oczekiwano. [eksplozja] Nieważne.

  • [mocny akcent X] (zastąp X pożądanym akcentem)
  • [śpiewa], [woo]

Przykład: [silny francuski akcent] Zat nie jest tym, o czym mówię, non non non.

Oprócz tagów audio interpunkcja wpływa również na dostarczanie. Elipsy (...) dodają pauzy, wielkie litery podkreślają określone słowa lub frazy, a standardowa interpunkcja naśladuje naturalny rytm mowy. Na przykład: „To było BARDZO udane! ... [zaczyna się śmiać] Czy możesz w to uwierzyć?”

Wskazówki:

  • Używaj tagów audio, które pasują do osobowości głosu. Spokojny, medytacyjny głos nie będzie krzyczał, a wysokoenergetyczny głos nie będzie szeptał przekonująco.
  • Bardzo krótkie podpowiedzi mogą prowadzić do niespójnych wyników. Aby uzyskać bardziej spójne, skoncentrowane wyniki, sugerujemy podpowiedzi o ponad 250 postacie.
  • Niektóre tagi eksperymentalne mogą być mniej spójne we wszystkich głosach. Dokładnie przetestuj przed użyciem.
  • Połącz wiele tagów, aby uzyskać złożone przekazywanie emocji. Wypróbuj różne kombinacje, aby znaleźć to, co najlepiej pasuje do wybranego głosu.
  • Powyższa lista jest po prostu punktem wyjścia; mogą istnieć bardziej skuteczne tagi. Eksperymentuj z łączeniem stanów emocjonalnych i działań, aby znaleźć to, co najlepiej pasuje do Twojego przypadku użycia.
  • Użyj naturalnej mowy, właściwej interpunkcji i wyraźnych sygnałów emocjonalnych, aby uzyskać najlepsze wyniki.

Wielojęzyczne głosy poszerzają Twój zasięg

Kolejną istotną zaletą tekstu na mowę generowanego przez sztuczną inteligencję jest możliwość wypełnienia luk językowych, umożliwiając łączenie się z międzynarodową publicznością. Dzięki wsparciu dla ponad 70 języków w zależności od modelu - w tym niektórych z wieloma akcentami i dialektami - zamiana tekstu na mowę AI Assistant pomaga Twoim treściom rezonować z globalną publicznością.

Wszystko, co musisz zrobić, to wpisać lub wkleić skrypt w obsługiwanym języku, którego ma używać AI Assistant. (Nawet jeśli opis głosowy odnotowuje określony akcent lub język, AI Assistant wygeneruje narrację w języku używanym w skrypcie). Pamiętaj, że niektóre głosy zwykle działają najlepiej z określonymi akcentami lub językami, więc nie krępuj się eksperymentować z różnymi głosami, aby znaleźć najlepsze dopasowanie do swoich potrzeb.

Poniższa tabela zawiera krótkie podsumowanie obsługiwanych języków.

Dostępne w wersjach v3 (beta), Multilingual v2 i Flash v2.5:

  • Arabski (Arabia Saudyjska)
  • Arabski (ZEA)
  • bułgarski
  • chiński
  • Chorwacki
  • Czech
  • duński
  • Holenderski
  • Angielski (Australia)
  • Angielski (Kanada)
  • Angielski (UK)
  • Angielski (USA)
  • Filipińczyk
  • Fiński
  • Francuski (Kanada)
  • Francuski (Francja)
  • Niemiec
  • Grek
  • Hindi
  • indonezyjska
  • Włoski
  • Japończyk
  • koreański
  • malajski
  • Polskie
  • Portugalski (Brazylia)
  • Portugalski (Portugalia)
  • rumuński
  • rosyjski
  • słowacki
  • hiszpański (Meksyk)
  • hiszpański (Hiszpania)
  • Szwedzki
  • Tamilski
  • turecki
  • ukraiński
 
Dostępne w wersji 3 (beta) i Flash v2.5:
  • Węgierski
  • norweski
  • wietnamski

Dostępne tylko w wersji 3 (beta):

  • afrykanerski (afr)
  • Ormiański (hye)
  • Asamski (asm)
  • azerbejdżański (aze)
  • białoruski (bel)
  • bengalski (ben)
  • bośniacki (bos)
  • kataloński (kot)
  • Cebuano (ceb)
  • Chichewa (Nowy)
  • estoński (est)
  • Galicyjski (glg)
  • gruziński (kat)
  • gudżarati (guj)
  • Hausa (hau)
  • hebrajski (heb)
  • islandzki (isl)
  • irlandzki (gle)
  • jawajski (jav)
  • Kannada (kan)
  • Kazachski (kaz)
  • Kirgiz (kir)
  • łotewski (lav)
  • Lingala (lin)
  • litewski (lit)
  • luksemburski (ltz)
  • Macedoński (mkd)
  • malajalam (mal)
  • Chiński mandaryński (cmn)
  • Marathi (mar)
  • nepalski (nep)
  • Paszto (ropa)
  • perski (fas)
  • Pendżabski (patelnia)
  • Serbski (srp)
  • Sindhi (snd)
  • Słoweński (slv)
  • Somalijski (som)
  • Suahili (swa)
  • Telugu (tel)
  • tajski (tha)
  • urdu (urd)
  • Walijski (cym)

Tworzenie efektów dźwiękowych za pomocą monitów

Efekty dźwiękowe, które są zgodne z motywem i treścią, mogą podkreślać ważne działania lub opinia, takie jak kliknięcie przycisku lub wybranie poprawnej odpowiedzi, oferując bardziej angażujące i efektywne doświadczenie e-learningowe. Dzięki efektom dźwiękowym AI Assistant możesz teraz używać podpowiedzi, aby łatwo stworzyć prawie każdy dźwięk, jaki można sobie wyobrazić. Koniec z marnowaniem czasu na przeszukiwanie sieci w poszukiwaniu gotowych dźwięków, które mogą dodatkowo kosztować!

Rozpocznij tworzenie wysokiej jakości efektów dźwiękowych, przechodząc do menu AI Assistant na wstążce na karcie Strona główna lub Wstaw. Następnie kliknij dolną połowę ikona Wstaw dźwięk i wybierz Efekty dźwiękowe. (Możesz również uzyskać do niego dostęp z menu rozwijanego Audio na karcie Wstaw. Po prostu wybierz Efekty dźwiękowe pod opcją AI Audio.) W polu tekstowym opisz żądany efekt dźwiękowy i wybierz czas trwania. Możesz dostosować suwak Wpływ monitu, aby dać AI Assistant mniej lub bardziej kreatywną licencję na generowanie dźwięku.

Ponieważ AI Assistant rozumie język naturalny, efekty dźwiękowe można tworzyć za pomocą dowolnego monitu, od prostego monitu, takiego jak „jedno kliknięcie myszą”, po bardzo złożony, który opisuje wiele dźwięków lub sekwencję dźwięków w określonej kolejności. Pamiętaj, że masz maksymalnie 450 postacie, aby opisać dźwięk, który chcesz wygenerować.

Kliknij poniższe łącza, aby posłuchać efektów dźwiękowych utworzonych za pomocą prostego i złożonego monitu.

Możesz także dostosować czas trwania - jak długo odtwarzany jest efekt dźwiękowy - maksymalnie do 22 sekund. Na przykład, jeśli twój monit to „szczekający pies” i ustawisz czas trwania na 10 sekund, otrzymasz ciągłe szczekanie, ale czas trwania dwóch sekund to jedno szybkie szczekanie. Ustawienie suwaka Prompt Influence w prawo sprawia, że AI Assistant ściśle przestrzega monitu, a przesunięcie go w lewo pozwala na bardziej swobodną interpretację.

Wskazówka dla profesjonalistów: Możesz natychmiast określić, czy efekt dźwiękowy ma napisy zamknięte za pomocą etykiety CC, która pojawia się obok każdego wyjścia.

Niektóre warunki Pro, które należy znać

Korzystanie z terminologii audio - specjalistycznego słownictwa, którego eksperci audio używają w swojej pracy - może pomóc poprawić podpowiedzi i uzyskać jeszcze bardziej dynamiczne efekty dźwiękowe. Oto kilka przykładów:

Braam: Głęboki, rezonansowy i często zniekształcony bas używany w mediach, szczególnie w zwiastunach, aby stworzyć poczucie napięcia, mocy lub zbliżającej się zagłady.

Whoosh: Szybki, oszałamiający dźwięk często używany do podkreślenia przyspieszonego ruchu, przejść lub dramatycznych momentów.

Uderzenie: ostry, uderzający hałas używany do oznaczania kolizji, uderzenia lub nagłego silnego kontaktu, często w celu podkreślenia momentu działania lub nacisku.

Usterka: Krótki, irytujący i zwykle cyfrowy szum, który naśladuje awarię lub zniekształcenie, powszechnie używany do przekazywania błędów.

Foley: Proces odtwarzania i nagrywania codziennych efektów dźwiękowych, takich jak ruchy i dźwięki obiektów w synchronizacji z wizualizacją filmu, wideo lub innych mediów.

Oto coś fajnego do wypróbowania! Wygeneruj 3-sekundowy efekt dźwiękowy za pomocą monitu „jakość studyjna, dźwięk zaprojektowany whoosh i braam impact”. Wydłużenie czasu trwania może dać lepsze efekty dźwiękowe, ale także stworzy więcej martwego powietrza pod koniec.

Wskazówka dla profesjonalistów: onomatopeje - słowa takie jak „buzz”, „boom”, „click” i „pop”, które imitują naturalne dźwięki - są również ważnymi terminami dotyczącymi efektów dźwiękowych. Użyj ich w podpowiedziach, aby stworzyć bardziej realistyczne efekty dźwiękowe.

Samouczki wideo

Chcesz dowiedzieć się więcej, zanim zaczniesz? Zapoznaj się z naszymi samouczkami wideo, aby uzyskać dodatkowe wskazówki dotyczące używania AI Assistant do generowania efektów zamiany tekstu na mowę i dźwięku.

Articulate 360 Training zawiera również dodatkowe samouczki wideo dotyczące korzystania z innych funkcji AI Assistant.

Aby oglądać filmy, musisz być zalogowany na swoje konto Articulate 360. Nie masz jeszcze konta? Zapisz się na bezpłatny okres próbny już teraz!