Środa , 11 Grudzień 2024

Sztuczna inteligencja potrafi już podrobić głos każdej osoby

   01.02.2023
Jeden z amerykańskich startupów zaprezentował w sieci potężne narzędzie, dzięki któremu posiadając próbkę głosu dowolnej osoby, możemy stworzyć brzmiące bardzo wiarygodnie „nagranie” jej zmyślonej przez nas wypowiedzi. Za oceanem głośno o wynalazku, który zjawisko deepfake wynosi na nowy poziom i sprawia, że wkrótce może być bardzo trudno odróżnić prawdę od wyobraźni internetowych twórców.
Deepfake wkracza na nowy poziom. Można już łatwo fałszować cudzy głos. Fot. Unsplash

Amerykański startup o nazwie ElevenLabs uruchomił kilka dni temu testową wersję nowej platformy Prime Voice AI własnego pomysłu, operującej w oparciu o algorytmy sztucznej inteligencji, która pozwala, by dowolny użytkownik miał możliwość łatwego tworzenia nagrań dźwiękowych, chociażby używając dedykowanego narzędzia zmiany tekstu na mowę (wpisany tekst jest przekształcany na zapis dźwiękowy w formie wypowiedzi). To, co wzbudza sensację, to oczywiście nie samo przekształcanie tekstu na głos (co można robić już od dawna), ale najważniejsza nowa funkcjonalność systemu, jaką jest możliwość użycia klonowania autentycznego głosu: zamiast zwykłego syntezatora, możemy dać systemowi próbkę wypowiedzi innej osoby, a on stworzy fikcyjną wypowiedź brzmiącą niemal dokładnie tak, jak głos owego realnego człowieka.

Fikcyjne nagrania wypowiedzi znanych osób zaleją sieć?

Ponieważ narzędzie zostało udostępnione wszystkim chętnym, w ciągu kilkudziesięciu godzin, sieć, zwłaszcza w USA, zaczęły zalewać fikcyjne (często gorszące) nagrania „wypowiedzi” znanych osób. Doszło do tego, że twórcy systemu sami przyznali na Twitterze, że widzą "rosnącą liczbę przypadków niewłaściwego wykorzystania klonowania głosu" i że firma podejmie kroki, które ten proceder ograniczą.

Materiały, które znalazły się w sieci, są dość szokujące. Obok wypowiedzi wulgarnych, deprecjonujących inne osoby, pojawiło się też ponoć nagranie, na którym głosem łudząco podobnym do hollywoodzkiej gwiazdy Emmy Watson maszyna czyta kolejne strony... Mein Kampf. Pomysłowość internautów nie ma granic.

Deepfake w natarciu

Cała sprawa pokazuje, jak zaawansowane są już systemy tworzące "deepfake". Wcześniej dominowały manipulacje obrazem, teraz do wachlarza możliwości twórców tego typu treści dołącza też konstruowanie profesjonalnie brzmiących klipów audio i to z głosami sprawiającymi wrażenie autentycznych. Polem, gdzie tego typu kreacje są wykorzystywane obecnie najczęściej, jest obecnie pornografia. Internetowi twórcy wykorzystują wizerunki znanych osób, chociażby polityków, aktorów, sportowców, a następnie tworzą materiały filmowe z ich udziałem. Teraz do obrazu będą też mogli dodać głos. Stworzony system nie jest pod tym względem nawet przesadnie wymagający, gdyż do stworzenia wzorca wystarczy zaledwie 60-sekundowa próbka wypowiedzi danej osoby.

Tego typu zaawansowane fałszerstwa były wykonywane wcześniej i bez użycia sztucznej inteligencji, jednak zgranie czyjegoś wizerunku i autentycznego głosu wymagało wielu tygodni a często nawet miesięcy żmudnej pracy programistów. Teraz wszyscy chętni otrzymają proste w obsłudze narzędzie, które jest w stanie wykonać taką pracę w ciągu kilku minut. Bardzo łatwo można sobie wyobrazić pola, na których internetowi oszuści mogą chcieć wykorzystać tego typu system. Chociażby w celu szantażu czy zastraszania innych internautów lub osób publicznych.

Postęp czy zagrożenie?

Twórcy systemu, firma ElevenLabs obiecała, że zbierze teraz opinie na temat tego, jak zapobiegać nadużywaniu technologii przez mających złe zamiary użytkowników. Na początek konta osób korzystających z systemu będą lepiej weryfikowane, a do klonowania głosu będzie trzeba podać pełną tożsamość. Użytkownicy będą też musieli weryfikować własność praw autorskich do głosu, który chcą sklonować. Czy te zabezpieczenie okażą się skuteczny czas pokaże.

Tomasz Sławiński

 

 

KOMENTARZE (0) SKOMENTUJ ZOBACZ WSZYSTKIE

Najczęściej czytane