Narzędzie AI Speech Classifier pozwala wykryć, czy klip audio powstał przy użyciu narzędzi ElevenLabs
Jak ElevenLabs przygotowuje się do wyborów w 2024 roku
Bezpieczny rozwój, wdrażanie i użycie naszych systemów to nasz priorytet
W 2024 roku odbędzie się wiele wyborów na całym świecie. W miarę ich zbliżania się, skupiamy się na bezpiecznym i uczciwym użyciu głosów AI.
Nasza technologia powstała z zaangażowania w przełamywanie barier językowych i wspieranie globalnego zrozumienia. Znajduje inspirujące zastosowania w edukacji, rozrywce i dostępności, jednocześnie czyniąc treści bardziej angażującymi i inkluzywnymi.
Jednak zdajemy sobie sprawę z dynamicznego rozwoju technologii AI i jej wpływu na proces polityczny. Bezpieczny rozwój, wdrażanie i użycie naszych systemów to nasz priorytet, dlatego podejmujemy dodatkowe kroki, aby przeciwdziałać nadużyciom i rozprzestrzenianiu dezinformacji w miarę rozwoju technologii.
Zapobieganie nadużyciom
W naszych nieustannych staraniach o zapewnienie pozytywnych doświadczeń wszystkim użytkownikom naszej platformy, podejmujemy konkretne kroki, aby zapobiec używaniu głosów AI do rozprzestrzeniania dezinformacji. Choć nasze zasady już zabraniają używania naszej platformy do podszywania się pod innych lub szkodzenia im, wprowadzamy dodatkowe zabezpieczenie 'no-go voices'. To zabezpieczenie ma na celu wykrywanie i zapobieganie tworzeniu głosów naśladujących kandydatów politycznych aktywnie uczestniczących w wyborach prezydenckich lub premierowskich, zaczynając od USA i Wielkiej Brytanii. Pracujemy nad rozszerzeniem tego zabezpieczenia na inne języki i cykle wyborcze. Chcemy stale udoskonalać to rozwiązanie poprzez praktyczne testy i opinie. Zapraszamy inne firmy AI i partnerów do współpracy nad skutecznym ulepszaniem i rozszerzaniem tych zabezpieczeń.
Aktywnie testujemy również nowe sposoby przeciwdziałania tworzeniu treści politycznych, które mogłyby wpływać na udział w procesie demokratycznym lub wprowadzać w błąd wyborców. Nasze systemy zawsze pozwalały nam śledzić treści generowane na naszej platformie do konta źródłowego. Aktywnie rozwijamy nowe mechanizmy moderacji i wewnętrznej kontroli, aby skuteczniej identyfikować i rozwiązywać przypadki nadużyć. Fałszowanie procesów wyborczych, uprawnień wyborczych lub wartości głosowania podważa demokrację i stanowczo sprzeciwiamy się używaniu AI do tworzenia zamieszania lub nieufności w systemie demokratycznym. Użycie naszej technologii do działalności kampanii politycznych, które obejmują podszywanie się pod innych, tworzenie chatbotów lub wykonywanie robocallów, jest bezpośrednim naruszeniem naszych zasad.
Przejrzystość treści generowanych przez AI
Umożliwienie jasnej identyfikacji treści generowanych przez AI jest kluczowym aspektem naszych działań na rzecz odpowiedzialnego rozwoju.
W czerwcu zeszłego roku wprowadziliśmy AI Speech Classifier, który pozwala każdemu przesłać próbki audio do analizy, czy zostały wygenerowane przez AI z ElevenLabs. Naszym celem jest pomoc w zapobieganiu rozprzestrzenianiu dezinformacji poprzez ułatwienie oceny źródła treści audio. Jeśli jesteś zainteresowany partnerstwem lub integracją, skontaktuj się z nami pod adresem legal@www.11labs.ru. Jeśli natkniesz się na coś niepokojącego na naszej platformie lub uważasz, że zostało stworzone na naszej platformie, daj nam znać tutaj.
Równowaga między innowacją a odpowiedzialnością
Inspirują nas pozytywne zastosowania, jakie nasza społeczność znajduje dla naszej technologii. W 2024 roku i później pozostajemy zaangażowani w odpowiedzialną innowację, utrzymując ciągły dialog z naszą społecznością, partnerami, społeczeństwem obywatelskim i kluczowymi interesariuszami.
Przeglądaj artykuły zespołu ElevenLabs

ElevenLabs i Reality Defender współpracują przy inicjatywach dotyczących bezpieczeństwa AI
Reality Defender wzmacnia systemy wykrywania AI, wykorzystując dane i analizy Audio AI firmy ElevenLabs

Integrating external agents with ElevenLabs Agents' voice orchestration
Patterns for integrating ElevenLabs voice orchestration with complex and stateful agents

