Dzięki wsparciu ElevenLabs Impact Program, Generative AI for Good uruchomiło projekt „Hearing Their Voices” w ONZ w Genewie, pomagając osobom, które przeżyły przemoc seksualną w konfliktach, bezpiecznie opowiedzieć swoje historie.
Wydarzenie prowadzone przez Shiran Mlamdovsky-Somech i Tatianę Kotlyarenko, współorganizowane przez UNITAR i Kigali Genocide Memorial, zgromadziło liderów polityki, technologii i praw człowieka, by wspólnie zastanowić się, jak etyczne AI może wspierać budowanie pokoju i ochronę osób ocalałych.
Celem jest umożliwienie osobom, które przeżyły przemoc seksualną w konfliktach, bezpiecznego dzielenia się swoimi historiami dzięki zanonimizowanym głosom AI, które zachowują ton, jasność i emocje, eliminując ryzyko rozpoznania. W ramach Impact Program udostępniliśmy technologię głosową ElevenLabs bezpłatnie, by wesprzeć tę inicjatywę.
Zobacz fragment „Hearing Their Voices”
Dlaczego to jest ważne
Przemoc seksualna w konfliktach to nie tylko osobista tragedia, ale też zagrożenie dla pokoju, stabilności i sprawiedliwości. Osoby ocalałe często milczą z powodu stygmy, strachu lub realnego zagrożenia. Gdy świadectwa nie mogą być ujawnione, społeczność międzynarodowa traci kluczowe dowody potrzebne do zapobiegania, rozliczania sprawców i odbudowy.
Wydarzenie w Genewie podkreśla to wyzwanie. Każdego roku Międzynarodowy Dzień Eliminacji Przemocy wobec Kobiet podkreśla potrzebę skoordynowanych działań na świecie. Dzisiejsza sesja badała zarówno ryzyka, jak i szanse na styku AI, CRSV i budowania pokoju. W tym szerszym kontekście, Hearing Their Voices pokazuje, jak etyczne AI może wzmacniać dokumentację i oddawać głos osobom ocalałym.
Rola ElevenLabs Impact Program
Nasze wsparcie dla tej inicjatywy wpisuje się w misję ElevenLabs Impact Program, który pomaga organizacjom non-profit rozwijać projekty służące zdrowiu, edukacji i kulturze. Oferujemy wsparcie rzeczowe, by ułatwiać tworzenie narzędzi poprawiających komunikację, chroniących tożsamość i ułatwiających dostęp do ważnych informacji.
Dla Generative AI for Good oznacza to stworzenie bezpiecznego procesu opowiadania historii, w którym najważniejsze jest bezpieczeństwo osób ocalałych. Chodzi o to, by ich głos był słyszany bez narażania ich na kolejne zagrożenia. Technologia ma zachować sens wypowiedzi, nie zmieniać go, dzięki czemu historie pozostają autentyczne, a tożsamość chroniona.
Co dalej
Gdy światowe instytucje zastanawiają się, jak wykorzystywać AI w prawach człowieka, dokumentacji i budowaniu pokoju, ta inicjatywa pokazuje, jak można to robić etycznie. Projekt uruchomiony dziś w Genewie pokazuje, że odpowiedzialne AI może wspierać osoby ocalałe, pomagać w tworzeniu polityk i budować długotrwałą stabilność.
Zespół ElevenLabs Impact Program niedawno wziął udział w dwóch ważnych wydarzeniach w branży mowy i technologii wspomagających: konwencji American Speech-Language-Hearing Association (ASHA) oraz Allied Professionals Forum organizowanym przez International Alliance of ALS/MND Associations.