Nuestro AI Speech Classifier te permite detectar si un clip de audio se ha creado con ElevenLabs
Cómo ElevenLabs se está preparando para las elecciones de 2024
Asegurar que nuestros sistemas se desarrollen, implementen y utilicen de manera segura es nuestra prioridad
A lo largo de 2024, se llevarán a cabo una serie de elecciones en todo el mundo. A medida que se acercan, nos centramos en avanzar en el uso seguro y justo de voces IA.
Nuestra tecnología nació de nuestro compromiso de derribar barreras lingüísticas y fomentar la comprensión global. Continúa encontrando aplicaciones inspiradoras en educación, entretenimiento y accesibilidad, haciendo el contenido más atractivo e inclusivo.
Sin embargo, reconocemos el cambiante panorama de la tecnología IA y sus implicaciones para el proceso político. Asegurar que nuestros sistemas se desarrollen, implementen y utilicen de manera segura es nuestra prioridad y estamos tomando medidas adicionales para combatir el mal uso y la difusión de desinformación a medida que la tecnología evoluciona.
Prevención del mal uso
En nuestros continuos esfuerzos por asegurar una experiencia positiva para todos los usuarios de nuestra plataforma, estamos tomando medidas específicas para evitar que las voces IA se utilicen para difundir desinformación. Aunque nuestros términos ya prohíben usar nuestra plataforma para suplantar o dañar a otros, estamos tomando la medida adicional de introducir una salvaguarda de ‘voces prohibidas’. Esta salvaguarda está diseñada para detectar y prevenir la creación de voces que imiten a candidatos políticos involucrados activamente en elecciones presidenciales o de primer ministro, comenzando con las de EE.UU. y el Reino Unido. Estamos trabajando para expandir esta salvaguarda a otros idiomas y ciclos electorales. También buscamos refinar continuamente esta medida a través de pruebas prácticas y comentarios. Invitamos a otras empresas de IA y socios a colaborar con nosotros en explorar formas de mejorar y extender estas salvaguardas de manera efectiva.
También estamos probando activamente nuevas formas de contrarrestar la creación de contenido político que podría afectar la participación en el proceso democrático o engañar a los votantes. Nuestros sistemas siempre nos han permitido rastrear el contenido generado en nuestra plataforma hasta la cuenta de origen. Estamos desarrollando activamente nuevos mecanismos de moderación y revisión interna para identificar y abordar casos de abuso de manera más efectiva. La tergiversación de procesos electorales, la elegibilidad de votantes o el valor del voto socava la democracia y nos oponemos firmemente al uso de IA para crear confusión o desconfianza en el sistema democrático. Usar nuestra tecnología para actividades de campaña política que impliquen suplantar a otros, crear chatbots o realizar llamadas automáticas es una violación directa de nuestros términos.
Transparencia sobre contenido generado por IA
Habilitar la identificación clara del contenido generado por IA es un aspecto clave de nuestros esfuerzos de desarrollo responsable.
El pasado junio lanzamos el AI Speech Classifier, que permite a cualquiera subir muestras de audio para analizar si el audio fue generado por IA de ElevenLabs. Nuestro objetivo es ayudar a prevenir la difusión de desinformación haciendo que la fuente del contenido de audio sea más fácil de evaluar. Si estás interesado en una asociación o integración, por favor contacta con nosotros en legal@www.11labs.ru. Si encuentras algo preocupante en nuestra plataforma, o que crees que fue creado en nuestra plataforma, por favor háznoslo saber aquí.
Equilibrando innovación y responsabilidad
Nos inspira las aplicaciones positivas que nuestra comunidad sigue encontrando para nuestra tecnología. A lo largo de 2024 y más allá, seguimos comprometidos con la innovación responsable manteniendo un diálogo continuo con nuestra comunidad, socios, sociedad civil y partes interesadas clave.
Descubre artículos del equipo de ElevenLabs

ElevenLabs y Reality Defender colaboran para desarrollar iniciativas de seguridad de IA
Reality Defender potencia los sistemas de detección de IA aprovechando los datos y conocimientos de la IA de audio de ElevenLabs

Integrating external agents with ElevenLabs Agents' voice orchestration
Patterns for integrating ElevenLabs voice orchestration with complex and stateful agents

