Un contundente mensaje dejó en sus canales de comunicación el alcalde de Cartagena, William Dau Chamat, quien expresó su descontento por la circulación de un audio en el que utilizaron inteligencia artificial y apartes de algunas grabaciones, según para intentar perjudicarlo.
“Siguen los ataques en mi contra; hoy escuché un audio de una grabación que está circulando en redes sociales, con el que pretenden involucrarme en política, y eso es mentira, ¡es un montaje! Hay una parte que suena como mi voz, pero es inteligencia artificial, además, toman pedazos de grabaciones anteriores para unir el mensaje que querían construir, con el único fin de hacer entender que estoy participando en política, situación que es falsa”, expresó el mandatario de los cartageneros, William Dau Chamat. Lea también: Inteligencia Artificial ‘malandrina’: William Dau denuncia que clonaron su voz
La desinformación política es un problema global, y los ciudadanos pueden desempeñar un papel en la lucha contra ella al aprender a identificar señales de manipulación de audio. Hoy te damos algunas recomendaciones claves para ayudarte a reconocer cuando un archivo de audio ha sido manipulado:
- Verifica la fuente: Antes de creer en un audio, asegúrese de que provenga de una fuente confiable y verificable. Si no puedes rastrear el origen del audio o no conoces a la persona que lo compartió, sé cauteloso.
- Escucha atentamente: Presta atención a los detalles. Si el audio parece poco natural, contiene pausas extrañas o cambios abruptos en el tono de voz, podría ser una señal de manipulación.
- Busca inconsistencias: Si el contenido del audio contradice información ampliamente aceptada o va en contra de los hechos comprobables, es una señal de alerta. Verifica los datos y busca fuentes adicionales para respaldar la información.
- Analiza la edición: Examina si ha habido cortes o ediciones notables en el audio. Las manipulaciones a menudo implican la eliminación de partes importantes para cambiar el contexto.
- Comparación de voces: Si puedes, compara la voz en el audio sospechoso con grabaciones auténticas de la misma persona. Si hay discrepancias evidentes en el tono, el ritmo o el acento, es una señal de posible manipulación.
- Verifica con herramientas: Utiliza herramientas en línea o aplicaciones que pueden ayudarte a analizar la autenticidad del audio. Algunas de estas herramientas emplean algoritmos para detectar alteraciones.
- Confirma con expertos: Si tienes dudas sobre la autenticidad de un audio, consulta con expertos en forense de audio. Ellos pueden evaluar el archivo y proporcionar un análisis más profundo.
- Comprueba la cadena de custodia: Si el audio se ha compartido como evidencia de un evento, verifica si se ha mantenido una cadena de custodia adecuada. Cualquier interrupción en la custodia podría cuestionar su autenticidad.
- Sé escéptico: Mantén un nivel saludable de escepticismo en línea. La desinformación política es una amenaza real, y es importante no creer en todo lo que se presenta en las redes sociales sin verificarlo.
- Promueve la educación digital: Ayuda a otros a comprender la importancia de la verificación de la información y la detección de manipulaciones de audio. Cuanto más consciente sea la sociedad, más difícil será que la desinformación se propague.
¿Cómo clonan el audio y qué tan peligroso es?
Clonar un audio utilizando Inteligencia Artificial (IA) es un proceso que implica la generación de una grabación de voz que parece ser auténtica pero que en realidad ha sido creada por algoritmos de IA.
De hecho, hay video tutoriales en Youtube donde están enseñando a algunas personas a clonar voces. Lo peligroso de esto es lo fines con los que cibernautas buscan aprender esta técnica.

Esto se hace mediante técnicas de síntesis de voz que analizan y replican las características vocales de una persona, como el tono, la entonación, la velocidad y otros rasgos distintivos. A continuación, se explica cómo funciona este proceso y por qué puede ser peligroso:
1. Para clonar la voz de alguien, se necesitan grabaciones de voz de la persona en cuestión. Cuantas más grabaciones, mejor, ya que permiten a los algoritmos capturar una variedad de matices vocales. Lea también: Si es por estos candidatos a la Alcaldía, los drones serán los policías
2. Estas grabaciones se utilizan para entrenar un modelo de IA, que aprende a imitar la voz de la persona en función de las características y patrones detectados en las grabaciones.
3. Una vez que el modelo de IA ha sido entrenado adecuadamente, puede generar voz sintética que imita la voz de la persona. Esta voz sintética se puede utilizar para crear nuevas grabaciones de audio que parezcan auténticas.
Comentarios ()