La música de IA está bien hasta que comienza a fingir ser gente real

La música generada por IA se está volviendo más generalizado Pero no necesariamente popular. Y esa es solo la música AI reconocida públicamente. Ahora, los artistas están lidiando con ver su nombre y voz adjunta a la música que nunca interpretaron o aprobaron, incluso si ellos fallecido hace décadas.
El incidente de alto perfil más reciente ocurrió cuando la cantante folk inglesa Emily Portman escuchó a un fanático que le gustó su nuevo lanzamiento, excepto el álbumOrca, aunque liberado bajo su nombre, era completamente falso. Todo había sido empujado en vivo en Spotify, iTunes, YouTubey otras plataformas importantes sin su conocimiento o consentimiento.
Portman recurrió a las redes sociales para advertir a sus fanáticos sobre lo que estaba sucediendo. El hecho de que la IA pudiera imitar su estilo artístico lo suficientemente bien como para engañar a algunos fanáticos acaba de agregar al factor de fluencia. Spotify tardó semanas en abordar el problema, y aún puede ver el álbum en Spotify, incluso si la música se ha ido.
Portman se une a una letanía de actos, desde el artista pop Josh Kaufman hasta los artistas del country Blaze Foley, quien falleció en 1989, y Guy Clark, quien murió en 2016, al tener su trabajo imitado por AI sin su aprobación.
Parece que hemos pasado la novedad de los remixes de IA y los duetos de Deepfake en el robo de identidad digital con un ritmo. Los ladrones a menudo son buenos para estar callados en sus lanzamientos, capaces de anotar cualquier regalía que pueda gotear.
Además, incluso eliminar la música podría no ser suficiente. Unos días después del incidente inicial, Portman encontró que otro álbum había aparecido en su página de transmisión. Excepto esta vez, solo eran instrumentales sin sentido, sin ningún esfuerzo por sonar como el músico.
Sonidos futuros de AI
Hacer que los estafadores usen la IA para robar de artistas reales es obviamente una parodia. Hay algunos puntos de medio borde borrosos, por supuesto, como músicos nunca reales que fingen ser humanos. Ahí es donde Velvet Generated “Band” Generated Ai Sundown stands.
Los creadores luego admitieron el origen de la banda AI, pero solo después de millones de obras de un perfil de Spotify que muestra imágenes ligeramente extrañas de compañeros de banda que no existían. Como la música era original y no arrancada directamente de otras canciones, no fue una violación técnica de ninguna ley de derechos de autor. La banda no existía, pero las regalías seguramente lo hicieron.
Creo que AI tiene un lugar en la música. Realmente me gusta cómo puede ayudar a la persona promedio, independientemente de las habilidades técnicas o musicales, a producir una canción. Y las herramientas de IA están haciendo que sea más fácil que nunca generar música al estilo de otra persona. Pero, con las plataformas de transmisión que enfrentan 99,000 cargas al día, la mayoría de las cuales se empujan a través de distribuidores de terceros que dependen de metadatos enviados por el usuario, no es difícil deslizar algo falso en el perfil de un artista real. A menos que alguien se note y se queje, simplemente se encuentra allí, haciéndose pasar por algo real.
Muchos fanáticos son engañados, y creyendo que Orca fue realmente el nuevo álbum de Emily Portman. Otros transmitieron Velvet Sundown, pensando que habían tropezado con la próxima Mac de Fleetwood. Y aunque no hay nada de malo en gustarle una canción de IA per se, hay todo mal en no saber que es una canción de IA. Faltan el consentimiento y el contexto, y eso cambia fundamentalmente la experiencia auditiva.
Ahora, algunas personas argumentan que esto es solo la nueva normalidad. Y claro, la IA puede ayudar a los artistas con dificultades para encontrar una nueva inspiración, completar la instrumentación faltante, sugerir progresiones de acordes y proporcionar otra ayuda. Pero eso no es lo que está sucediendo aquí. Estas no son herramientas utilizadas por artistas. Estos son ladrones.
Peor aún, esto socava todo el concepto de propiedad artística. Si puedes hacer un álbum falso de Emily Portman, cualquier artista está en riesgo. Lo único que evita que estos estafadores hagan lo mismo a personas como Taylor Swift en este momento es la amenaza de ser atrapados por equipos legales de alto perfil. Entonces, en cambio, apuntan más bajos. Los artistas menos conocidos no tienen las mismas protecciones, lo que los hace más fáciles. Y más rentable, a largo plazo, porque hay menos escrutinio.
Y está el problema de cómo nosotros, como fanáticos de la música, somos cómplices. Si comenzamos a valorar la conveniencia y la novedad sobre la autenticidad, obtendremos más lodo de IA y menos álbumes reales. El peligro no es solo que la IA pueda imitar a los artistas. También tenemos que preocuparnos de que las personas dejen de notar o cuidar cuando lo hace.