“Primero escucharíamos la reacción, la voz de los fanáticos, luego decidiríamos cuáles deberían ser nuestros próximos pasos”.
En el panorama de la música contemporánea, HYBE ha estado causando revuelo con un proyecto secreto centrado en la inteligencia artificial (IA). Aprovechando el poder de la IA, HYBE está redefiniendo la producción musical al fusionar la voz de un cantante surcoreano con hablantes nativos en otros cinco idiomas.
La iniciativa pionera hizo su debut en mayo, cuando HYBE lanzó una canción en seis idiomas del cantante MIDNATT. La canción titulada “Masquerade” se lanzó en coreano, inglés, español, chino, japonés y vietnamita simultáneamente, un movimiento sin precedentes en la industria.
Anteriormente, los cantantes de K-Pop, incluidos los miembros de la propia lista de HYBE, lanzaron canciones en inglés y japonés junto con el coreano. Sin embargo, la llegada de esta nueva tecnología ha permitido a HYBE ir más allá y lanzar lanzamientos simultáneos en seis idiomas.
¿El siguiente paso? De acuerdo a Chung Woo Yong — el jefe del brazo de medios interactivos de HYBE — si la tecnología será utilizada por actos más populares o no, todo está en manos de los fanáticos. Y HYBE tiene muchos fanáticos para escuchar, ya que albergan actos masivos como BTS, LE SERAFIM, NuevoJeans, ENHYPENetc.
Primero escucharíamos la reacción, la voz de los fanáticos, luego decidiríamos cuáles deberían ser nuestros próximos pasos.
—Chung Woo Yong
Detrás de escena, el proceso es complejo. “Dividimos una pieza de sonido en diferentes componentes: pronunciación, timbre, tono y volumen,Chung compartió. En una comparación de antes y después proporcionada a Reuters, una sutileza como el sonido de la vocal alargada agregada a la palabra «retorcido» en la letra en inglés para un efecto más natural ejemplifica el matiz de la tecnología. Curiosamente, no hubo ningún cambio detectable en la voz del cantante.
Pero, ¿qué trae este resultado que suena natural? Todo gracias a la tecnología de aprendizaje profundo desarrollada por Supertone, una empresa que HYBE adquirió por la friolera de 45.000 millones de KRW (unos 35,0 millones de dólares estadounidenses) a principios de este año. El director de operaciones de Supertone, Choi Hee-doo, afirmó que el aprendizaje profundo impulsado por el marco de análisis y síntesis neuronal (NASY) hace que la canción suene más orgánica que el uso de software que no sea de IA.
El artista en el centro de esta innovación, MIDNATT, ve la IA como una herramienta que le permite ampliar su alcance artístico.
Siento que la barrera del idioma se eliminó y es mucho más fácil para los fanáticos globales tener una experiencia inmersiva con mi música.
— MIDNATT
Aunque el uso de la IA en la música no es del todo nuevo, la forma en que HYBE la aprovecha es ciertamente innovadora. Por ahora, la tecnología de corrección de pronunciación de la compañía toma “semanas o meses” para refinar una canción, pero Choi Jin Wooel productor de “Masquerade”, sugirió que a medida que se acelera el proceso, la tecnología podría usarse en aplicaciones más amplias, como la traducción en tiempo real en videoconferencias.
Si bien el entusiasmo en torno a esta innovación tecnológica es palpable, el uso de la IA en la música ha generado sentimientos encontrados por parte de los fanáticos. Mientras que algunos lo aceptan como una progresión emocionante en la industria, otros expresan reservas sobre la posible pérdida de autenticidad y creatividad orgánica en la música. Por lo tanto, si las declaraciones de HYBE sobre la valoración de las reacciones de los fanáticos son realmente genuinas, la próxima etapa en su tecnología de inteligencia artificial puede estar en espera por un tiempo más.