MoodInMusic es un dataset que recupera las emociones que perciben en las canciones los universitarios de Tec de Monterrey Campus Qro.
Se caracteriza por usar la ruleta emocional de Plutchik para describir el estado emocional de los participantes previo a la evaluación de canciones.
De igual manera utiliza la escala musical de emociones (GEMS-27) para la clasificación de emociones percibidas en cada pieza.
Se compone de:
- 816 resultados
- 50 canciones
- 84 participantes
Atributo | Descripción |
---|---|
Nombre | Nombre de la canción |
Artista | Nombre del intérprete |
Lanzamiento | Año de lanzamiento |
Género | Género al que pertenece |
Emoción inicial | Emoción del participante previo al experimento |
Conocimiento | Indica si el participante conocía la canción antes de la evaluación |
Familia | Rama emocional a la que, de acuerdo al participante, pertenece la canción |
Emoción primaria | Emoción primaria con la que se califica a la canción de acuerdo a la percepción del usuario |
Emoción secundaria | Emoción adicional para calificar a la canción (campo opcional) |
Emoción terciaria | Emoción adicional de calificar (campo opcional) |
Agrado | Nivel de agrado de la canción(escala de 0 al 100) |
Escuela | Escuela de procedencia, privada o pública |
Academia | Rama académica |
Sexo | Identidad de género con el que se identifica |
Edad | Rango de edad al que pertenece |
Español | Nivel de dominio que el participante considera tener en español |
Inglés | Nivel de dominio que el participante considera tener en inglés |
Francés | Nivel de dominio que el participante considera tener en francés |
Catalán | Nivel de dominio que el participante considera tener en catalán |
Cada atributo puede ser usado como filtro para especificar y acotar preguntas.