/MoodInMusic

Creative Commons Zero v1.0 UniversalCC0-1.0

MoodInMusic

MoodInMusic es un dataset que recupera las emociones que perciben en las canciones los universitarios de Tec de Monterrey Campus Qro.

Se caracteriza por usar la ruleta emocional de Plutchik para describir el estado emocional de los participantes previo a la evaluación de canciones.

De igual manera utiliza la escala musical de emociones (GEMS-27) para la clasificación de emociones percibidas en cada pieza.

Se compone de:

  • 816 resultados
  • 50 canciones
  • 84 participantes

Diccionario de datos

Atributo Descripción
Nombre Nombre de la canción
Artista Nombre del intérprete
Lanzamiento Año de lanzamiento
Género Género al que pertenece
Emoción inicial Emoción del participante previo al experimento
Conocimiento Indica si el participante conocía la canción antes de la evaluación
Familia Rama emocional a la que, de acuerdo al participante, pertenece la canción
Emoción primaria Emoción primaria con la que se califica a la canción de acuerdo a la percepción del usuario
Emoción secundaria Emoción adicional para calificar a la canción (campo opcional)
Emoción terciaria Emoción adicional de calificar (campo opcional)
Agrado Nivel de agrado de la canción(escala de 0 al 100)
Escuela Escuela de procedencia, privada o pública
Academia Rama académica
Sexo Identidad de género con el que se identifica
Edad Rango de edad al que pertenece
Español Nivel de dominio que el participante considera tener en español
Inglés Nivel de dominio que el participante considera tener en inglés
Francés Nivel de dominio que el participante considera tener en francés
Catalán Nivel de dominio que el participante considera tener en catalán

Usos

Cada atributo puede ser usado como filtro para especificar y acotar preguntas.