Minha solução para a competição "Titanic: Machine Learning from Disaster" no Kaggle. Neste desafio, é disponibilizado aos competidores um formulário com dados (como nome, idade, preço do ticket, etc) de 891 passageiros (dataset de treino) que estavam a bordo do Titanic e seu destino no acidente (falaceu/sobreviveu). O objetivo é criar modelos que corretamente prevejam o destino dos 418 passageiros restantes (dataset de teste).
Esta foi minha primeira competição no Kaggle, então o código não está 100% claro e otimizado. Podem ser usados os seguintes scripts (pasta code):
base.py
: imports e algumas funções geraishyperopt_search_spaces.py
: definição de espaços de busca para otimização de hiperparâmetrostitanic-explore.py
: gráficos e informações sobre o conjunto de dadostitanic-feat-eng.py
: criação de novas variáveis (feature engineering)titanic-train.py
: ajuste de algoritmos, otimização de hiperparâmetrostitanic.r
: ajuste do algoritmo conditional inference trees, melhor solução que obtive
Este desafio é como um "Hello World" no mundo dos Kagglers, onde muitos têm seu primeiro contato com a ciência de dados. O dataset é pequeno e fácil de lidar.
Meu foco foi na criação de novas variáveis (mais na próxima seção) e na otimização de hiperparâmetros (usando o pacote hyperopt).
Infelizmente não foi possível obter uma CV robusta. Os resultados na validação (utilzando diversas estratégias mudando o número de folds e repetições) se mostraram muito diferentes do que na leaderboard, provavelmente em razão da pequena quantidade de exemplos de teste e treino.
No final utilizei uma floresta de conditional inference trees com as novas variáveis que extraí, uma estratégia utilizada por diversos outros competidores.
O resultado final foi uma acurácia de 0.80861, que ficaria entre o top 10%~25% da competição (a LB se atualiza com tempo, então não é possível dizer com certeza).
Talvez a parte mais interessante da competição foi visualizar os dados dos passageiros que estavam envolvidos na tragédia do titanic. Pelo processamento dos dados, foi possível obter outras variáveis interessantes, além das já disponíveis (idade, sexo, etc):
- Número de pessoas em uma família
- Título (Mr, Mrs, etc)
- Deck (A, B, C ...)*
- Posição no barco (frente, meio, trás)*
- Sobrenome (indica pessoas da mesma família)
*em muitos exemplos esta informação não estava disponível, então foi necessário extrapolar os dados com um modelo específico
Algumas visualizações interessantes podem ser feitas com estes dados:
Pessoas com maior poder aquisitivo tinham maior probabilidade de sobrevivência.
A taxa de mortalidade entre mulheres (codificadas como 0) foi muito menor que a entre homens (codificados como 1).
Os dois padrões mostrados anteriormente se manifestam aqui.
Famílias maiores e solteiros tiveram maior dificuldade para sobreviver.
Novamente, pessoas com maior poder aquisitivo tinham melhores chances de sobrevivência.
Mostrando novamente a tendência de mulheres sobreviverem mais que homens. O título "Master" em particular é dado para crianças, e por isso mostra maior número de sobreviventes que os outros associados ao sexo masculino.
Idem ao anterior, mas mostrando a influência do poder aquisitivo dos passageiros.
Mostra a taxa de sobrevivência dos passageiros alojados em cada andar do navio. Muitos pontos são decorrentes do ajuste de um modelo, e portanto não são, de fato, registros dos dados reais.
Idem ao anterior.
Aqui é possível observar a sobrevivência de elementos de cada família em particular (linhas com mais pontos representam casais ou solteiros). Em muitos casos todos os elementos da família faleceram ou sobreviveram juntos, poucas vezes existindo a situação de somente um membro sobreviver enquanto outros não.