Para saber mais sobre este cliente

Faça seu login na Workana

Projetos abertos
Preciso de um TCC prático e aplicado sobre Ciência de Dados e Big Data. Não é um TCC estilo pesquisa acadêmica, ou seja, é necessário desenvolver uma solução prática. Abaixo vou deixar o que preciso:

1. Definição do Problema
No seu tcc, primeiramente você deverá escolher um problema real de seu interesse em qualquer área: transporte, economia, consumo, educação, saúde, etc. Você tem liberdade para escolher o tema que achar mais interessante, mas é importante que esse seja um problema RELEVANTE para sua organização ou para a sociedade. É Muito importante que nessa primeira etapa você defina muito bem a pergunta que o seu trabalho vai responder. O problema/pergunta que você deseja resolver através de dados precisa ficar muito claro para as pessoas que lerão o seu relatório. Uma dica é utilizar o método dos 5 W’s : why (por que), who (quem), what (o quê), when (quando) e where (onde).

2. Coleta de Dados
A partir da clara definição do seu problema, você deve agora buscar os dados que ajudem a
responder a sua pergunta. Como sugestão para obtenção de datasets, você pode buscar em sites como o Kaggle, o famoso repositório de dados da Universidade da Califórnia em Irvine (UCI), os dados abertos do governo federal (dados.gov.br) ou de governos de outros países (EUA – data.gov, Reino Unido – data.gov.uk). O artigo “Best Public Datasets for Machine Learning and Data Science” dá excelentes dicas de repositórios de dados.

Para o seu TCC, você deverá utilizar múltiplas fontes de dados. Ou seja, você deve usar mais de um dataset de fontes diferentes, integrando-os, se possível, em uma única fonte de dados. Esse dataset resultante deve ter no mínimo mil registros, sem utilização de oversampling.
Recomendamos fortemente que você utilize técnicas de Recuperação de Informação para obter dados na Web e assim enriquecer sua coleta. Essa recuperação pode ser feita utilizando ferramentas como o KNIME, por exemplo, ou através da biblioteca Beautiful Soup do Python.

Observação 1: caso você queira utilizar dados da empresa onde você trabalha, sugerimos que você remova ou camufle qualquer dado que identifique pessoas ou organizações.
Observação 2: você pode coletar tweets para criar seu próprio dataset, mas apenas se estes tweets forem enriquecidos com outros dados ou se forem utilizados para enriquecer outros datasets.
Observação 3: alguns provedores de informação, podem prover datasets divididos de forma temporal (por ano, meses, etc…). Ao avaliar o seu trabalho, esses datasets serão considerados como um único dataset.
Observação 4: datasets já exaustivamente utilizados pela comunidade de Ciência de Dados e
Machine Learning (ex.: imdb, mnist, goodreads, titanic, iris, etc...), Não poderão ser utilizados de forma simples (sem enriquecimento).

3. Processamento/Tratamento de Dados
Após a obtenção dos seus dados, é momento de tratá-los para que eles possam ser analisados. Essa etapa é importantíssima e você vai gastar boa parte do seu tempo aqui. Aqui você deve extrair, limpar e transformar os dados que serão utilizados. Trate dados ausentes ou duplicados, inconsistências de dados, etc. Lembre-se que você deverá utilizar múltiplas fontes de dados. É Importante que você justifique suas decisões e escolhas (exclusão de registros, imputação de valores médios em missing values, etc…).

4. Análise e Exploração dos Dados
Nessa etapa você começará a explorar seus dados de uma forma mais analítica, tentando elaborar ideias, levantar hipóteses e começando a identificar padrões em seus dados. Talvez você sinta a necessidade de voltar em passos anteriores, obter mais dados e tratá-los para conseguir responder ao problema proposto. Use e abuse de ferramentas estatísticas consistentes como testes de hipóteses e intervalos de confiança. Plote gráficos que te ajudem a obter insights interessantes:
desde os mais simples até gráficos mais sofisticados como boxplots, mapas de calor, etc. Aqui o uso do Python e/ou R e suas poderosas bibliotecas gráficas (Matplotlib, Seaborn, ggPlot2, etc).

5. Criação, treinamento, aplicação e avaliação de Modelos de Machine Learning
Em seu TCC você deve, obrigatoriamente, aplicar algum modelo de Machine Learning (aprendizado supervisionado, não-supervisionado ou por reforço) para fazer classificações, identificar padrões,
fazer previsões ou agrupar dados. escolha e justifique o modelo de algoritmo mais adequado para o seu problema. Embora você possa utilizar o knime para testar protótipos do seu modelo de ml, encorajamos você a fazer seus modelos em python ou r. Você deve testar no mínimo 3 algoritmos, justificando sua escolha. Explique o funcionamento de cada algoritmo e suas vantagens/desvantagens. Por exemplo, se você vai fazer uma classificação, teste algoritmos como KNN, e o Support-vector Machines. Se vai fazer uma análise de séries temporais, use o arima, o ltsm e algum método de exponential smoothing. A palavra-chave aqui é comparar os resultados para se escolher o método que melhor se encaixa no seu problema. Utilize estratégias para otimizar o seu modelo (model tuning).
Observação 1: é EXTREMAMENTE recomendável que você utilize validação cruzada (cross-validation).
Observação 2: escolha métricas adequadas para avaliar o seu modelo.

6. Interpretação dos Resultados
Nessa etapa você deve interpretar os resultados obtidos na análise e exploração de dados e também interpretar os resultados da aplicação dos algoritmos de Machine Learning, descobrindo insights importantes para responder o problema proposto.
7. Apresentação dos Resultados
Até esse ponto, seu TCC foi bastante técnico. É Importante que você detalhe cada etapa do seu trabalho o máximo possível, de forma que o leitor do seu trabalho consiga reproduzi-lo com certa facilidade.
Agora pense que você vai apresentar seus resultados para uma pessoa ou para um grupo de pessoas que não entende nada da parte técnica. Atribuem a Einstein a seguinte frase: se você não consegueexplicar algo de forma simples, você não entendeu suficientemente bem. Agora é o momento de você
transmitir os resultados de forma simples, mas que possibilite que sua audiência entenda o
problema e possa tomar a melhor decisão. Monte um incrível dashboard, use e abuse de gráficos, tabelas e, principalmente, de sua criatividade, para comunicar seus resultados da forma mais efetiva e simples possível. Um Cientista de Dados também deve ser um bom contador de histórias .

ferramentas permitidas
para o desenvolvimento do trabalho de conclusão, será permitido utilizar apenas o python, r e o knime para manipulação, análise e visualização de dados, com preferência pela utilização pelo python e suas bibliotecas.

uso de um modelo canvas para registrar seu workflow
louis dorard e jasmine vasandani desenvolveram modelos canvas, baseados no consagrado business model canvas, para ajudá-los em seus projetos de ciência de dados e machine learning. Essa é uma boa maneira de programar as etapas do seu projeto e de apresentar um resumo do que foi feito.
Você pode obter mais informações sobre o modelo proposto por Louis Dorard em sua página (https://www.ownml.co/machine-learning-canvas) e sobre o modelo desenvolvido por Jasmine Vasandani em um artigo publicado no Towards Data Science (https://towardsdatascience.com/a-data-science-workflow-canvas-to-kickstart-your-projects-db62556be4d0?gi=19623fef3dba).

entrega do trabalho
para realizar a entrega do trabalho, você deve postar o seu tcc conforme o template disponibilizado, em formato pdf. Os links para o vídeo no Youtube e para o repositório contendo dados e demais arquivos (scripts, etc) devem estar contidos nesse documento.
Após avaliação das entregas postadas no Canvas, os professores da banca irão indicar os alunos aptos para a apresentação final do TCC.

O que deve ser entregue?
● relatório conforme template disponibilizado (em formato pdf). Lembre-se de detalhar o
máximo possível. Informe as ferramentas utilizadas, onde e quando coletou os dados
● Link para vídeo no Youtube. Esse vídeo terá tempo máximo de 5 minutos e deverá
apresentar de forma sucinta o seu projeto, desde a definição do problema, a obtenção e
tratamento dos dados, até a apresentação dos resultados.
● Endereço do repositório (de preferência Github, mas também podem ser utilizados One
Drive, Google Drive, Dropbox, etc...) Contendo os scripts desenvolvidos e os dados utilizados
e gerados em seu trabalho.
● Tanto o link para o vídeo no Youtube quanto o endereço do repositório devem constar no
relatório
● A não entrega de algum desses itens, tornará o trabalho automaticamente reprovado.
para apresentação do trabalho para a banca
● você deve preparar um conjunto de slides no powerpoint (ou algum software equivalente)
para apresentação do trabalho. Geralmente o tempo de apresentação é de 15 a 20 minutos.

Categoria: Tradução e conteúdos
Subcategoria: Outros
Tamanho do projeto: Grande
Isso é um projeto ou uma posição de trabalho?: Um projeto
Disponibilidade requerida: Conforme necessário

USD 100 - 250