Treinamento Big Data Science - Predileção para Mulheres | Semantix Academy
Volunteer
Remote
Opportunity also for people with disabilities
Job description
ESTÃO ABERTAS AS INSCRIÇÕES PARA O NOSSO PROGRAMA DE FORMAÇÃO BIG DATA SCIENCE que será ministrado através do nosso SEMANTIX ACADEMY!
Você possui interesse em aprender as Techs mais atuais do mercado? Chegou o seu momento!
Nossa missão é impactar bilhões de vidas com dados. Venha compartilhar desse sonho conosco! Aqui na Semantix enxergamos que, com dedicação e senso de dono, todos tenham capacidade de crescimento. O Semantix Academy abre um leque de novas possibilidades para aqueles que já estão inseridos, ou desejam mergulhar no universo Big Data.
Um dos nossos Princípios da cultura Semantix é "Aceite e valorize a diversidade". Caso se sinta confortável em responder as perguntas sobre diversidade no seu cadastro, gostaríamos de saber mais sobre você e te enviar o que estamos realizando neste tema. Para este treinamento, teremos a predileção a formação de mulheres, pois no mercado tech menos de 25% dos cargos são ocupados por mulheres, pensando nisso, 50% das inscrições aprovadas serão para mulheres, queremos ter mais equidade de gêneros na Semantix e no mercado de tech.
Os treinamentos serão publicados através da plataforma Semantix Academy Online, sendo disponibilizados do dia 27/03/2023 até 19/06/2023.
As inscrições estarão abertas do dia 17/02/2023 à 19/03/2023, mas as VAGAS SÃO LIMITADAS. A seleção de alunos será pela plataforma Gupy. Após a inscrição e conclusão do teste, você receberá um e-mail sobre os próximos passos. Caso as vagas já tenham sido preenchidas, fique tranquilo, pois abriremos novas turmas em breve!
Nossas aulas serão ministradas por quem é referência na Semantix. Ao final da capacitação, você poderá ser internalizado pela Semantix, atuando em nossos principais produtos, ou dentro dos nossos clientes. Vem voar com a gente! 🚀
#academySemantix
Responsibilities and assignments
Conteúdo Programático:
Big Data Foundations (Semana 1, 2 e 3):
• Conhecimento de ferramentas atuais no mercado de Big Data;
• Criação e funcionamento de um cluster Hadoop para Big Data em Docker;
• Manipulação de dados com HDFS;
• Manipulação de dados com uso do Hive;
• Otimização de consultas em grandes volumes de dados estruturados e semiestruturados com uso de Hive;
• Ingestão de dados relacionais para o HDFS/Hive, com uso do Sqoop;
• Otimização de importação no Sqoop;
• Exportação de dados do HDFS para o SGBD, com uso do Sqoop;
• Manipulação de dados com HBase;
• Operações com Dataframe em Spark para processamento de dados em batch;
• Uso do Spark SQL Queries para consultas de dados estruturados e semiestruturados.
Armazenamento e escrita de dados (Semana 4):
• MongoDB:
• Entendimento de conceitos e arquitetura NoSQL e MongoDB;
• Instalação de cluster MongoDB através de container e Cloud;
• Realizar pesquisas no MongoDB com diferentes operadores;
• Redis:
• Entendimento de conceitos e arquitetura NoSQL e Redis;
• Instalação de cluster Redis através de container;
• Entendimento de diversos tipos de estrutura de dados com Redis-CLI;
• Kafka:
• Entendimento de conceitos e arquitetura do Kafka e da Confluent;
• Instalação de cluster Kafka através de container;
• Gerenciamento de tópicos;
• Produção e consumo de dados através do console;
• Entendimento das guias do Control Center.
• Elastic:
• Entendimento de conceitos e arquitetura da Elastic;
• Instalação de cluster Elastic através de container;
• Realizar operações de CRUD em índices;
• Entendimento das guias do Kibana.
Python (Semana 5 e 6)
• Os fundamentos de python como linguagem de programação
• Pacote Anaconda para distribuição de python
• Desevolvimento em web-browser usando Jupyter
• Criação e uso de virtual enviroments
• Uso de Orientado Objeto com python
• Criando Funções e isolamento em módulos
• Criando Modulos e importando
• Criando Testes automatizados
• Registros ao longo do código usando logs
• Decorators para modificar comportamento de funções
• Uso plotly para gerar gráficos
• Usando pandas para malipular dados
• Boas Praticas de programação
• Os principios S.O.L.I.D.
PySpark (Semana 7)
• Fundamentos
• Manipulação de Big Data
• Uso do Jupyter Notebooks para a criação de projetos em Spark com Python
• Spark batch intermediario
• Operações com RDD em Spark para processamento de dados em batch;
• Uso de Partições com RDD;
• Operações com Dataset em Spark para processamento de dados em batch;
• Uso de Dataset em Dataframe e RDD;
• Comandos avançados com Dataset;
Estatística Descritiva (Semana 8)
• Aplicando medidas de dispersão (Média, Mediana, Moda, Quartis, Desvio padrão e variância) para descrever dados
• Usando correlação e covariância para descrever relações entre features
• Histograma para descrever distribuição de dados
• Probabilidade de eventos simples
• Teorema de Bayes aplicado a raciocinico de inferência
• Amostragem para representatividade estatisitica
• Apresentação de Distribuição de Probabilidade
• O uso de Likelihood
Machine Learning (Semana 9)
• Uso de algoritmos de clusterização (K-Means, etc...)
• Uso de algoritmos de classificação (SVM, etc)
• Implementação de regressão (Regressão linear)
Redes Neurais (Semana 10)
• Fundamentos de Redes Neurais
• Uso básico de PyTorch
• Uso básico de Keras
• Uso básico de Tensor Flow
Processamento de Linguagem Natural (Semana 11)
• Fundamentos de NLP moderno
• Uso de TF-IDF
• Composição WORD2VEC
• Bag of Word para processamento de texto
• Metódos baseados em Redes Neurais
Algoritmos Genéticos (Semana 12)
• Conceitos de AG
• Problema básico AG
• Aplicações
• Desenvolvimento em Python
• Bibliotecas de AG
Requirements and qualifications
Requisitos mínimos para o treinamento:
• Conhecimento intermediário de pelo menos uma destas linguagens:
- R;
- C/C++;
- Python;
- Matlab.
• Conhecimento básico em SQL;
• Conhecimento básico em Git.
Computador necessário para o treinamento:
• Sistema operacional Linux ou Windows 10/11 de 64 bits;
• Memória RAM de 8 GB;
• Acesso a internet;
• HD com no mínimo 50 GB de espaço livre.
Additional information
Informações adicionais sobre o Programa de Formação
Plataforma: Semantix Academy Online
Formato: Vídeo aulas, com teoria e exercícios práticos;
Dias e Horário:
• O treinamento estará disponível a partir das 19h do dia 27/03;
• Aulas disponíveis de segunda a sexta as 19h;
• Teremos encontros ao vivo para tirar dúvidas;
• Cada aula tem duração de aproximadamente 2 horas.
•Interação com os alunos e professor através de e-mails e fóruns de dúvidas;
•Carga Horária: 98 Horas (dividido em video aulas e tempo para resolução de exercícios práticos);
Avaliação:
• Após conclusão de cada módulo do treinamento, o aluno irá receber um certificado, caso conclua 100% do módulo e tire uma nota superior a 6 na avaliação.
• O aluno perderá o acesso ao treinamento, nestes casos:
- Se não concluir o módulo do treinamento conforme o conteúdo programático;
- Se a nota da avaliação do módulo for interior a nota mínima estipulada.
Olá! Que bom que ter você por aqui! 💎
Você já conhece a Semantix?
Somos uma empresa de dados e Inteligência Artificial brasileira e primeira deep tech do país a entrar na Nasdaq, a bolsa de valores de Nova Iorque!
Mas, acima de tudo, aqui dentro, somos feitos de pessoas! Como gostamos de falar: “Nossas pessoas são o nosso maior ativo!”
Com o propósito de impactar bilhões de vidas com dados, a Semantix foi fundada em 2010 no Brasil, e hoje, presente em toda a América, destaca-se por suas soluções no modelo Data Driven. Nossa missão é desenvolver produtos e oferecer serviços centrados em dados para acelerar a transformação digital e aumentar o desempenho dos negócios.
Somos referência na oferta de tecnologia em Big Data, Analytics e Inteligência Artificial e desenvolvemos soluções inovadoras e disruptivas para todos os setores da indústria e serviços.
Nos últimos anos fomos eleitos uma das 25 melhores provedoras de soluções em Inteligência Artificial em todo o mundo e não pararemos aqui!
Então, que tal embarcar nessa nave com a gente e impactar bilhões de vidas com dados?
?
Conheça mais sobre a Semantix