Recevoir les offres d'emploi par email
- ...~ Connaissance dun outil dorchestration : Airflow Luigi Prefect ~ Bonne compréhension des environnements distribués (Cloudera Hadoop). ~ Compétences en Git CI/CD (GitLab CI). ~ Pratiques DevOps / MLOps appréciées. Informations supplémentaires : Pourquoi...
- ...available in the industry for data management, data ingestion, data capture, data processing and data curation: Kafka, HVR, Talend, Hadoop, Hive, Spark, etc. ~ In-depth knowledge of Networks topology and Cloud Security. ~ Sound understanding of OS (Linux, CentOs)...
- ...WebLogic Server, Angular JS,(or above) and Javascript, as well as any other standard web technologies. ~ Experience on Big Data (Hadoop/Spark) and Machine learning is a big plus. ~ Have a taste for innovation, analysis, technological problem solving and very organized...
- ...dictifs et des algorithmes de machine learning (TensorFlow, PyTorch). Analyser, structurer et exploiter de larges volumes de données (Hadoop, Spark). Développer et industrialiser des solutions data en Python, R et SQL. Collaborer avec les équipes métiers et IT pour...
- ...outils. Connaissance en Git/Github Connaissance de bases de données structurées (Oracle MySQL SQL Server) Connaissance en Hadoop Habilité à acquérir de nouvelles connaissances Additional Information : Au plaisir de vous lire ! Remote Work :...
- ...Familiar with Java, Scala or C++. Solid experience of using business intelligence tools such as Tableau, data frameworks example Hadoop. Outstanding data analysis skills. Exceptional data analytics knowledge. Good understanding of data driven statistical...
- ...outils. Connaissance en Git/Github Connaissance de bases de données structurées (Oracle MySQL SQL Server) Connaissance en Hadoop Habilité à acquérir de nouvelles connaissances Additional Information : Au plaisir de vous lire ! Remote Work :...
- ...Cloud : Expérience sur AWS (Glue, Redshift, S3, EMR), Azure (Synapse, Data Factory) ou GCP (BigQuery, Dataflow) Big Data : Spark , Hadoop, Kafka DataOps : Orchestration (Airflow, Dagster), CI/CD, tests data Stockage : Data Warehouse, Data Lake, modélisation...
- ...technique justement, vous évoluerez dans un environnement Open Source ☕: ~ Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). ~ Analyse de données et Business Intelligence :...
- ...Minimum 5 ans d'expérience en ingénierie data dans des environnements Big Data et Cloud. Excellente maîtrise du stack : Hadoop, Spark, Hive Airflow / Data Factory Python & SQL avancé ETL / DataLake / DataOps CI/CD & versioning (Git,...
- ...es complexes. Analyser les performances et améliorer les solutions existantes. Travailler en environnement Big Data avec GCP Hadoop Spark Kafka. Contribuer à lautomatisation via CI/CD et orchestrateurs (Kubernetes Docker Ansible). Collaborer avec les équipes...
- ...rience avec les outils de traitement de données : Pandas, NumPy, Spark. Big Data & Cloud : Connaissance des écosystèmes Big Data (Hadoop, Spark) et des services cloud (AWS SageMaker, Azure ML, GCP AI Platform). Expérience avec les bases de données NoSQL (MongoDB,...
- ...veloppement de solutions Big Data, avec une expérience significative dans l’un des deux. Avoir une expérience pratique avec l’écosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données. Etre capable de concevoir et d’...
- ...Senior / DATALAKE. Connaissances techniques requises : Maitrise du langage de programmation Scala Maitrise des cadriciels (Hadoop,Spark,Hive,sql) Ayant déjà travailler sur des outils d’intégration continue (Jinkins ,artifactory git/gitlab) Ayant déjà...
- ...des clients de différents secteurs d'activité traitant de différents types de données complexes Avoir une connaissance avancée de Hadoop (Cloudera), y compris des projets d’appui tels que Spark, Kafka, HBase et SOLR Avoir de solides compétences en communication...
- ...veloppement de solutions Big Data avec une expérience significative dans lun des deux. Avoir une expérience pratique avec lécosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données. Etre capable de concevoir et...