Recevoir les offres d'emploi par email
- ...available in the industry for data management, data ingestion, data capture, data processing and data curation: Kafka, HVR, Talend, Hadoop, Hive, Spark, etc. ~ In-depth knowledge of Networks topology and Cloud Security. ~ Sound understanding of OS (Linux, CentOs)...
- ...WebLogic Server, Angular JS,(or above) and Javascript, as well as any other standard web technologies. ~ Experience on Big Data (Hadoop/Spark) and Machine learning is a big plus. ~ Have a taste for innovation, analysis, technological problem solving and very organized...
- ...dictifs et des algorithmes de machine learning (TensorFlow, PyTorch). Analyser, structurer et exploiter de larges volumes de données (Hadoop, Spark). Développer et industrialiser des solutions data en Python, R et SQL. Collaborer avec les équipes métiers et IT pour...
- ...outils. Connaissance en Git/Github Connaissance de bases de données structurées (Oracle MySQL SQL Server) Connaissance en Hadoop Habilité à acquérir de nouvelles connaissances Additional Information : Au plaisir de vous lire ! Remote Work :...
- ...Familiar with Java, Scala or C++. Solid experience of using business intelligence tools such as Tableau, data frameworks example Hadoop. Outstanding data analysis skills. Exceptional data analytics knowledge. Good understanding of data driven statistical...
- ...outils. Connaissance en Git/Github Connaissance de bases de données structurées (Oracle MySQL SQL Server) Connaissance en Hadoop Habilité à acquérir de nouvelles connaissances Additional Information : Au plaisir de vous lire ! Remote Work :...
- ...Minimum 5 ans d'expérience en ingénierie data dans des environnements Big Data et Cloud. Excellente maîtrise du stack : Hadoop, Spark, Hive Airflow / Data Factory Python & SQL avancé ETL / DataLake / DataOps CI/CD & versioning (Git,...
- ...technique justement, vous évoluerez dans un environnement Open Source ☕: ~ Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). ~ Analyse de données et Business Intelligence :...
- ...des solutions Big Data en Scala ou Java selon les besoins du projet. Travailler sur des architectures distribuées basées sur Hadoop , Spark et Kafka . Mettre en place des systèmes de messagerie distribuée via Kafka et Avro . Intégrer et optimiser...
- ...(Python/Scala) and containerization (Kubernetes Docker). ~ Familiarity with data processing frameworks (Apache Spark Databricks Hadoop) as well as orchestration tools (Airflow Oozie or similar). ~ Working knowledge of distributed storage data formats (Parquet Avro...
- ...rience avec les outils de traitement de données : Pandas, NumPy, Spark. Big Data & Cloud : Connaissance des écosystèmes Big Data (Hadoop, Spark) et des services cloud (AWS SageMaker, Azure ML, GCP AI Platform). Expérience avec les bases de données NoSQL (MongoDB,...
- ...es complexes. Analyser les performances et améliorer les solutions existantes. Travailler en environnement Big Data avec GCP Hadoop Spark Kafka. Contribuer à lautomatisation via CI/CD et orchestrateurs (Kubernetes Docker Ansible). Collaborer avec les équipes...
- ...Senior / DATALAKE. Connaissances techniques requises : Maitrise du langage de programmation Scala Maitrise des cadriciels (Hadoop,Spark,Hive,sql) Ayant déjà travailler sur des outils d’intégration continue (Jinkins ,artifactory git/gitlab) Ayant déjà...
- ...veloppement de solutions Big Data, avec une expérience significative dans l’un des deux. Avoir une expérience pratique avec l’écosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données. Etre capable de concevoir et d’...
- ...des clients de différents secteurs d'activité traitant de différents types de données complexes Avoir une connaissance avancée de Hadoop (Cloudera), y compris des projets d’appui tels que Spark, Kafka, HBase et SOLR Avoir de solides compétences en communication...
- ...veloppement de solutions Big Data avec une expérience significative dans lun des deux. Avoir une expérience pratique avec lécosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données. Etre capable de concevoir et...