Trouvez votre prochaine offre d’emploi ou de mission Data cleaning
Votre recherche renvoie 46 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Architecte Big Data Machine Learning F/H
SOFTEAM
Publiée le
Big Data
6 mois
500-620 €
Paris, France
Description et livrables de la prestation
Au sein de l’équipe Socles Big Data et Machine Learning, l’architecte solution Big Data et ML
sera amené à:
Contribuer à l’évolution de l’offre de service de la plateforme Big Data
Définir et maintenir le cadre de référence des principes d’architecture Big Data
D’accompagner les développeurs dans l’appropriation de ce cadre de référence,
Définir les solutions permettant de répondre aux besoin d’exposition, de consommation ou d’export de données des métiers
D’accompagner les développeurs et les différentes parties prenantes dans la mise en œuvre des solutions proposées
Mission principale :
- Définition de socle technique en fonction de la roadmap 2024

Mission freelance data scientist machine learning python
Innov and Co
Publiée le
1 an
400-650 €
Puteaux, Île-de-France
Projets de R&D et d’industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab.
Objet de la mission :
Dans le cadre de l’accélération des expérimentations et préparation à l’industrialisation des modèles de Machine Learning, le portefeuille projets est constitué de plusieurs projets de Data Science sur les sujets suivant :
- Détection de la Fraude
- Analyse d’image & Gestion des sinistres
- Provisionnement
- Pricing (avec IA)
- Prise en compte des risques climatiques
Le consultant sera responsable de la cohérence technique des développements des projets de Data Science de l’équipe, du cadrage au déploiement en production.
Missions principales du consultant :
- Superviser techniquement les travaux des Data Scientist junior et stagiaires de l’équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation)
- Être le référent technique de l’équipe concernant les travaux d’industrialisation des modèles effectués par l’IT, en challengeant notamment leurs approches
- Contribuer ponctuellement sur quelques projets de Data Science
- Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l’équipe
- Proposer des nouveaux outils, méthodes pour faire monter en compétence l’équipe
- Apporter un œil nouveau dans l’amélioration continue des modèles développés par l’équipe (utilisation de données non structurées, données externes )
En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets. Le mode de fonctionnement est Agile et la compréhension des métiers de l’assurance santé est souhaitable. Echange fréquent et régulier avec le métier portant les projets afin de s’assurer de la pertinence de la modélisation et de la cohérence des résultats.
Livrables :
• Données, Modèles programmes, résultats
• Note d’analyse de ces résultats
• Emissions de besoins
• Présentations pour le suivi des différents projets
• Supports divers pour les échanges avec les métiers et pour les comités de pilotage.
• Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts des modèles.
Expertises requises :
ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques (obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers (souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable)
Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch)
+ si possible : R, QlikSense
Qualité attendue :
Esprit de synthèse et d’analyse en vue des différentes présentations de résultats, Qualité du code, rédaction de SFD des programmes et projets de Data Science, rigueur et qualité de documentation, Aisance relationnelle avec les interlocuteurs sur ces projets. Flexibilité pour un fonctionnement en mode agile et pour suivre le rythme accéléré des expérimentations. Adaptation aux contraintes organisationnelles des équipes travaillant sur le sujet et à l’organisation de l’entreprise. Haut degré d’autonomie et capacité de travail en équipe. Curiosité pour les métiers attendue.

Offre d'emploi Machine Learning Senior / Data Scientist - H/F en ESN
Frank Recruitment Group Services Ltd
Publiée le
Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables.
Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP.
Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP)
Participation active à l'optimisation et à l'amélioration continue des modèles existants.
Conception, développement et mise en œuvre des modèles de machine learning.
Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.

Offre d'emploi Machine Learning Senior / Engineer Data Scientist - H/F en ESN
Frank Recruitment Group Services Ltd
Publiée le
Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables.
Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP.
Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP)
Participation active à l'optimisation et à l'amélioration continue des modèles existants.
Conception, développement et mise en œuvre des modèles de machine learning.
Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.

Offre d'emploi DATA SCIENTIST & MACHINE LEARNING ENGINEER (GCP) H/F
Frank Recruitment Group Services Ltd
Publiée le
35k-45k €
Bordeaux, Nouvelle-Aquitaine
FRG Consulting recrute pour l'un de ses clients, leader dans la fourniture de solutions logicielles et cloud de pointe. Nous sommes à la recherche d'un Data Scientist & Machine Learning Engineer GCP H/F passionné et talentueux pour rejoindre une équipe innovante et dynamique.
Vos missions seront les suivantes :
Concevoir, développer et mettre en oeuvre des modèles de machine learning pour résoudre des problèmes complexe.
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables.
Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.
Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP)
Participer activement à l'optimisation et à l'amélioration continue des modèles existants.
Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine leargning et de GCP.
Profil recherché :
Formation Bac+5 en informatique, statistiques, mathématiques ou dans une domaine connexe.
Expérience professionnelle démontrée en data science et en Machine Learning.
Solides compétences en programmation (Python, Java, Scala, etc.
Maîtrise des outils GCP (BigQuery, Dataflow, Pub/Sub et Cloud Storage)
Connaissance des bibliothèques de machine learning telles que TensorFlow, scikit-learn, etc.
Excellente compétences en communication et en résolution de problèmes.
Capacité à travailler de manière autonome et en équipe.
Avantages :
Possibilité de travailler en télétravail de manière flexible.
Accès à des formations et certifications GCP pour le développement professionnel.
Environnement de travail stimulant et collaboratif au sein d'une équipe talentueuse.
Si vous êtes passionné par la data science, le machine learning et que vous souhaitez contribuer à des projets innovants dans le cloud, notre client, vous offre l'opportunité parfaite pour développer votre carrière.

Offre d'emploi Data Scientist / Machine Learning Engineer
Frank Recruitment Group Services Ltd
Publiée le
60k-75k €
Île-de-France, France
Notre client, start-up basé en région parisienne, est à la recherche de talents passionnés de Data et d'IA pour intégrer leurs équipe en tant que Data Scientist / Machine Learning Engineer.
Rejoignez une entreprise dynamique en plein essor, résolument tournée vers l'excellence. Bénéficiez des nombreux avantages offerts par un poste attrayant dans le domaine de la Data et de l'IA, avec une rapide expansion de vos compétences et des opportunités de prise de responsabilités.
Vous collaborerez étroitement avec des collègues aux profils diversifiés tels que des Data Ingénieurs, des Data Scientists, des Machine Learning Engineers, etc.. au sein d'une équipe multidisciplinaire unie, avec pour principales missions :
Contribuer à la conception complète des produits de Data Science
Mettre à contribution votre expertise et compétences en Data Science et en intelligence artificielle pour le bénéfice de l'ensemble de l'entreprise et de ses partenaires.
Participer à l'élaboration de la stratégie et du savoir-faire en Data Science
Collaborer à l'édification de la réputation de l'entreprise dans le domaine de la Data Science et de l'Intelligence Artificielle.
Profil recherché
Titulaire d'un Bac +5
5 ans d'expérience minimun, sur des projets à base de Machine Learning en production
Vous avez une bonne connaissance des principaux algorithmes et bibliothèques de Machine Learning (parmi scikit-learn, TensorFlow, PyTorch, etc.)
Vous avez une appétence forte pour le développement logiciel et les bonnes pratiques associées
Qualités requises :
Pédagogue, rigoureux, autonome, bonne communication, curieux, force de proposition
Avantages :
Politique télétravail flexible
Accompagnement sur de nouveaux projets
Montée en compétences sur de nouveaux outils IT
Start-up Factory, vous permettant de participer à la création et au lancement de start-up
Candidatures confidentielles

Mission freelance Senior PMO/Business analyst - data migration
RTV Consulting
Publiée le
Adobe Campaign
Agile Scrum
API REST
1 an
500-600 €
Paris, France
Dans le cadre de la mise en place d’un nouveau ’data model’ de gestion des ’contacts’ et ’partners’, vous serez en charge de:
- Assurer la qualité des livraisons dans les temps
- Gestion et priorisation du backlog global en coordination avec les POs et gestion des dépendances des évolutions
- Proposer un design de la solution pour atteindre les objectifs du projet
- Assurer la rédaction des Users Stories pour chaque application
- Assurer le suivi du developpement de la solution avec les développeurs
- Gestion des tests avec les stakeholders jusqu’à la mise en production
- Gestion de la migration et du nettoyage des données
- Parti prennante des comité de projet hebdomadaires et préparation des supports des steering committees
- Fournir la bonne communication sur les progrès du projet aux stakeholders

Offre d'emploi Engineer Data Scientist / Machine Learning Senior - H/F en ESN
Frank Recruitment Group Services Ltd
Publiée le
Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables.
Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP.
Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP)
Participation active à l'optimisation et à l'amélioration continue des modèles existants.
Conception, développement et mise en œuvre des modèles de machine learning.
Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.

Mission freelance Product Owner Data (H/F)
Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven
1 an
450-600 €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake.
Eléments de dimensionnement :
Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux)
Direction des projets DATAHUB du périmètre Protection au sein du Datalake
Vous aurez pour missions :
- (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs
-Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU
-Accompagner les utilisateurs sur le Domaine
Finalités de la Prestation :
-Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine
-Améliorer la factorisation des investissements IT pour augmenter le reuse
-Réduire le coût de manipulation des données par les métiers
-Réduire les problèmes de cohérence entre les métiers
-Préparer les investissements pour les futurs usages
Compétences recherchées :
-Vous disposez d’une expérience de + 10 ans minimum
-Connaissance sur la protection souhaitée mais non obligatoire
-Connaissance et expérience dans la gestion de projet en V et en agile
Techniques :
-Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.)
-Maîtrise des enjeux autour des entrepôts de données et de leur construction
-Connaissance de technologies No-SQL mainstream : Hive, Spark, etc.
Projets data :
-Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions
-Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur)
-Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine
-Sensibilisation à la Gouvernance des Données
-Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle)
-Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc.
-Report et remontée de vigilance au PO du Datalake sur le domaine
Comportemental :
-Souhait de s’inscrire dans un projet de transformation d’entreprise
-Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT
-Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions
-Capacité à faire le lien entre les métiers et les ressources MOE, MOA
-Entrepreneur(se), passionné(e), curieux(se)

Offre d'emploi Product Owner Data (H/F)
Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven
45k-65k €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake.
Eléments de dimensionnement :
Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux)
Direction des projets DATAHUB du périmètre Protection au sein du Datalake
Vous aurez pour missions :
- (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs
-Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU
-Accompagner les utilisateurs sur le Domaine
Finalités de la Prestation :
-Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine
-Améliorer la factorisation des investissements IT pour augmenter le reuse
-Réduire le coût de manipulation des données par les métiers
-Réduire les problèmes de cohérence entre les métiers
-Préparer les investissements pour les futurs usages
Compétences recherchées :
-Vous disposez d’une expérience de + 10 ans minimum
-Connaissance sur la protection souhaitée mais non obligatoire
-Connaissance et expérience dans la gestion de projet en V et en agile
Techniques :
-Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.)
-Maîtrise des enjeux autour des entrepôts de données et de leur construction
-Connaissance de technologies No-SQL mainstream : Hive, Spark, etc.
Projets data :
-Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions
-Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur)
-Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine
-Sensibilisation à la Gouvernance des Données
-Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle)
-Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc.
-Report et remontée de vigilance au PO du Datalake sur le domaine
Comportemental :
-Souhait de s’inscrire dans un projet de transformation d’entreprise
-Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT
-Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions
-Capacité à faire le lien entre les métiers et les ressources MOE, MOA
-Entrepreneur(se), passionné(e), curieux(se)

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku
Accelite
Publiée le
Agile Scrum
Analyse
Big Data
1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Offre d'emploi Data Quality Analyst (H/F)
Accelite
Publiée le
Agile Scrum
Analyse
Base de données
40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Mission freelance DATA ENGINEER GCP - JAVA H/F
Squaar
Publiée le
BigQuery
Data Warehouse
Google Cloud Platform
6 mois
500 €
Paris, France
Lieu : Nord de Paris,
TJM : 500€ / Jour,
Rythme : 3/5j de présence sur site par semaine,
Nous recherchons pour notre client un : DATA Engineer GCP - Java H/F dans le cadre d’une mission Freelance de 6 mois minimum.
VOS MISSIONS :
Vous ferez partie d’une équipe DATA d’une dizaine de personnes, vous serez en particulier dédié(e) à un projet lié à la RGPD , puisque vous aurez en charge de garantir la qualité des pipelines, d’ assurer le développement des programmes pour collecter, préparer, transformer et diffuser les données (Java, GCP, DATA plateforme interne).
Bien sûr, vous serez également amené à enrichir la plate-forme Data en assurant les conceptions et développements des pipelines de transformation, comprendre et documenter les sphères de données placées sous votre responsabilité : cycle de vie, modélisation, règles de gestion, qualité, scoring, assurer le maintien en condition opérationnelle des socles Data disponibles et exposer un monitoring quantitatif et qualitatif rendant compte de l’état des Data dans le système
Attention, il est impératif d’être orienté Java et d’avoir participer à des projets liés au : masquage, anonymisation et/ou obscurcissement de données !
VOUS :
De formation Bac +4/5 en informatique et traitement de données en particulier et après 5 ans d’expérience de mise à disposition ET modélisation de données dans un environnement technique similaire = Maîtrise exigée sur :
- Langage: Java
- Environnement Cloud: GCP BigQuery
PROCESS :
Après une visio avec un membre de notre équipe, voici les étapes qui vous attendent :
- Rencontre avec le Head of Data et son Lead
- Décision sous 72h
Envoyez-nous votre CV et si vous profil correspond aux attentes de notre client, vous serez contacté par un membre de l’équipe dans les 24h.
Au plaisir d’évoquer votre projet,
Squaar

Offre d'emploi Business/Data Analyst Asset Management
Sijo
Publiée le
Business Analysis
Data analysis
3 ans
10k-61 700 €
Paris, France
C’est un acteur incontournable de la gestion de conviction multi-spécialiste et de la finance durable.
Le besoin se situe au sein de l’équipe IT DATA CORE, rattachée à la DSI.
L’équipe est composée d’environ 10 personnes : 6 développeurs, 3 business analyst et 1 chef de projet.
L’objectif de la mission est d’intervenir comme Business Analyst sur tous les sujets liés à la donnée, que ce soit la partie support (flux avec OSTRUM) ou la partie projet (sujets : outil de contrôle de la donnée, référentiel produit, règlementation, moteur interne ESG, évolutions diverses sur le SI).
Au-delà des compétences fonctionnelles liées à la data dans le domaine de l’asset management, des compétences techniques sont requises (niveau confirmé à minima) pour faire des requêtes en base de données ou des analyses poussées dans les applications du SI.
Missions :
• Intervenir sur les sujets de business analysis : analyse du besoin, rédaction de
spécifications fonctionnelles / technique, tests…
• Être force de proposition sur les évolutions concernant les applications gérées dans
l’équipe
• Gérer les sujets d’évolution et de support en mode agile avec l’équipe de
développement
• Suivre la réalisation de chaque ticket jusqu’à la mise en production
• Mise à jour de la documentation interne concernant les évolutions (dictionnaire de données, mapping)
Niveau de séniorité du profil : 5 ans minimum en tant que Business Analyst

Offre d'emploi Data Engineer
AGIL-IT
Publiée le
Ansible
Apache Kafka
Big Data
45k-64k €
Issy-les-Moulineaux, Île-de-France
En tant que consultant Data Engineer, vous interviendrez dans le cadre de projets Big Data en cours ou From Scratch. Vous contribuerez :
- Aux études, à la conception et à l implémentation des projets
- A l’intégration de nouveaux flux en mode batch ou streaming
- A la configuration et optimisation des programmes applicatifs
- A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité
- A la mise en place de POC sur de nouveaux outils
- A la mise en œuvre des actions correctives à court et moyen terme
- A la rédaction de dossier d implémentation, restitution à la communauté des intégrateurs
- A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais

Mission freelance Data engineer Montpellier Big Data, Scala ou Java
WorldWide People
Publiée le
Big Data
6 mois
300-400 €
Montpellier, Occitanie
Data engineer Montpellier Big Data, Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
+ 1j/3sem à Massy" Janvier "Contexte
Au sein de la direction « Plateforme Data », le consultant intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise
Profil
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique.
Expérience souhaitée de plus de 3 ans en tant que Data Engineer.
Compétences
Expérience en architecture de systèmes distribués Big Data
Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes,Docker, Ansible …)
Concepts fondamentaux de Kafka
Bases de données NoSQL (Cassandra, BigTable…)
Moteur de recherche (Elastic Search...)"
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !