Trouvez votre prochaine offre d’emploi ou de mission Data cleaning

Votre recherche renvoie 46 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance Architecte Big Data Machine Learning F/H

SOFTEAM
Publiée le
Big Data

6 mois
500-620 €
Paris, France
Description et livrables de la prestation Au sein de l’équipe Socles Big Data et Machine Learning, l’architecte solution Big Data et ML sera amené à: Contribuer à l’évolution de l’offre de service de la plateforme Big Data Définir et maintenir le cadre de référence des principes d’architecture Big Data D’accompagner les développeurs dans l’appropriation de ce cadre de référence, Définir les solutions permettant de répondre aux besoin d’exposition, de consommation ou d’export de données des métiers D’accompagner les développeurs et les différentes parties prenantes dans la mise en œuvre des solutions proposées Mission principale : - Définition de socle technique en fonction de la roadmap 2024
Freelance

Mission freelance data scientist machine learning python

Innov and Co
Publiée le

1 an
400-650 €
Puteaux, Île-de-France
Projets de R&D et d’industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objet de la mission : Dans le cadre de l’accélération des expérimentations et préparation à l’industrialisation des modèles de Machine Learning, le portefeuille projets est constitué de plusieurs projets de Data Science sur les sujets suivant : - Détection de la Fraude - Analyse d’image & Gestion des sinistres - Provisionnement - Pricing (avec IA) - Prise en compte des risques climatiques Le consultant sera responsable de la cohérence technique des développements des projets de Data Science de l’équipe, du cadrage au déploiement en production. Missions principales du consultant : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l’équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l’équipe concernant les travaux d’industrialisation des modèles effectués par l’IT, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l’équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l’équipe - Apporter un œil nouveau dans l’amélioration continue des modèles développés par l’équipe (utilisation de données non structurées, données externes ) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets. Le mode de fonctionnement est Agile et la compréhension des métiers de l’assurance santé est souhaitable. Echange fréquent et régulier avec le métier portant les projets afin de s’assurer de la pertinence de la modélisation et de la cohérence des résultats. Livrables : • Données, Modèles programmes, résultats • Note d’analyse de ces résultats • Emissions de besoins • Présentations pour le suivi des différents projets • Supports divers pour les échanges avec les métiers et pour les comités de pilotage. • Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts des modèles. Expertises requises : ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques (obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers (souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable) Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch) + si possible : R, QlikSense Qualité attendue : Esprit de synthèse et d’analyse en vue des différentes présentations de résultats, Qualité du code, rédaction de SFD des programmes et projets de Data Science, rigueur et qualité de documentation, Aisance relationnelle avec les interlocuteurs sur ces projets. Flexibilité pour un fonctionnement en mode agile et pour suivre le rythme accéléré des expérimentations. Adaptation aux contraintes organisationnelles des équipes travaillant sur le sujet et à l’organisation de l’entreprise. Haut degré d’autonomie et capacité de travail en équipe. Curiosité pour les métiers attendue.
CDI

Offre d'emploi Machine Learning Senior / Data Scientist - H/F en ESN

Frank Recruitment Group Services Ltd
Publiée le

Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables. Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP. Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP) Participation active à l'optimisation et à l'amélioration continue des modèles existants. Conception, développement et mise en œuvre des modèles de machine learning. Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.
CDI

Offre d'emploi Machine Learning Senior / Engineer Data Scientist - H/F en ESN

Frank Recruitment Group Services Ltd
Publiée le

Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables. Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP. Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP) Participation active à l'optimisation et à l'amélioration continue des modèles existants. Conception, développement et mise en œuvre des modèles de machine learning. Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.
CDI

Offre d'emploi DATA SCIENTIST & MACHINE LEARNING ENGINEER (GCP) H/F

Frank Recruitment Group Services Ltd
Publiée le

35k-45k €
Bordeaux, Nouvelle-Aquitaine
FRG Consulting recrute pour l'un de ses clients, leader dans la fourniture de solutions logicielles et cloud de pointe. Nous sommes à la recherche d'un Data Scientist & Machine Learning Engineer GCP H/F passionné et talentueux pour rejoindre une équipe innovante et dynamique. Vos missions seront les suivantes : Concevoir, développer et mettre en oeuvre des modèles de machine learning pour résoudre des problèmes complexe. Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables. Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure. Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP) Participer activement à l'optimisation et à l'amélioration continue des modèles existants. Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine leargning et de GCP. Profil recherché : Formation Bac+5 en informatique, statistiques, mathématiques ou dans une domaine connexe. Expérience professionnelle démontrée en data science et en Machine Learning. Solides compétences en programmation (Python, Java, Scala, etc. Maîtrise des outils GCP (BigQuery, Dataflow, Pub/Sub et Cloud Storage) Connaissance des bibliothèques de machine learning telles que TensorFlow, scikit-learn, etc. Excellente compétences en communication et en résolution de problèmes. Capacité à travailler de manière autonome et en équipe. Avantages : Possibilité de travailler en télétravail de manière flexible. Accès à des formations et certifications GCP pour le développement professionnel. Environnement de travail stimulant et collaboratif au sein d'une équipe talentueuse. Si vous êtes passionné par la data science, le machine learning et que vous souhaitez contribuer à des projets innovants dans le cloud, notre client, vous offre l'opportunité parfaite pour développer votre carrière.
CDI

Offre d'emploi Data Scientist / Machine Learning Engineer

Frank Recruitment Group Services Ltd
Publiée le

60k-75k €
Île-de-France, France
Notre client, start-up basé en région parisienne, est à la recherche de talents passionnés de Data et d'IA pour intégrer leurs équipe en tant que Data Scientist / Machine Learning Engineer. Rejoignez une entreprise dynamique en plein essor, résolument tournée vers l'excellence. Bénéficiez des nombreux avantages offerts par un poste attrayant dans le domaine de la Data et de l'IA, avec une rapide expansion de vos compétences et des opportunités de prise de responsabilités. Vous collaborerez étroitement avec des collègues aux profils diversifiés tels que des Data Ingénieurs, des Data Scientists, des Machine Learning Engineers, etc.. au sein d'une équipe multidisciplinaire unie, avec pour principales missions : Contribuer à la conception complète des produits de Data Science Mettre à contribution votre expertise et compétences en Data Science et en intelligence artificielle pour le bénéfice de l'ensemble de l'entreprise et de ses partenaires. Participer à l'élaboration de la stratégie et du savoir-faire en Data Science Collaborer à l'édification de la réputation de l'entreprise dans le domaine de la Data Science et de l'Intelligence Artificielle. Profil recherché Titulaire d'un Bac +5 5 ans d'expérience minimun, sur des projets à base de Machine Learning en production Vous avez une bonne connaissance des principaux algorithmes et bibliothèques de Machine Learning (parmi scikit-learn, TensorFlow, PyTorch, etc.) Vous avez une appétence forte pour le développement logiciel et les bonnes pratiques associées Qualités requises : Pédagogue, rigoureux, autonome, bonne communication, curieux, force de proposition Avantages : Politique télétravail flexible Accompagnement sur de nouveaux projets Montée en compétences sur de nouveaux outils IT Start-up Factory, vous permettant de participer à la création et au lancement de start-up Candidatures confidentielles
Freelance

Mission freelance Senior PMO/Business analyst - data migration

RTV Consulting
Publiée le
Adobe Campaign
Agile Scrum
API REST

1 an
500-600 €
Paris, France
Dans le cadre de la mise en place d’un nouveau ’data model’ de gestion des ’contacts’ et ’partners’, vous serez en charge de: - Assurer la qualité des livraisons dans les temps - Gestion et priorisation du backlog global en coordination avec les POs et gestion des dépendances des évolutions - Proposer un design de la solution pour atteindre les objectifs du projet - Assurer la rédaction des Users Stories pour chaque application - Assurer le suivi du developpement de la solution avec les développeurs - Gestion des tests avec les stakeholders jusqu’à la mise en production - Gestion de la migration et du nettoyage des données - Parti prennante des comité de projet hebdomadaires et préparation des supports des steering committees - Fournir la bonne communication sur les progrès du projet aux stakeholders
CDI

Offre d'emploi Engineer Data Scientist / Machine Learning Senior - H/F en ESN

Frank Recruitment Group Services Ltd
Publiée le

Île-de-France, France
Collecter, nettoyer et analyser des données volumineuses pour extraire des informations exploitables. Effectuer une veille technologique constante pour rester à jour avec les dernières avancées en matière de machine learning et de GCP. Déployer des modèles de machine learning sur le provider Google Cloud Platform (GCP) Participation active à l'optimisation et à l'amélioration continue des modèles existants. Conception, développement et mise en œuvre des modèles de machine learning. Collaborer étroitement avec les équipes techniques et les clients pour comprendre les besoins métiers et développer des solutions sur mesure.
Freelance

Mission freelance Product Owner Data (H/F)

Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven

1 an
450-600 €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake. Eléments de dimensionnement : Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux) Direction des projets DATAHUB du périmètre Protection au sein du Datalake Vous aurez pour missions : - (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs -Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU -Accompagner les utilisateurs sur le Domaine Finalités de la Prestation : -Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine -Améliorer la factorisation des investissements IT pour augmenter le reuse -Réduire le coût de manipulation des données par les métiers -Réduire les problèmes de cohérence entre les métiers -Préparer les investissements pour les futurs usages Compétences recherchées : -Vous disposez d’une expérience de + 10 ans minimum -Connaissance sur la protection souhaitée mais non obligatoire -Connaissance et expérience dans la gestion de projet en V et en agile Techniques : -Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.) -Maîtrise des enjeux autour des entrepôts de données et de leur construction -Connaissance de technologies No-SQL mainstream : Hive, Spark, etc. Projets data : -Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions -Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur) -Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine -Sensibilisation à la Gouvernance des Données -Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle) -Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc. -Report et remontée de vigilance au PO du Datalake sur le domaine Comportemental : -Souhait de s’inscrire dans un projet de transformation d’entreprise -Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT -Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions -Capacité à faire le lien entre les métiers et les ressources MOE, MOA -Entrepreneur(se), passionné(e), curieux(se)
CDI

Offre d'emploi Product Owner Data (H/F)

Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven

45k-65k €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake. Eléments de dimensionnement : Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux) Direction des projets DATAHUB du périmètre Protection au sein du Datalake Vous aurez pour missions : - (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs -Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU -Accompagner les utilisateurs sur le Domaine Finalités de la Prestation : -Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine -Améliorer la factorisation des investissements IT pour augmenter le reuse -Réduire le coût de manipulation des données par les métiers -Réduire les problèmes de cohérence entre les métiers -Préparer les investissements pour les futurs usages Compétences recherchées : -Vous disposez d’une expérience de + 10 ans minimum -Connaissance sur la protection souhaitée mais non obligatoire -Connaissance et expérience dans la gestion de projet en V et en agile Techniques : -Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.) -Maîtrise des enjeux autour des entrepôts de données et de leur construction -Connaissance de technologies No-SQL mainstream : Hive, Spark, etc. Projets data : -Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions -Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur) -Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine -Sensibilisation à la Gouvernance des Données -Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle) -Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc. -Report et remontée de vigilance au PO du Datalake sur le domaine Comportemental : -Souhait de s’inscrire dans un projet de transformation d’entreprise -Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT -Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions -Capacité à faire le lien entre les métiers et les ressources MOE, MOA -Entrepreneur(se), passionné(e), curieux(se)
Freelance

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku

Accelite
Publiée le
Agile Scrum
Analyse
Big Data

1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
CDI

Offre d'emploi Data Quality Analyst (H/F)

Accelite
Publiée le
Agile Scrum
Analyse
Base de données

40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
Freelance

Mission freelance DATA ENGINEER GCP - JAVA H/F

Squaar
Publiée le
BigQuery
Data Warehouse
Google Cloud Platform

6 mois
500 €
Paris, France
Lieu : Nord de Paris, TJM : 500€ / Jour, Rythme : 3/5j de présence sur site par semaine, Nous recherchons pour notre client un : DATA Engineer GCP - Java H/F dans le cadre d’une mission Freelance de 6 mois minimum. VOS MISSIONS : Vous ferez partie d’une équipe DATA d’une dizaine de personnes, vous serez en particulier dédié(e) à un projet lié à la RGPD , puisque vous aurez en charge de garantir la qualité des pipelines, d’ assurer le développement des programmes pour collecter, préparer, transformer et diffuser les données (Java, GCP, DATA plateforme interne). Bien sûr, vous serez également amené à enrichir la plate-forme Data en assurant les conceptions et développements des pipelines de transformation, comprendre et documenter les sphères de données placées sous votre responsabilité : cycle de vie, modélisation, règles de gestion, qualité, scoring, assurer le maintien en condition opérationnelle des socles Data disponibles et exposer un monitoring quantitatif et qualitatif rendant compte de l’état des Data dans le système Attention, il est impératif d’être orienté Java et d’avoir participer à des projets liés au : masquage, anonymisation et/ou obscurcissement de données ! VOUS : De formation Bac +4/5 en informatique et traitement de données en particulier et après 5 ans d’expérience de mise à disposition ET modélisation de données dans un environnement technique similaire = Maîtrise exigée sur : - Langage: Java - Environnement Cloud: GCP BigQuery PROCESS : Après une visio avec un membre de notre équipe, voici les étapes qui vous attendent : - Rencontre avec le Head of Data et son Lead - Décision sous 72h Envoyez-nous votre CV et si vous profil correspond aux attentes de notre client, vous serez contacté par un membre de l’équipe dans les 24h. Au plaisir d’évoquer votre projet, Squaar
CDI
Freelance

Offre d'emploi Business/Data Analyst Asset Management

Sijo
Publiée le
Business Analysis
Data analysis

3 ans
10k-61 700 €
Paris, France
C’est un acteur incontournable de la gestion de conviction multi-spécialiste et de la finance durable. Le besoin se situe au sein de l’équipe IT DATA CORE, rattachée à la DSI. L’équipe est composée d’environ 10 personnes : 6 développeurs, 3 business analyst et 1 chef de projet. L’objectif de la mission est d’intervenir comme Business Analyst sur tous les sujets liés à la donnée, que ce soit la partie support (flux avec OSTRUM) ou la partie projet (sujets : outil de contrôle de la donnée, référentiel produit, règlementation, moteur interne ESG, évolutions diverses sur le SI). Au-delà des compétences fonctionnelles liées à la data dans le domaine de l’asset management, des compétences techniques sont requises (niveau confirmé à minima) pour faire des requêtes en base de données ou des analyses poussées dans les applications du SI. Missions : • Intervenir sur les sujets de business analysis : analyse du besoin, rédaction de spécifications fonctionnelles / technique, tests… • Être force de proposition sur les évolutions concernant les applications gérées dans l’équipe • Gérer les sujets d’évolution et de support en mode agile avec l’équipe de développement • Suivre la réalisation de chaque ticket jusqu’à la mise en production • Mise à jour de la documentation interne concernant les évolutions (dictionnaire de données, mapping) Niveau de séniorité du profil : 5 ans minimum en tant que Business Analyst
CDI

Offre d'emploi Data Engineer

AGIL-IT
Publiée le
Ansible
Apache Kafka
Big Data

45k-64k €
Issy-les-Moulineaux, Île-de-France
En tant que consultant Data Engineer, vous interviendrez dans le cadre de projets Big Data en cours ou From Scratch. Vous contribuerez : - Aux études, à la conception et à l implémentation des projets - A l’intégration de nouveaux flux en mode batch ou streaming - A la configuration et optimisation des programmes applicatifs - A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité - A la mise en place de POC sur de nouveaux outils - A la mise en œuvre des actions correctives à court et moyen terme - A la rédaction de dossier d implémentation, restitution à la communauté des intégrateurs - A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais
Freelance

Mission freelance Data engineer Montpellier Big Data, Scala ou Java

WorldWide People
Publiée le
Big Data

6 mois
300-400 €
Montpellier, Occitanie
Data engineer Montpellier Big Data, Scala/Java (expérience obligatoire dans l’un des deux langages)  Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...) + 1j/3sem à Massy" Janvier "Contexte Au sein de la direction « Plateforme Data », le consultant intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise Profil Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique. Expérience souhaitée de plus de 3 ans en tant que Data Engineer. Compétences  Expérience en architecture de systèmes distribués Big Data  Scala/Java (expérience obligatoire dans l’un des deux langages)  Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)  Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes,Docker, Ansible …)  Concepts fondamentaux de Kafka  Bases de données NoSQL (Cassandra, BigTable…)  Moteur de recherche (Elastic Search...)"
Suivant

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !