Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 596 résultats.
CDI
Freelance

Offre d'emploi
DATA ENGINEER

Publiée le

24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Freelance
CDI

Offre d'emploi
Architecte Data (28)

Publiée le
CI/CD
Terraform

1 an
40k-45k €
400-750 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Freelance

Mission freelance
POT8787 - Un Lead Développeur Power BI expérimenté sur Saint-Denis

Publiée le
Microsoft Power BI

6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses client, Un Lead Développeur Power BI expérimenté sur Saint-Denis. Compétences techniques indispensables : • Expertise Power BI (Desktop & Service) • Maîtrise du DAX et de la modélisation de données (modèles en étoile, relations) • Connaissances avancées en SQL et bases de données • Maîtrise de la Power Platform : PowerApps, Power Automate, DataVerse, DataFlow, MS365 • Connaissance des normes de sécurité et gouvernance (RLS, gestion des accès) • Expérience en développement web et intégration agile • Veille technologique et optimisation des performances Power BI Compétences fonctionnelles et soft skills : • Aisance relationnelle et esprit d’équipe • Capacité à mentorer et former des développeurs juniors • Autonomie, rigueur, sens de l’analyse et esprit de synthèse • Capacité à gérer des projets multiples et à respecter les priorités et délais • Discrétion et respect de la confidentialité des données Missions principales • Accompagner et former les développeurs BI / Data Analysts • Recueillir les besoins utilisateurs, analyser la faisabilité et rédiger des spécifications • Concevoir, développer, déployer et maintenir des rapports et dashboards Power BI • Modéliser, transformer et enrichir les données via Power Query • Assurer la qualité et cohérence des données, tests DAX, optimisation des performances • Respecter les standards Microsoft, normes de sécurité et gouvernance • Documenter techniquement les modèles et indicateurs • Participer à la veille technologique et au support utilisateur
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance
CDI

Offre d'emploi
Client Master Data Lead

Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'un projet de transformation des données piloté par un Data Office central, nous avons développé un Référentiel Client partagé pour garantir la cohérence, l'interopérabilité et la fiabilité des informations clients à travers toutes les entités. Dans un contexte de forte croissance par fusions-acquisitions, chaque ligne métier exploite actuellement ses propres systèmes d'information et bases de données clients. L'étape stratégique suivante consiste à déployer et intégrer ce Référentiel Client à l'échelle de l'organisation, permettant une gestion unifiée des données clients et soutenant les processus et analyses transversaux. Pour y parvenir, nous recherchons un professionnel en Master Data Management qui pilotera la stratégie de déploiement, la coordination et l'intégration du Référentiel Client avec l'ensemble des lignes métiers. Objectifs et livrables Le Client Master Data Lead sera responsable de : Définir et exécuter la stratégie de déploiement du Référentiel Client à travers toutes les entités. Agir en tant que coordinateur central entre l'équipe Data Office, l'IT et les lignes métiers pour assurer une intégration et une adoption réussies. Impulser l'alignement sur les modèles de données clients, les règles de gouvernance des données et les interfaces techniques. Gérer le planning du programme, les priorités et la communication avec les parties prenantes. Mettre en place et maintenir un reporting structuré pour suivre les avancées, identifier les risques et fournir une visibilité claire à la direction Data Office et au Comité Exécutif sur l'évolution de l'initiative. Responsabilités principales # Stratégie et Gouvernance : - Définir la feuille de route de déploiement et l'approche (par phases, incrémentale, par entité ou par domaine métier). - Accompagner la définition du modèle opérationnel cible pour la gestion des données clients (rôles, responsabilités, processus). - Identifier et gérer les risques, dépendances et besoins en gestion du changement. - Concevoir et maintenir un cadre de reporting au niveau programme, incluant KPIs, tableaux de bord et indicateurs d'avancement alignés sur les priorités du Data Office. #Coordination et Gestion de Projet : - Servir de point de contact unique entre l'équipe centrale du référentiel et les équipes IS/métiers locales. - Coordonner les projets d'intégration avec chaque entité : onboarding technique, mapping, migration et synchronisation des données clients. - Suivre les avancées, produire des rapports réguliers et des synthèses exécutives, et assurer la qualité de livraison et le respect des délais. - Animer les comités de pilotage et groupes de travail, en consolidant les mises à jour d'avancement et les prochaines étapes. - Garantir la traçabilité des décisions, actions et avancées à travers l'ensemble des flux de projet. # Expertise Technique et Fonctionnelle : - Contribuer à la définition des modèles de données, règles de matching & déduplication, et mécanismes d'intégration (APIs, ETL, etc.). - Accompagner les équipes techniques dans la mise en œuvre des interfaces et flux de données entre les systèmes locaux et le Référentiel Client. - Contribuer à la définition et au suivi des règles de mapping des données, Nettoyage des Données et Migration. # Gestion du Changement et Adoption : - Promouvoir la valeur et les bénéfices du Référentiel Client au sein de l'organisation. - Accompagner les équipes métiers dans l'adaptation de leurs processus et outils pour consommer et maintenir les données maîtres clients. - Contribuer à la conception de supports de formation, communication et reporting adaptés aux différents publics (exécutif, métiers, technique).
Freelance

Mission freelance
Chef de Projet Métier (Customer Data Platform & évolutions UNICA)

Publiée le
Gestion de projet

12 mois
620-640 €
Paris, France
Télétravail partiel
Chef de Projet Métier (Customer Data Platform & évolutions UNICA) Missions principales : · Piloter la mise en place d’une Customer Data Platform (CDP) et accompagner les évolutions de la solution UNICA. · Contribuer au cadrage fonctionnel et au déploiement opérationnel du projet, en lien avec les équipes Data, CRM et métiers. · Garantir l’alignement entre les besoins business, les enjeux data et les choix techniques. · Coordonner les ateliers, animer les instances projet et assurer le reporting auprès du management. · Accompagner la conduite du changement et la montée en compétences des équipes concernées. Profil recherché : · Expertise en CRM et forte expérience dans la mise en œuvre d’une CDP ou de projets Data à fort enjeu marketing. · Solide culture data et compréhension des enjeux de la personnalisation, segmentation et exploitation de la donnée client. · Capacité à travailler en transversal, à coordonner des parties prenantes variées (IT, marketing, data, éditeurs…). · Autonomie, force de proposition, rigueur et qualités de synthèse. · Maîtrise des environnements de type UNICA est un plus.
CDI

Offre d'emploi
Architecte SI - Data / Cloud (H/F)

Publiée le
Cloud

80k-110k €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Freelance

Mission freelance
Data Analyst Social Listening ( 4 ans xp)

Publiée le
Data analysis
IA Générative

120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Freelance
CDI

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)

Publiée le
Agile Scrum
Apache
Apache Kafka

1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Freelance

Mission freelance
Consultant EDI SAP H/F

Publiée le
SAP
Échange de données informatisé (EDI)

2 ans
450-600 €
Grenoble, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant EDI SAP H/F à Grenoble, France. Dans le cadre d’un accroissement d’activité, nous recherchons pour un client du secteur de l’énergie différents profils SAP, dont 2 consultant EDI. J’attire votre attention sur 3 contraintes : Présence obligatoire à Grenoble 2 jours par semaine Déplacements possibles selon contrainte projet 1 semaine/mois en France (vers Châlons sur/Saône et Alès) puis en Europe (Allemagne, Hongrie,..) Utilisation de l'anglais au quotidien sur le projet en plus du français (projet niveau europe) Ces contraintes sont non négociables. Démarrage début FEVRIER 2026 Objectif : Garantir la mise en œuvre technique, la configuration et l’exécution du cutover dans l’ensemble de l’écosystème IT. Mission : Fournir des systèmes IT adaptés, gérer la configuration, les tests et assurer une transition et un cutover fluides. Responsabilités clés : - Définir la configuration et collaborer avec la Delivery Factory - Conseiller sur les extensions et le mapping des données - Garantir la réussite des tests et la résolution des défauts - Coordonner la préparation BoB et les adaptations des systèmes existants Cette mission vous intéresse? Vous pensez que votre profil pourrait correspondre au besoin de notre client ? N'attendez plus pour déposer votre candidature, nos Ingénieurs d'affaires se feront un plaisir de vous en dire plus !
CDI
Freelance

Offre d'emploi
Consultant(e)Chef de projet DATA F/H-Niort

Publiée le
Business Object
Dataiku
ETL (Extract-transform-load)

120 ans
40k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Chef de projet Data (F/H)pour notre cabinet à Niort🚀 En tant que Consultant(e) chef de projet Data (F/H), vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de: piloter l'activité DATA Manager les équipes opérationnellement Contribuer aux estimations fournies par les équipes en vue du s’assurer de la faisabilité dans le budget accordé ou demandé, Construire le planning prévisionnel, accompagner les équipes dans la conception Etre garant des livrables et s’assurer que la solution proposée corresponde aux contraintes de l’organisation (technologiques, sécurité, …), Accompagner les PO dans l'aide à la relation métier Coordonner les équipes projet ainsi que les acteurs externes en vue d’atteindre les engagements (vérification de l’allocation des tâches en fonction des ressources), Construire ses indicateurs et tableaux de bords afin d’assurer le pilotage efficace de son projet, Assurer la visibilité au travers des comitologies projet (animation des comités projets COPIL, COPROJ, Steering Committee, etc …). Mener des TASK FORCE en cas d'incidents Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
2596 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous