Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 264 résultats.
Freelance

Mission freelance
Ingénieur Data Cloud (H/F)

Link Consulting
Publiée le
BigQuery

12 mois
500-550 €
Toulouse, Occitanie

Notre client, acteur majeur du secteur bancaire, recherche un.e Data Engineer Cloud pour renforcer son pôle Data dans le cadre d’un vaste programme de modernisation de sa plateforme analytique et de migration vers le cloud. Le poste s’adresse à un profil confirmé, capable d’intervenir sur la conception et l’industrialisation de pipelines de données dans un environnement GCP / BigQuery, avec une approche orientée Data Engineering plutôt que développement applicatif. Vous rejoindrez une équipe d’experts data au sein d’un environnement technique moderne, reconnu pour son cadre de travail de qualité et sa culture d’innovation. Vos missions principales: Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud GCP (BigQuery, Dataflow, Pub/Sub, etc.). Participer à la migration des flux et traitements On-Premise vers le Cloud. Optimiser les performances, la scalabilité et la qualité des données sur la plateforme. Contribuer à la mise en œuvre des bonnes pratiques d’ingénierie data : CI/CD, tests, supervision, gouvernance. Collaborer avec les équipes DataOps, BI et Architecture pour garantir la cohérence et la fiabilité des flux. Documenter les architectures, assurer la traçabilité et la qualité des livrables.

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance
CDI

Offre d'emploi
BI / Big Data – Data Manager Senior

VISIAN
Publiée le
Apache Spark
Dash
Databricks

1 an
40k-56k €
400-620 €
Île-de-France, France

Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.

Freelance
CDI

Offre d'emploi
Ingénieur(e) Production Data

UCASE CONSULTING
Publiée le
Agile Scrum
AWS Cloud
GitLab CI

1 an
40k-82k €
500-960 €
Île-de-France, France

Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).

CDI
Freelance

Offre d'emploi
Développeur SPARK/ SCALA

AVA2I
Publiée le
Apache Kafka
Apache Maven
Apache Spark

3 ans
40k-45k €
400-550 €
Paris, France

Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)

Freelance

Mission freelance
Business Analyst IT – Modélisation de données H/F

Karma Partners
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
400-500 €
Île-de-France, France

ANGLAIS COURANT OBLIGATOIRE Analyse & recueil des besoins • Recueillir les besoins métiers auprès des équipes métier. • Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. • Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données • Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. • Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. • Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering • Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). • Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. • Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation • Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). • Rédiger et maintenir à jour la documentation métier et technique du modèle de données. • Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).

Freelance
CDI

Offre d'emploi
Tech Lead Data

ALTEN
Publiée le
Databricks

3 ans
40k-50k €
400-550 €
Paris, France

En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique . À ce titre, vos principales responsabilités seront : · Assurer un leadership technique auprès des équipes de développement. · Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. · Participer activement aux phases de conception, développement et tests. · Porter la vision technique au sein des équipes Agile. · Garantir la qualité des livrables et veiller à la réduction de la dette technique. · Réaliser la modélisation des données. · Assurer une veille technologique et participer aux POCs. · Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

Freelance

Mission freelance
Product Owner Data

CHOURAK CONSULTING
Publiée le
Product management

3 mois
400-650 €
Paris, France

Nous recherchons un un(e) Product Owner Data passionné(e) par les enjeux techniques et la gouvernance de la donnée, pour rejoindre un environnement data stimulant et exigeant à Paris , à partir de début 2026 . 🎯 Votre rôle : Piloter et animer une équipe de Data Engineers confirmés intervenant sur de nombreux flux et tables de données. Définir, prioriser et suivre les roadmaps produit data en étroite collaboration avec les équipes métiers et techniques. Garantir la qualité, la fiabilité et la performance des solutions livrées. Contribuer à la vision produit Data , en lien avec la stratégie globale de l’entreprise. Promouvoir les bonnes pratiques Agile (Scrum) au sein de l’équipe.

Freelance

Mission freelance
Expert Alteryx H/F

Nexius Finance
Publiée le
Alteryx

3 ans
Paris, France

Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance
CDI

Offre d'emploi
Architecte Cloud Data Stratégique GCP

PointRD
Publiée le
AWS Cloud
Azure
Big Data

24 mois
Île-de-France, France

Vos Responsabilités Clés Conception d'Architectures Data GCP : Définir et concevoir des architectures Data Cloud robustes, sécurisées et évolutives (Data Lakes, Data Warehouses, Data Mesh, solutions d'Analytics) en utilisant les services natifs de GCP. Expertise et maîtrise de services clés tels que BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub et Vertex AI . Stratégie Multi-Cloud et Migration : Contribuer à la stratégie Multi-Cloud du groupe, en assurant l'interopérabilité et l'intégration des services Data de GCP avec d'autres fournisseurs (AWS/Azure) ou les systèmes on-premise . Mener des phases de migration de systèmes de données existants (Legacy) vers la cible Cloud, en déterminant la meilleure approche (Re-platforming, Refactoring). Gouvernance et Sécurité (Cloud Data Security) : Définir la Landing Zone Data sur GCP , incluant les politiques de sécurité (IAM, KMS) et la gestion de la conformité réglementaire Data. Garantir la mise en œuvre de l' Infrastructure as Code (IaC) via Terraform pour le déploiement reproductible et sécurisé des plateformes Data. Optimisation et Conseil : Mettre en place des pratiques de FinOps pour optimiser les coûts liés au stockage et au traitement des gros volumes de données sur GCP. Fournir un leadership technique et un support aux équipes de Data Engineers et Data Scientists.

Freelance

Mission freelance
Data Architect - (h/f)

emagine Consulting SARL
Publiée le

6 mois
500-570 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Data Architect qui fera partie de l'équipe stable BI & Analytics. Rôle : En tant que Data Architect, il/elle garantira que les produits livrés par l'équipe stable sont alignés avec l'architecture cible globale. Pour soutenir ce poste, nous recherchons un Data Architect Azure avec une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Cette personne travaillera avec le DPO, Data Analyst, Data Engineer et Data Scientist de l'équipe stable, mais aussi avec la communauté des Architectes pour définir l'architecture avec la bonne qualité, la valeur commerciale pertinente et la maintenabilité à long terme. De plus, il/elle doit également avoir des compétences en leadership pour prendre la responsabilité technique dans les discussions avec les parties prenantes commerciales et l'architecture d'entreprise. Tâches : Fournir un leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser les processus de gestion des données et fournir des conseils et une direction aux équipes de développement. Être responsable de la conception et de la documentation de la solution dans son domaine. Avoir de l'expérience avec Databricks, le stockage ADLS, SQL DB, ADF et Power BI. Définir et posséder une architecture de données évolutive de bout en bout en tenant compte de l'architecture d'entreprise et des normes de l'industrie. Développer, documenter et maintenir des modèles de données logiques et physiques. Créer un tableau de bord client 360 basé sur les données CRM et les sources externes pour soutenir le processus marketing. Mettre en place un Produit Data pour soutenir l'approche CAST (produit réutilisable partagé) en ligne avec la stratégie du Groupe. Faire partie de l'équipe de maintenance pour garantir la continuité des processus commerciaux. Compétences : Architecture de données minimum 4 ans Rédaction de SQL et modélisation des données Conception de l'architecture de données Power BI Composants Azure comme ADFv2, Databricks, Delta lake Technologies et cadres d'analytique avancés Azure Langage de programmation lié à l'analytique avancée : Python, Pyspark Modèle de livraison basé sur le cloud Microsoft Gestion des données, gouvernance des données et qualité des données Déploiement d'API ou de microservices DevSecOps Agile Expérience de travail dans un environnement mondial Excellentes compétences en communication en français et en anglais (niveau C1) Autres détails : Sur site à Lyon 3 jours par semaine

Freelance

Mission freelance
Pilote de projet Data (H/F)

CAT-AMANIA
Publiée le
KPI
Pilotage

36 mois
Mer, Centre-Val de Loire

Dans le cadre du développement de ses activités Data, un centre technique basé à Mer (Loir-et-Cher) recherche un Pilote de projet Data pour renforcer son équipe de pilotage et d’intégration. Votre rôle sera de coordonner les projets Data de bout en bout, en assurant la qualité, la cohérence et la valorisation des données au service des métiers. Piloter les projets Data de A à Z : cadrage, planification, déploiement, suivi Coordonner les acteurs techniques et métiers impliqués (data engineers, analystes, responsables opérationnels) Garantir la qualité, la gouvernance et la fiabilité des données Concevoir et suivre les indicateurs de performance (KPIs) et tableaux de bord Accompagner la mise en place de solutions BI et d’outils de visualisation (Power BI, Tableau, Looker, etc.) Identifier les opportunités d’amélioration et d’automatisation des processus data Assurer la communication et la documentation autour des projets

CDI

Offre d'emploi
Manager Data / Lead Data

VISIAN
Publiée le
Azure
Azure Data Factory
Python

60k-80k €
Paris, France

Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.

Freelance

Mission freelance
Ingénieur Production Data

Tenth Revolution Group
Publiée le
Agile Scrum
AWS Cloud
Data analysis

12 mois
400-550 €
Paris, France

Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.

Freelance

Mission freelance
Data ingénieur Confirmé

MLMCONSEIL
Publiée le
Apache Spark
Git
Hadoop

6 mois
100-350 €
Orléans, Centre-Val de Loire

Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi... ... ... ... .... ... .... ... ... ... .... ..... .. .... .. .. .. .. . .. ... .. .. .. .. . .. . . . .. . . .. . .. . .. . .. . . .. . . .. . . .. . . . . .. . . . . . . .. . . .. . . .. .. . . . . . . .. . . . . . . . . . . . . . .. . .

264 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous