Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 9 résultats.
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Freelance

Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Freelance

Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior

Publiée le
Python

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
CDI

Offre d'emploi
Consultant BI / Data Engineer – Secteur Gestion d’Actifs

Publiée le
DAX
Microsoft SQL Server
Microsoft SSIS

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Secteur : Finance / Gestion de fonds Localisation : Paris / Hybrid Type : CDI Notre client, un acteur majeur du secteur Finance / Gestion d’actifs , recherche un Consultant BI / Data Engineer confirmé afin d’intervenir sur des projets stratégiques de migration, d’évolution et d’optimisation des plateformes décisionnelles. 🎯 Objectif : remplacer un consultant expert, poste à compétences identiques. 🎓 Profil recherché Vous justifiez d’au moins 10 ans d’expérience en BI , avec une expertise forte sur l’environnement Microsoft BI : Compétences techniques indispensables : SQL Server (2016 → 2022) SSIS, SSRS, SSAS (Tabular & Multidimensional) Power BI (Report Server & Online) – DAX – RLS – Administration Azure DevOps / Azure DataFactory / Data Pipeline DataWarehouse, Datamarts, modélisation décisionnelle Reporting réglementaire & opérationnel Atouts supplémentaires Connaissance Fabric / Power BI Online Expérience en migration de plateformes BI Connaissance du secteur Finance / Gestion de fonds (vrai plus) 💼 Vos principales missions Migration SQL Server (2016 → 2022) et modernisation de la plateforme BI Migration SSIS, SSRS, SSAS Tabulaire / Multidimensional Migration Power BI Report Server → Power BI Online Gestion et administration des workspaces, datasets, gateways Conception et optimisation des flux d’intégration (SSIS, ADF) Développement de rapports SSRS / PBI, dashboards et cubes tabulaires Support utilisateurs + amélioration continue Participation à un environnement Agile / SCRUM
Freelance

Mission freelance
Data Automation Engineer (Dataiku)

Publiée le
Dataiku
Python
RAG

3 mois
400-520 €
Paris, France
Télétravail partiel
Missions Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre l’équipe du Group Data Office, au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via des agents intelligents (agentic process automation), et le soutien à la prise de décision stratégique. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, vous interviendrez sur l’ensemble du cycle de vie des projets : de l’idéation et du prototypage rapide jusqu’au déploiement en production. Responsabilités En tant que Data Automation Engineer confirmé (Dataiku), vous serez amené(e) à : - Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et de concevoir des solutions data adaptées. - Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. - Co-construire des prototypes rapides avec les utilisateurs métiers afin de valider des hypothèses et d’accélérer le time-to-value. - Industrialiser ces prototypes en solutions prêtes pour la production, avec une attention particulière portée à la qualité des données, la maintenabilité et la performance. - Contribuer à la livraison continue et aux déploiements en appliquant les bonnes pratiques de génie logiciel et de DevOps. - Participer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe. Compétences techniques - Expérience avérée dans le traitement de grands volumes de données en Python, avec des bibliothèques telles que pandas ou Polars. - Solide compréhension des principes du génie logiciel : clean code, gestion de versions, tests et automatisation. - Expérience avec des frameworks LLM et des outils d’orchestration d’agents IA. - Maîtrise du prompt engineering, des approches RAG (Retrieval-Augmented Generation) et de l’utilisation de modèles de fondation. - Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. - Expérience dans l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. - Connaissance des frameworks d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. - Expérience des outils d’orchestration de pipelines de données, notamment Dataiku. - Familiarité avec les pratiques DevOps, les pipelines CI/CD et les déploiements en environnement de production.
Freelance

Mission freelance
POT8700 - Un Data Engineer sur Clermont-ferrand

Publiée le
Microsoft Power BI

2 mois
280-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-ferrand. Descriptif : Le Data Engineer développe, construit et maintient des infrastructures de données d'un point de vue système et sécurité. Il s'assure de la collecte, du stockage et de l'exploitation des flux de données répondant aux enjeux de l'entreprise. Compétences techniques : Data engineer - Confirmé - Important Connaissances BI / Data - Confirmé - Important Connaissances linguistiques : Anglais Courant (Impératif) Français Courant (Secondaire)
CDI
Freelance

Offre d'emploi
Data Engineer - Java/ Spark

Publiée le
Apache Spark
AWS Cloud
AWS Glue

6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
9 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous