Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 205 résultats.
Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

CDI

Offre d'emploi
Tech lead DATA

Ipanema Technology
Publiée le
Data analysis
Databricks

55k-80k €
Paris, France

En tant que Lead Data Engineer , vous rejoindrez le département Data Analytics d'un cabinet du Big Four . Vous serez un acteur clé dans la transformation de nos capacités d'analyse et de gestion de données. Votre rôle sera d'orchestrer la chaîne de livraison des projets data, en coordonnant une équipe de 1 à 4 développeurs. Vous serez le point de contact technique avec les parties prenantes internes, assurant la bonne planification et l'exécution des projets, souvent en gérant plusieurs sujets en parallèle. Sur le plan technique, vous concevrez et mettrez en œuvre des modèles de données analytiques (cubes, SSAS, etc.) et définirez les KPI pour les dashboards. Vous gérerez les flux de données avec des outils comme Azure Data Factory ou SSIS . Une de vos missions principales sera la construction, dans les mois à venir, d'un Data Lake unique et d'un catalogue de données , en utilisant l' architecture Medallion et en choisissant une technologie de catalogue de données appropriée.

Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA

UCASE CONSULTING
Publiée le
Snowflake
SQL
Tableau software

3 ans
40k-60k €
400-550 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. Contexte : Assurer le rôle de point de coordination entre les équipes data engineer et data analystes Comprendre et cartographier les flux de données existants Réaliser ponctuellement des développements SQL si nécessaire Assurer le pilotage, suivi et traçabilité des projets data Garantir la bonne application de la méthodologie Agile (Rituels, backlog, priorisation). Compétences attendues Solides capacités d'analyse et de compréhension fonctionnelle Bonne connaissance des environnements data (bases, flux, reporting) Expérience en gestion de projet / PO Compétences techniques en SQL, DBT et Snowflake Connaissance de l'outil Tableau Profil hybride Technico fonctionnel

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance
CDI

Offre d'emploi
Proxy Product Owner

Sapiens Group
Publiée le
Product management

6 mois
40k-45k €
400-550 €
Paris, France

Dans le cadre d’un fort développement autour des écrans digitaux, une organisation recherche un(e) Proxy Product Owner afin de renforcer une équipe dédiée à la donnée. Vous rejoindrez une équipe pluridisciplinaire (PM, PO, Analytics Engineer, Data Engineer, QA…) en charge de l’intégralité de la chaîne de traitement de données, de sa création jusqu’à son activation et sa mise à disposition. L’équipe gère également l’implémentation et le paramétrage d’outils tiers dédiés à la collecte, l’analyse et la gestion de la donnée. Sous la responsabilité d’un(e) manager data, vous participerez au déploiement technique de produits digitaux orientés data sur différents supports : Web, applications mobiles, IPTV et TV connectée. Fort(e) de votre connaissance approfondie du cycle de vie de la donnée, vous aurez pour mission, en support du PO, de recueillir les besoins fonctionnels (techniques et métiers) tout en assurant un suivi rigoureux et rythmé pour accompagner les équipes dans la réussite des projets et offrir une visibilité optimale sur les avancées.

Freelance

Mission freelance
Responsable Déploiement GitHub & IA

VISIAN
Publiée le
AI
Github

1 an
210-360 €
Île-de-France, France

Contexte Le client souhaite développer l’usage de l’IA dans son delivery IT, notamment via le déploiement de licences GitHub auprès des développeurs, MLE, automaticiens et data engineers. L’objectif est de maximiser les gains de productivité et d’accompagner les équipes au changement en mode « in-squad » ou « on the delivery ». Missions principales Stratégie de déploiement Cartographier les squads DT2 et prioriser leur déploiement. Valider le déploiement avec les managers et tech leads. Identifier les référents GitHub au sein des squads. Lancer le processus de déploiement (request/CGU). Déploiement et accompagnement On-boarder managers, tech leads et experts sur GitHub et ses bénéfices. Formaliser les besoins d’accompagnement selon les populations cibles. Organiser les vagues de déploiement : Kick-off, Enrollment, MEP des guichets référents. Suivre l’adoption via enquêtes hebdomadaires et rendez-vous avec la communauté GitHub. Pilotage Définir et suivre les KPIs liés à l’usage de GitHub Copilot et à la qualité du code. Analyser l’impact sur la fluidité et la productivité du delivery IT. Mesurer les gains par rapport au Business Case défini.

Freelance
CDI

Offre d'emploi
Ingénieur MLOPs DevOps H/F

HIGHTEAM
Publiée le
DevOps

3 ans
Île-de-France, France

Nous recherchons un Ingénieur MLOPs DevOps , vous rejoindrez l’équipe en charge du développement et de la mise en production de modèles prédictifs stratégiques pour l’entreprise. Votre rôle consistera à concevoir et maintenir des infrastructures fiables, scalables et sécurisées pour supporter les activités de data science. Vous serez responsable de l’automatisation des déploiements via des pipelines CI/CD, du développement de scripts et d’outils en Python, et de l’orchestration d’applications dans des environnements Kubernetes. Vous travaillerez en étroite collaboration avec les data scientists et data engineers pour industrialiser les workflows de machine learning, faciliter l’expérimentation, le suivi des modèles et optimiser leur déploiement en production. Vos missions incluront : - Concevoir, automatiser et maintenir des pipelines CI/CD pour les applications et modèles. - Développer et maintenir des outils en Python pour l’industrialisation des processus. - Gérer la conteneurisation et l’orchestration avec Kubernetes (obligatoire). - Assurer la sécurité, la supervision et la performance des systèmes en production. - Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Helm). - Accompagner les équipes de data science sur les aspects MLOps (tracking d’expériences, gestion des modèles, monitoring).

Freelance

Mission freelance
Tech Lead Data

DEVATSCALE
Publiée le
Big Data
Data management
Python

3 mois
500-600 €
Poitiers, Nouvelle-Aquitaine

Hello, Voici le descriptif du poste de Tech Lead Data si tu es en recherche actuellement: Tu prends les rênes d'une partie de l’architecture Data pour garantir robustesse, scalabilité et sécurité des pipelines. Tu manages une petite équite de data engineer motivée et tu sais les challenger afin de performer Tu travailles sur la partie IA et machine learning main dans la main avec la team data scientist et data analyst Tu attaches de l'importance à la sécurité des données et au stockage Tu es à l'aise avec python, snowflake, SQL et talend.

Freelance
CDI

Offre d'emploi
Data Manager (H/F)

CITECH
Publiée le
UML

6 mois
50k-65k €
400-470 €
Paris, France

CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur hôtelier ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Manager (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Vous serez en charge de définir les politiques de gestion des données, de modéliser et de garantir l'architecture fonctionnelle de la plateforme de données utilisée pour satisfaire les besoins métier. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Soutenir le cadrage, la conception et la livraison des produits de données ‒ Clarifie les exigences ‒ Trouve les lacunes en matière de données et évalue la faisabilité ‒ Collabore avec les Product Owners et les Data Engineers ‒ Co-conçoit les solutions de données ‒ Valide les choix de modélisation des données ‒ Assure la cohérence avec les normes ‒ Garantit l'évolutivité et la maintenabilité 🔸 Co-définit et partage/éduque les normes de gestion des données ‒ Collabore avec les parties prenantes de la gouvernance, de l'architecture et des produits ‒ Définit les conventions de nommage ‒ Définit les exigences de documentation ‒ Établit les règles de modélisation et assure la conformité ‒ Organise des formations, des ateliers et des sessions de support ‒ Fournit des conseils pratiques et répond aux questions 🔸 Gère le portefeuille et les actifs de données au niveau de la tribu ‒ Assure la qualité et l'exhaustivité des métadonnées ‒ Décrit les tables, les champs et les processus ‒ Met à jour la lignée et le glossaire métier ‒ Vérifie l'application cohérente des normes ‒ Crée et partage les rapports sur le portefeuille de données ‒ Met en évidence les lacunes, les risques et les opportunités

Freelance

Mission freelance
DEVELOPPEUR SSIS CONFIRME

PARTECK INGENIERIE
Publiée le
Microsoft SQL Server
Microsoft SSIS

12 mois
400-550 €
Paris, France

Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Freelance

Mission freelance
Expert Alteryx

Nexius Finance
Publiée le
Alteryx

3 ans
Paris, France

Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.

Freelance

Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance
CDI

Offre d'emploi
Machine Learning Engineer Python confirmé(e) (H/F) (Bordeaux)

skiils
Publiée le
Deep Learning
Docker
Kubernetes

1 an
10k-45k €
100-380 €
Bordeaux, Nouvelle-Aquitaine

skiils recrute un(e) Data Engineer / Python & Machine Learning confirmé(e) (H/F) pour rejoindre une équipe Data et accompagner les projets de déploiement et industrialisation de modèles ML ! Au cœur d’une mission transverse, tu participeras à l’amélioration et à l’industrialisation des workflows ML, en apportant ton expertise Python et en accompagnant les équipes DataScience dans les bonnes pratiques de développement. En tant que tel(le), ton rôle consistera à : Assister et déboguer les équipes DataScience , pour garantir la stabilité et la performance des modèles. Concevoir et industrialiser les processus de déploiement des modèles de Machine Learning , en appliquant les bonnes pratiques de CI/CD . Former et accompagner les Data Scientists aux bonnes pratiques de développement (Clean Code, SOLID, refactoring…). Automatiser les tests fonctionnels et optimiser le code Python pour améliorer fiabilité et performance. Participer à l’industrialisation du déploiement des applications , en maîtrisant l’ensemble du cycle de développement, du build jusqu’à la production. Proposer des améliorations techniques et accompagner les équipes dans l’adoption des solutions. Ton environnement Tu évolueras au sein d’une équipe Data, sur des projets Machine Learning et Python, en interaction directe avec les Data Scientists pour diffuser les bonnes pratiques et optimiser l’industrialisation des modèles.

Freelance
CDI

Offre d'emploi
Tech Lead Data Azure / Databricks

VISIAN
Publiée le
Azure Data Factory
Databricks
PySpark

1 an
La Défense, Île-de-France

Missions principales : - Conception et développement : Concevoir, développer et maintenir des pipelines ETL/ELT en utilisant PySpark sur Databricks pour traiter de grandes quantités de données. - Leadership technique : Encadrer une équipe de Data Engineers, assurer la qualité du code, la conformité aux bonnes pratiques et participer aux revues de code. - Architecture et innovation : Participer à l’architecture des solutions Big Data sur Azure, proposer des optimisations et innovations techniques. - Gestion de projet : Collaborer avec les Product Owners et autres parties prenantes pour définir les besoins, estimer les efforts et respecter les délais. - Sécurité et conformité : Garantir la sécurité, la confidentialité et la conformité des données en respectant les standards et réglementations (ex : GDPR). - Veille technologique : Se tenir informé des évolutions des technologies Big Data, Azure, Python, Spark.

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Offre premium
Freelance

Mission freelance
Data Analyst Senior – Spécialisation ERP Infor M3

Comet
Publiée le
Data analysis

100 jours
400-510 €
Île-de-France, France

Dans le cadre de l’enrichissement d’un Datahub Finance / Achats , nous recherchons un Data Analyst expérimenté pour cartographier et valoriser les données issues de l’ERP Infor M3 . Le consultant interviendra au sein d’une équipe Data pour identifier et documenter les liens entre les données brutes de M3 (tables, champs) et les jeux de données analytiques cibles (comptes fournisseurs, clients, P&L, grand livre, etc.). Responsabilités principales : Identifier, en lien avec les Data Engineers, les tables et champs clés dans M3 Réaliser la cartographie des données brutes vers les datasets analytiques Finance / Achats Formaliser les règles de gestion et de transformation des données Assurer la qualité documentaire et la cohérence des mappings Collaborer avec les différentes parties prenantes (IT, métiers, data)

205 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous