Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 866 résultats.
Freelance

Mission freelance
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience

Publiée le
CI/CD
Databricks
Python

6 mois
480-580 €
Belgique
Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.
Freelance

Mission freelance
🚀 Mission AMOA – Support FIA (BlackRock)

Publiée le
AMOA
Business Analyst

1 an
Île-de-France, France
Nous recherchons un consultant AMOA confirmé pour assurer le support fonctionnel et évolutif du progiciel FIA (BlackRock) dans le cadre du projet Convergence FIA. Missions : support et maintenance, gestion des versions, suivi de production, habilitations et accompagnement au changement. Profil : expertise FIA (Investment, Debt, Workflow...), connaissance Private Equity / Real Estate, maîtrise JIRA, anglais professionnel . 📍 Paris (hybride) | 🗓️ Démarrage ASAP
Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Freelance

Mission freelance
Consultant eCommerce & PIM (H/F) - 92

Publiée le
Agile Scrum
API
Azure DevOps

3 mois
500-700 €
Hauts-de-Seine, France
Télétravail partiel
En tant qu'expert Webshop & PIM, vous serez responsable de la coordination et de l’exécution de bout en bout des vagues de construction et de déploiement de la roadmap e-commerce B2B & PIM. 1. Conception du Core Model & Gestion Agile des Livraisons Définir et valider le core model Webshop B2B et PIM avec les business owners, l’intégrateur et les éditeurs, en garantissant la standardisation et la scalabilité multi-pays. Construire, prioriser et gérer le backlog produit selon la valeur métier et les retours utilisateurs. Piloter la livraison agile avec l’intégrateur et les équipes IT : planification des sprints, suivi du développement, et validation des attentes métier. Proposer des évolutions pour améliorer l’expérience utilisateur et la performance commerciale. 2. Coordination de Projet & Déploiement Suivre les livrables, jalons et activités clés du programme. Coordonner les flux métiers, IT et intégration pour garantir la préparation à chaque phase (Discovery & Alignment, Build MVP, Acceptance & Deployment). Identifier les interdépendances entre les pays et les différents streams (ERP, Master Data, etc.). Anticiper les risques projet et mener les actions de mitigation. Définir et faire respecter les voies d’escalade. 3. Tests & Support Go-live Organiser, coordonner et valider les plans de test (UAT) avec les équipes QA et les utilisateurs clés. Vérifier que les livrables digitaux répondent aux exigences métiers et fonctionnelles. Apporter un support actif pendant les Go-live : validation de la migration des données, surveillance du comportement système, traitement des anomalies. 4. Adoption Utilisateur & Formation En collaboration avec l’intégrateur, les équipes projet et le Change Lead, organiser ou soutenir les sessions de formation et produire la documentation utilisateur. Recueillir les retours durant les phases pilotes et ajuster avant les déploiements à grande échelle. 5. Organisation Run & Amélioration Continue Participer à la structuration de l’organisation Run : définition des rôles, responsabilités et escalades. Gérer les demandes d’évolution et prioriser selon la valeur métier. Suivre les indicateurs de performance clés et utiliser les retours pour améliorer continuellement le produit.
Freelance

Mission freelance
228546/Direction Solutions Data - Chef de projet MOE assurance IARD - Niort - No remote

Publiée le
MOE

3 mois
400-450 €
Niort, Nouvelle-Aquitaine
Direction Solutions Data - Chef de projet MOE assurance IARD Niort Contexte de la mission : - 4 chefs de projets MOE / pilotes SI Data travaillent actuellement au sein de la Direction Solutions Data de la Direction des Systèmes d'Information et du Numérique (3 salariés et 1 prestataire informatique). - La Direction Solutions Data souhaite se renforcer avec l'arrivée d'un pilote SI Data H/F expérimenté sur le site de Niort pour piloter les projets du domaine de l'assurance IARD (Incendie, Accidents et Risques Divers). - Un démarrage de mission est souhaité mi-novembre 2025. La mission sera réalisée à Niort ; représentera un temps plein sur la fin d’année 2025 et sera reconduite en 2026 si elle se déroule bien. Responsabilités confiées : - Garantir la conduite ou la coordination de projets transverses, à forts enjeux ou présentant des risques importants, dans le respect des objectifs en terme de Qualité / Coût / Délais. - Garantir la performance des solutions déployées, leur conformité aux orientations de l'entreprise et aux besoins des commanditaires / utilisateurs. - Garantir le déploiement des projets et solutions, l'implémentation des changements et contribue à leur appropriation par les différents acteurs. - Elaborer, piloter et suivre le planning des projets Data. - Contribuer à l'efficacité permanente des outils / méthodes / processus / organisations, à leur adaptation à la stratégie et aux évolutions de l'entreprise. - Contribuer à l'optimisation et à la diffusion de bonnes pratiques dans la conduite de projets. Goals and deliverables La société devra fournir les prestations suivantes : - Animation des équipes projets - Formalisation des planning des projets Data et pilotage / suivi de leur avancement - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets - Expérience dans le management de projets - Expérience dans le monde de l'assurance - Expérience dans le domaine de la Data (en particulier sur les systèmes d'informations décisionnel et sur le big data) - Connaissances fonctionnelles du domaine IARD
Freelance

Mission freelance
Business Analyst Moyens de Paiement

Publiée le
Business Analyst

12 mois
Villejuif, Île-de-France
Télétravail partiel
Cherry Pick est à la recherche d'un Business Analyst Moyens de Paiement pour l'un de ses clients dans le secteur bancaires. Missions : - Participation au projet IP et à ses impacts au sein de la squad CIP (Corporate instant paiement) Participation aux projets ENERGIES 2°30 impactant au sein de la squad CIP (Corporate instant paiement) - Paricipation au maintien en condition opérationnel des applications existantes - Prise en charge des études d’impacts en cas de demande d’évolution. Expert sur les sujets de Moyens de paiments.
Freelance

Mission freelance
Data Engineer GCP – Freelance (H/F)

Publiée le
Google Cloud Platform (GCP)

1 an
400-630 €
Île-de-France, France
Télétravail partiel
Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .
CDI

Offre d'emploi
TECH LEAD DATA ENGINEER AZURE DATABRICKS (H/F)

Publiée le
Databricks
PySpark
Python

50k-55k €
Paris
Télétravail partiel
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Freelance

Mission freelance
Analyste Support Plateformes Trading

Publiée le
Support utilisateurs

1 an
Nanterre, Île-de-France
Nous recherchons un Analyste Support Plateformes Trading pour intervenir au sein de l’équipe Trading & Operations, responsable de la gestion et du support des plateformes de trading utilisées par les équipes Front Office et Dispatching. Description du poste : Gestion des accès aux plateformes, en fonction des évolutions business et des mouvements d’effectifs. Support technique et fonctionnel auprès des utilisateurs, incluant la résolution des incidents liés aux applications de trading et de Market Data. Participation à la gestion de mini-projets d’amélioration continue. Réalisation des contrôles matinaux et suivi opérationnel quotidien. Mise à jour de l’inventaire des comptes utilisateurs et rédaction des procédures/FAQ associées. Traitement des demandes et incidents reçus par mail et via tickets, communication régulière lors de maintenances ou incidents. Compte rendu d’activité et suivi du time-tracking journalier et mensuel.
CDI

Offre d'emploi
Architecte Data (Snowflake / Azure) H/F

Publiée le

40k-70k €
Paris, France
Télétravail partiel
En tant que Architecte Data (Snowflake / Azure) H/F, vous jouerez un rôle clé dans la conception, la mise en œuvre et l'optimisation de solutions data basées sur les technologies Snowflake et Azure. Vous serez directement intégré(e) au sein du département des services informatiques. Vos principales responsabilités seront : • Concevoir et déployer des architectures data performantes et scalables sur Snowflake et Azure. • Collaborer avec les équipes de développement et d'infrastructure pour assurer l'intégration des solutions. • Garantir la qualité, la sécurité et la conformité des données. • Participer à l'évolution des bonnes pratiques et standards techniques. • Assurer la documentation technique et les formations internes. • Suivre les innovations technologiques et proposer des améliorations continues.
CDI

Offre d'emploi
Analyste Applicatifs Banque H/F

Publiée le

55k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Analyste Applicatifs Banque H/F dans le cadre d'un CDI. Rattaché au Responsable Applications Métiers, l'Analyste Applicatifs Banque H/F assure le support applicatif, la gestion des données bancaires et réglementaires, ainsi que l'accompagnement des projets liés aux référentiels et aux outils de production documentaire. Responsabilités : Support et assistance utilisateurs (N2/N3) : Diagnostic, traitement et suivi des incidents liés aux applications métiers Gestion des données référentiels : Gestion des données bancaires et réglementaires : fiabilisation, contrôle qualité et suivi des données critiques (tiers, comptes, opérations), Central File (référentiel tiers & comptes) : gestion, paramétrage et évolution, Production documentaire : Relevés/avis bancaires : contribution à la mise en place, au suivi et à l'optimisation des processus de production documentaire et de gestion des documents, Projets IT et évolutions applicatives : Participation active aux phases de conception, tests, recette et mise en production dans un mode projet structuré (Agile / Cycle en V), Amélioration continue : Mise en place de procédures, proposition d'axes d'amélioration, optimisation des processus existants, Coordination et relations externes : Interface avec les équipes métiers, les éditeurs (Temenos T24, FCM, VBank, etc.), et les prestataires externes.
Freelance

Mission freelance
Analytics Engineer - Microsoft Azure (H/F)

Publiée le
Azure
Databricks
DAX

12 mois
500-620 €
Île-de-France, France
Télétravail partiel
Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.
CDI
Freelance

Offre d'emploi
Business Analyst – Processus Achats (H/F)

Publiée le
Business Analyst
Confluence
JIRA

6 mois
38k-45k €
350-410 €
Saint-Cloud, Île-de-France
Vous souhaitez participer à un projet de transformation où digitalisation et performance des achats se rencontrent ? Nous recherchons un Business Analyst pour accompagner une équipe dans la mise en place de solutions innovantes intégrant l’intelligence artificielle au cœur des processus de procurement. Vos principales missions : Recueillir et analyser les besoins des équipes achats, les formaliser sous forme de spécifications fonctionnelles claires et précises. Traduire ces besoins en user stories dans JIRA et participer à leur priorisation avec le Product Owner. Définir et exécuter les tests d’acceptation afin de garantir la conformité des développements. Assurer le suivi du backlog produit, communiquer avec les équipes de développement et participer aux rituels Agile. Documenter les fonctionnalités dans Confluence et veiller à la mise à jour continue du référentiel fonctionnel. Contribuer au support fonctionnel et à l’analyse des incidents sur les solutions déjà en production.
Freelance
CDI

Offre d'emploi
Product Owner/Business Analyst PLM

Publiée le
Business Analyst
PLM (Product Lifecycle Management)
Teamcenter

1 an
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Définir, structurer et déployer la future solution PLM du programme de notre client dans l'energie . Assurer la cohérence fonctionnelle, l’alignement avec les besoins métiers et accompagner la montée en maturité des processus d’ingénierie, procurement et construction. Pilotage fonctionnel (PO) Porter la vision du PLM pour le programme Construire et maintenir le backlog (processus, fonctionnalités, données). Prioriser les besoins et arbitrer selon la valeur métier et le standard éditeur. Garantir l’utilisation maximale de l’out-of-the-box. 2. Analyse métier & modélisation des processus Formaliser les processus d’ingénierie produit, configuration, modifications, gestion documentaire. Identifier les besoins utilisateurs et les traduire en spécifications fonctionnelles. Définir les modèles de données, structures produit, workflows de validation. 3. Orchestration métier / IT Interface entre métiers, IT, intégrateur PLM et éditeur. Assurer la cohérence entre PLM et les autres solutions (AVEVA, ERP, GED…). Participer aux ateliers de design fonctionnel et tests d’intégration. 4. Déploiement & changement Organiser la recette fonctionnelle. Préparer le plan de formation utilisateurs. Contribuer au support au démarrage et à la conduite du changement.
Freelance

Mission freelance
PO data - GCP/Power BI - Supply

Publiée le
BigQuery
Google Cloud Platform (GCP)

1 an
620-710 €
Paris, France
Télétravail partiel
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,
Freelance

Mission freelance
(Nord - 59) - Data engineer

Publiée le
Terraform

6 mois
360-380 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Objectif global : Accompagner le domaine Supply sur l'expertise de sa data Contrainte forte du projet Activités de RUN (maintien en condition opérationnelle) de BUILD (développement) et d'EXPERTISE Les livrables : Météo quotidienne, Remontées d'alertes Scripts, requêtes, planifications Documentations, Etats d'avancement Description détaillée Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
1866 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous