L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 117 résultats.
Mission freelance
Data Engineer
The Yellow Office
Publiée le
Amazon S3
AWS Cloud
DBT
6 mois
Hauts-de-Seine, France
Data Engineer | AWS / Snowflake / DBT | IDF Nous recherchons plusieurs Data Engineers senior (5 ans d’expérience minimum) pour intervenir sur une data platform déjà en place, avec un vrai enjeu d’alimentation et de structuration des données pour les cas d’usage métiers. Ce n’est pas un rôle de build from scratch. La plateforme existe. L’objectif est de la faire vivre, de la renforcer et d’industrialiser les usages. Contexte Vous intervenez sur une architecture Data moderne dans le cloud, avec des enjeux de performance, fiabilité et scalabilité. Vous participerez activement à l’alimentation des cas d’usage métiers et à la structuration des couches de données. Vos responsabilités • Alimenter et maintenir les pipelines de données • Transformer, traiter et modéliser les données • Construire et faire évoluer les couches métriques (architecture en 4 couches) • Concevoir des modèles en étoile adaptés aux usages analytiques • Garantir la qualité, la performance et la fiabilité des flux • Participer à l’industrialisation et à l’automatisation des déploiements Stack technique • AWS (S3 / Terraform / ... ) • Snowflake • DBT Une réelle maîtrise de Snowflake et DBT est attendue. Nous cherchons un profil opérationnel, capable d’optimiser et de produire, pas uniquement de comprendre la stack. Profil recherché • Minimum 5 ans d’expérience en Data Engineering • Solide expérience AWS en environnement production • Très bonne maîtrise de Snowflake et DBT • Expérience sur des architectures data en couches • Bonne compréhension de la modélisation analytique (schémas en étoile) • Autonomie et culture qualité forte Informations mission • Localisation : Île-de-France / 92 • Contrat : Freelance • Durée : 6 mois renouvelables (mission longue) • Démarrage : à définir • TJM : Selon expérience Nous cherchons des profils capables d’apporter de la rigueur technique et de la valeur métier sur une plateforme déjà structurée. Contact
Mission freelance
chef de projet DATA ETL - Checy/su
WorldWide People
Publiée le
ETL (Extract-transform-load)
Pilotage
12 mois
370-400 €
Chécy, Centre-Val de Loire
chef de projet DATA ETL Checy Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel. Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Ci joint le descriptif de mission : La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Début de mission : Début mars 2026
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Test Engineer / Automaticien QA – Projet e-Pharmacie (Stream 2)
RIDCHA DATA
Publiée le
Confluence
JIRA
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de la transformation digitale du secteur pharmaceutique en France et de la simplification de la vente en ligne de médicaments hors prescription, un portail numérique sécurisé est en cours de déploiement pour les officines et leurs patients. L’objectif du programme est de : Garantir la sécurité des données de santé Assurer la qualité et la traçabilité des médicaments Proposer une plateforme souveraine et conforme aux exigences réglementaires Hébergement sur Cloud HDS (Numspot) La mission s’inscrit dans le Stream 2 du programme. Contrainte forte du projet Environnement Cloud HDS (Numspot) Exigences élevées en matière de sécurité et conformité santé Objectif de la mission Mettre en place l’environnement de test, définir et exécuter la stratégie de tests, et automatiser les campagnes de tests. Missions principales 🔹 Mise en place & stratégie de test Définir la stratégie globale de tests Mettre en place l’environnement de test Structurer l’outillage QA Élaborer le cahier de tests 🔹 Exécution & reporting Exécuter les campagnes de tests Formaliser les résultats Produire le bilan de tests Suivre les anomalies Assurer le reporting qualité 🔹 Automatisation des tests Automatisation attendue en priorité sur : Les intégrations externes Les APIs Automatisation envisagée également sur : Tests IHM (application mobile) Back-office Pharmacien Site web Livrables attendus Stratégie de test Cahier de tests Résultats et bilan de tests Scripts d’automatisation Documentation des campagnes Compétences techniques 🔹 Outils & Frameworks (Important) JIRA / Confluence – Confirmé Robot Framework – Confirmé Selenium – Confirmé JUnit – Confirmé Postman – Confirmé 🔹 Langage (Souhaitable) Java – Confirmé Environnement technique Cloud HDS (Numspot) APIs & intégrations externes Application mobile Back-office web Langues Français courant Anglais lu et écrit – secondaire
Offre d'emploi
Data Engineer Azure/Fabric
AEROW
Publiée le
Agile Scrum
Azure
Azure Data Factory
2 ans
40k-55k €
400-550 €
Gosselies, Hainaut, Belgique
ATTENTION, 2 JOURS SUR SITE / SEMAINE A GOSSELIES OBLIGATOIRE (= NON NEGOCIABLE) , NE PAS POSTULER LE CAS ECHEANT. Dans le cadre de ses activités, CLIENT recherche un Data Engineer pour renforcer son équipe Data. Il s’agit d’une mission jusque fin d’année, renouvelable , au sein de la Factory Data , responsable de la gestion, de la maintenance et de l’évolution des solutions Data (Microsoft Fabric, Azure Data Factory, SAP BO/DS). Le Data Engineer rejoindra l’équipe en charge du développement, de la maintenance et du support des solutions BI Azure & Microsoft Fabric , tant sur les volets correctifs qu’évolutifs . Responsabilités principales Développement & Data Engineering Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory) Développer les flux de transformation via Fabric Factory Notebooks (Spark / PySpark) Optimiser les requêtes et traitements , en tenant compte des coûts Azure Contribuer à la modélisation du Lakehouse Concevoir et implémenter l’ architecture médaillon (Silver & Gold) dans Microsoft Fabric Mettre en œuvre les formats open table (Delta, Iceberg) Qualité, tests et delivery Définir et documenter le plan de tests unitaires (automatisables) Exécuter et suivre les tests unitaires Participer à l’ estimation des charges lors des phases de cadrage Rédiger la documentation technique Contribuer à l’ amélioration continue (guidelines, bonnes pratiques) Maintenance & support Participer à la maintenance des solutions en production Contribuer à la résolution des incidents Atout complémentaire Participation aux analyses fonctionnelles : Traduction des besoins métier Élaboration des modèles logiques Réalisation de tableaux de bord Tests fonctionnels de la solution
Offre d'emploi
Consultant.e Data Analyst Power BI F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
DevOps
Python
Niort, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer
Signe +
Publiée le
Deep Learning
MLOps
Python
6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Mission freelance
Développeur Dynamics 365 Finance
Groupe Aptenia
Publiée le
Finance
Office 365
1 an
400-550 €
Île-de-France, France
Nous recherchons un Développeur Dynamics 365 Finance pour intervenir sur le développement, l’évolution et la maintenance de l’ERP Microsoft Dynamics 365 Finance & Operations. Le poste s’inscrit dans un environnement technique exigeant, orienté qualité, performance et amélioration continue. Au-delà du développement pur, le développeur participe activement à l’analyse des besoins, aux choix techniques et à la fiabilisation des livraisons. Il travaille en étroite collaboration avec les équipes fonctionnelles afin de garantir des solutions cohérentes, robustes et alignées avec les enjeux métiers, notamment financiers. Le poste implique également une forte dimension autour des tests automatisés, de l’intégration continue (CI/CD) et des bonnes pratiques de développement. Le développeur est attendu comme un véritable acteur de l’évolution de l’ERP, capable de proposer des améliorations, d’optimiser les processus existants et de contribuer à la montée en qualité globale du produit. Ce rôle s’adresse à un profil autonome, rigoureux et curieux, à l’aise dans un environnement agile, souhaitant s’inscrire dans un projet ERP structurant et à fort impact métier.
Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite
CAT-AMANIA
Publiée le
kelia
Python
2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Offre d'emploi
Data Engineer
INFOGENE
Publiée le
40k-45k €
Lille, Hauts-de-France
Vous justifiez d’au moins 5 ans d’expérience en tant que Data Engineer dans un environnement technique exigeant. Vous avez une forte capacité d’analyse, aimez résoudre des problèmes complexes et construire des solutions scalables et durables. Vous êtes curieux(se), autonome et doté(e) d’un bon relationnel pour travailler efficacement avec des profils variés (techniques et métiers). Votre maîtrise de l’environnement cloud et votre esprit d’amélioration continue vous permettent de contribuer activement à l’évolution de la plateforme data de l’entreprise. Votre niveau d’anglais vous permet d’évoluer dans un contexte international et de lire de la documentation technique sans difficulté
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Offre d'emploi
AMOA Microsoft Dynamics 365 - temps plein présentiel Melun
Mon Consultant Indépendant
Publiée le
DevOps
Méthode Agile
Supply Chain
80k-90k €
Seine-et-Marne, France
La mission est en 100% présentiel et située proche de Melun (77). Lieu accessible via le RER D (environ 1h de Chatelet) ou voiture (environ 45 min / 1h de Paris) Merci de ne postuler que si vous avez réellement la possibilité d'effectuer la mission à temps plein en 100% présentiel proche de Melun (77). Durée : 3 mois renouvelables (Visibilité long terme) Rythme : 5 jours/semaine sur site Opportunité : Ouverture vers un CDI possible en fin de mission, ou même au démarrage en cas d'accord réciproque Le Contexte : Nous recherchons un(e) freelance Consultant(e) AMOA expert sur l'écosystème Microsoft Dynamics 365 (D365) pour accompagner l'évolution de nos systèmes d'information. Vous jouerez un rôle charnière entre les besoins métier (Administration des Ventes, Supply Chain) et les équipes techniques. Vos Responsabilités : En immersion totale avec les équipes opérationnelles, vos missions principales seront : Analyse & Cadrage : Recueillir et challenger les besoins auprès des directions métier. Rédiger les expressions de besoins et les spécifications fonctionnelles détaillées. Pilotage de la Qualité : Concevoir les plans de tests fonctionnels et piloter les phases de recette utilisateur (UAT). Accompagnement au Changement : Former les utilisateurs finaux sur l'outil D365 et produire la documentation support. Suivi Opérationnel : Gérer les tickets et les demandes d'évolution (Change Requests) via vos outils de suivi habituels. Agilité : Évoluer dans un environnement Agile/DevOps pour garantir une livraison fluide et itérative. Profil Recherché : Vous êtes le candidat idéal si : Vous maîtrisez D365 sur le bout des doigts. Vous avez une solide connaissance métier de l' ADV et, idéalement, de la Supply Chain (gestion de stock, plateformes logistiques). Vous êtes un habitué des méthodologies Agiles et des cycles de vie logicielle sous DevOps . Expertise outils : Parfaite maîtrise d' Excel et aisance avec les outils de ticketing. Soft Skills : Pédagogue, doté d'un excellent relationnel et d'une grande capacité d'écoute.
Mission freelance
Data Scientist
emagine Consulting SARL
Publiée le
Apache Spark
Bash
Git
36 mois
Roissy-en-France, Île-de-France
Dans le cadre d’un programme de transformation digitale au sein de l’activité Cargo d’un grand acteur du transport aérien international, nous recherchons un(e) Data Scientist afin d’intervenir sur des problématiques de Pricing et de Revenue Management. L’objectif de la mission est de contribuer à la maximisation des revenus liés au transport de marchandises en développant et en améliorant des outils d’aide à la décision basés sur des modèles de prédiction et d’optimisation. Au sein d’une équipe spécialisée en modélisation avancée, vous serez amené(e) à : Développer et améliorer des modèles de Machine Learning Travailler sur des moteurs de prédiction et d’optimisation Optimiser les stratégies de tarification Challenger et faire évoluer des modèles existants Répondre aux besoins des équipes métier Vulgariser des concepts mathématiques lors de présentations
Offre d'emploi
Data Engineer
NEOLYNK
Publiée le
Google Cloud Platform (GCP)
3 mois
Paris, France
Prestation du data ingénieur En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3117 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois