Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 409 résultats.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Consultant SAP Data Migration

CRYSTAL PLACEMENT
Publiée le
SAP

12 mois
Paris, France
Nous recherchons des consultants SAP confirmés / Data Migration Experts pour un projet stratégique de migration S/4HANA . Profil recherché : BA confirmé ou Data Migration Expert Expérience sur projets Core Model ou roll-out SAP Compréhension des processus industriels / manufacturiers (PP / QM / MM / APO) Capacité à structurer méthodologie, templates et règles de migration Forte posture coordination, animation et arbitrage Mission : Pilotage complet de la migration de données : préparation, cycles MOCK / UAT et production Définition et suivi des templates, mapping rules et séquences de chargement Support aux équipes métier et animation de la communauté Data Migration Experts Durée : 1 an minimum Séniorité : 4 à 7 ans d’expérience Intéressé(e) ou à recommander ? Envoyez votre CV directement pour être contacté.
Freelance
CDI

Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen

SMILE
Publiée le
AI
API REST
Méthode Agile

3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Offre premium
Freelance
CDI

Offre d'emploi
Business Analyst IT

Les Filles et les Garçons de la Tech
Publiée le
Business Analyst
Formation
Support utilisateurs

6 mois
36k-38k €
300-350 €
Île-de-France, France
Afin d'accompagner le roll out d'une application FVL dans le monde, notre client souhaite renforcer son équipe d'un profil Business Analyst. La mission consiste à : * Former et prendre en main de la solution (module par module) * Préparer et adapter les supports pour les formation aux utilisateurs * Animer les ateliers de formation sur site ( déplacements en France et à l'international à prévoir ) * Documentation et support niveau 1 et 2 aux utilisateurs * Ticketing des évolutions ou d'anomalies rencontrés s'il y a * Suivre et valider les correctifs et modifications des supports de formation
Freelance

Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data

STHREE SAS pour HUXLEY
Publiée le

6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
CDI
Freelance

Offre d'emploi
Expert Automation / RPA / Data (H/F)

OMICRONE
Publiée le
Automatisation
Data analysis
Python

2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Freelance
CDI

Offre d'emploi
Data Ops Engineer

VISIAN
Publiée le
Ansible
DevOps

1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Freelance
CDI

Offre d'emploi
Consultant Data – Analyst

VISIAN
Publiée le
Microsoft Excel
Microsoft Power BI
MySQL

1 an
40k-45k €
140-440 €
Lille, Hauts-de-France
Descriptif du poste Nous recherchons 1 Consultant Data – Analyst expérimenté pour accélérer la transformation data au sein du département Marketing Client. Il jouera un rôle clé dans l'étude de la connaissance client, et dans la propagation de celle-ci au sein de l'entreprise. Pour ce faire, il devra à la fois être doté d'une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique Produire des tableaux de bord, indicateurs clés et analyses décisionnelles Identifier des opportunités de croissance, d'optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Garantir la qualité, la fiabilité et la cohérence des données utilisées
CDI

Offre d'emploi
Architecte Data (H/F)

CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata

40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Data Engineer INFORMATICA PowerCenter (Scala, Snowflake, PowerShell, DBT, Airflow, GIT, AWS , SQL )

WINSIDE Technology
Publiée le
Informatica PowerCenter
Scala
Snowflake

3 ans
400-570 €
Paris, France
Votre rôle sera de : - Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.) - Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.). - Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs - Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python. - Identifier et résoudre les problèmes de performance ou de qualité des données - Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ; - Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données - Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.) - Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme Compétences et qualités attendues : - Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire - Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges - Vous etes experts dans le développement de solution d'intégration de données. - Vous parlez Anglais couramment - Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous ! - Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
CDI

Offre d'emploi
Business Analyst Data (F/H)

CELAD
Publiée le

42k-45k €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ CDI (42-45 K€) - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Freelance

Mission freelance
Tech Lead Learning Platforms

BLOOMAYS
Publiée le
API
LMS (Learning Management System)
No-Code

12 mois
650-700 €
Courbevoie, Île-de-France
Le consultant interviendra comme référent technique sur l’écosystème LMS et les plateformes associées. Il sera responsable de la conception et du suivi des intégrations entre les plateformes learning et les outils de l’entreprise via API, webhooks, connecteurs et flux de données, ainsi que de la mise en place d’automatisations via des outils d’intégration low-code (type Workato). Il apportera un support technique aux développeurs, participera aux projets de développement spécifiques liés à la formation et collaborera étroitement avec les équipes produit, les architectes IT et la direction formation afin de traduire les besoins métier en solutions techniques cohérentes.
2409 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous