Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 338 résultats.
Freelance

Mission freelance
Data Custodian

Signe +
Publiée le
Data management

10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
Freelance

Mission freelance
Senior Data Engineer – Plateforme Data Centrale (H/F)

Bifora
Publiée le
AI
Amazon Redshift
Apache Airflow

12 mois
400-550 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data centrale Dalkia , notre client recherche plusieurs consultants Senior Data Engineer pour intervenir sur des projets stratégiques à fort impact business. Vous intégrerez une équipe data centrale au cœur des enjeux de transformation, de modernisation et d’industrialisation des usages data & IA à l’échelle du groupe. Objectifs de la mission Concevoir, développer et maintenir des pipelines data robustes, scalables et industrialisés Participer à l’évolution de la plateforme data centrale (cloud & data warehouse) Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, métiers et IT Contribuer à la mise en place de cas d’usage avancés data & IA
Freelance
CDI

Offre d'emploi
Data Engineer

Codezys
Publiée le
Azure DevOps Services
Python

24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Freelance

Mission freelance
ACHETEUR Domaine Market Data/s

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Démarrage ASAP Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Data Custodian - Data Manager H/F

Insitoo Freelances
Publiée le
Data management

2 ans
400-550 €
Nantes, Pays de la Loire
Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Custodian - Data Manager H/F à Nantes, France. Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources. Les compétences clés pour ce rôle : Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Principales activités du BUILD : Cartographier les données RAW, identifier les sources disponibles et leurs caractéristiques. S’assurer de la bonne documentation des données des sources dans le RAW Data. Participer aux ateliers de conception, garantir la cohérence et la complétude des données. Mettre en place des outils de découvrabilité, catalogues, dictionnaires de données. Préparer la supervision de la chaîne / flux, définir les métriques et alertes pour le suivi en RUN. Principales activités du RUN : Effectuer la supervision technique du RAW. Superviser la chaîne complète en suivant les flux et les indicateurs. Informer les socles des évolutions à venir, suivre les backlogs des sources et analyser l’impact. Être sponsor des évolutions des SI pour améliorer la qualité des données ingérées dans les socles.
Freelance

Mission freelance
Assurance - Data Management

FINAX Consulting
Publiée le
Data management

6 mois
550-700 €
Paris, France
Consultant Senior en Data Management – Gouvernance Data (Assurance) Consultant freelance en Data Management Nous recherchons un consultant Senior en Data Management pour le compte d’un de nos clients assurance dans le cadre d’un projet de renforcement de la gouvernance Data et de montée en compétence des équipes métiers. Contexte Dans un contexte de structuration des pratiques Data et d’accélération de la maturité des Data Domains Managers, la mission vise à constituer un pool d’experts capables d’intervenir à la fois sur les dimensions opérationnelles, méthodologiques et pédagogiques du Data Management, au sein d’un environnement exigeant et régulé. Rôles et responsabilités Contribuer à l’identification, à la structuration et à la valorisation des données clés de l’organisation, en lien avec les équipes métiers et Data. Mettre en place et maintenir une documentation de données fiable et exploitable (dictionnaires, métadonnées, référentiels), alignée avec les standards de gouvernance. Définir et piloter des indicateurs de qualité des données, analyser les écarts et accompagner les actions d’amélioration. Accompagner les Data Domains Managers dans l’appropriation des outils et des pratiques de Data Management, notamment via Collibra. Concevoir et animer des dispositifs de montée en compétence (supports, guides, ateliers) favorisant l’autonomie des équipes et la diffusion des bonnes pratiques. Intervenir en appui sur des initiatives Data structurantes afin de sécuriser les délais, la qualité et la cohérence globale du dispositif de gouvernance. Compétences requises Expertise confirmée en Data Management et Data Governance, acquise dans des environnements complexes et régulés. Maîtrise des outils de catalogage et de gouvernance des données, idéalement Collibra. Solide expérience en qualité des données (définition des règles, suivi des indicateurs, plans d’amélioration). Capacité à produire une documentation claire, structurée et orientée métiers. Forte aisance relationnelle et capacité pédagogique pour accompagner et faire monter en compétence des interlocuteurs non techniques. Autonomie, rigueur et capacité à évoluer dans un contexte assurance. Détails de la mission Démarrage : 16/02/26 Durée : 5.5 mois (jusqu'au 31/07/26) Lieu : Paris Statut : Consultant indépendant / freelance
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Freelance

Mission freelance
Chef de Projet Data / Data Governance

HAYS France
Publiée le
Data governance
Data management

3 ans
100-490 €
Lille, Hauts-de-France
Missions principales Accompagner les équipes produits digitaux dans l’exposition de leurs données , conformément aux règles de gouvernance définies. Déployer et suivre les règles de qualité des données (Data Quality) . Garantir la certification des données publiées . Participer à la modélisation des données exposées. Évaluer le respect des standards de gouvernance par les équipes. Contribuer à l’évolution des règles de gouvernance, data management, data mesh, data product . Collaborer quotidiennement avec les équipes projets, tout en travaillant de manière autonome sur son périmètre. Livrables attendus Données exposées selon les standards de Data Governance du groupe. Règles de Data Quality déployées et opérationnelles. Évaluations documentées du respect des règles de gouvernance.
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Freelance

Mission freelance
Data Engineer - LYON

TEOLIA CONSULTING
Publiée le
BI
Data Lake

12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
Data Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Scala

6 mois
Paris, France
Le rôle du Data Engineer dans ce projet consistera à : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes.
Freelance
CDI

Offre d'emploi
Product Owner Big Data

KLETA
Publiée le
Big Data
Product management

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Freelance
CDI

Offre d'emploi
Data Scientist / ML Engineer – Credit Risk & GenAI

Taimpel
Publiée le
Architecture
Data science
MLOps

2 ans
56k-63k €
550-600 €
Croix, Hauts-de-France
Fiche de poste Data Scientist / ML Engineer – Credit Risk & GenAI Expérience : 5–7 ans Contexte : IA / Risk / MLOps / GenAI Contexte Dans le cadre de sa feuille de route IA, Oney développe des solutions de : Machine Learning NLP IA générative pour optimiser le scoring crédit, les processus opérationnels et l’expérience client . MissionsCredit Risk Scoring Conception et optimisation des modèles de scoring Entraînement, déploiement et monitoring des modèles Suivi de la dérive et stabilité du coût du risque Collaboration avec les équipes Risque et Validation AI Solutions Intégration de modèles ML en temps réel via API Participation à l’architecture technique (Cloud / MLOps) Industrialisation des modèles GenAI Prototypage et mise en production d’agents IA (LLM, RAG) Automatisation de processus métiers (risque, marketing, support) Monitoring et optimisation des performances des agents Compétences techniquesMachine Learning Logistic Regression Tree-based models XGBoost / LightGBM Explainable AI (SHAP, LIME) LLM / modèles génératifs (OpenAI, HuggingFace) Python & MLOps Python, Pandas, Scikit-learn MLflow, FastAPI LangChain / LangGraph CI/CD, pytest Docker, Kubernetes Feature stores Monitoring modèles (drift, performance) Data & Cloud Azure ML Databricks PySpark Git, Bitbucket, Azure DevOps Jira, Confluence Apprécié : Snowflake Contexte bancaire / scoring crédit Profil recherché Data Scientist avec expérience mise en production des modèles À l’aise en ML, MLOps et architecture technique Capacité à travailler avec les équipes métiers (Risque, Paiement, Digital) Intérêt pour l’IA générative et les architectures agentiques
Freelance

Mission freelance
Chef(fe) De Projet Data

Trait d'Union
Publiée le
Big Data

1 an
400-600 €
Île-de-France, France
Au sein de la Direction des Systèmes d’Information, vous intervenez comme Chef(fe) de projet Data rattaché(e) au pôle Architecture et Data. Dans un contexte de transformation des flux de données, impliquant à la fois une évolution méthodologique et un changement de socle technologique, vous pilotez la conception, l’évolution et la mise en œuvre de solutions d’échange de données. Votre rôle consiste à garantir la bonne circulation, la cohérence et la qualité des données entre les différentes applications, qu’elles soient internes ou opérées via un centre de services externe. Vous êtes responsable du cadrage, du pilotage et du suivi opérationnel des projets data, en veillant au respect des délais, des coûts et de la qualité des livrables. Missions : Recueillir, analyser et formaliser les besoins auprès des responsables applicatifs et des parties prenantes. Planifier les différentes étapes des projets data, définir les jalons et assurer le suivi des délais et des livrables. Coordonner l’ensemble des intervenants (équipes internes, partenaires, centre de services externe). Garantir la cohérence et la continuité des flux de données au regard de l’architecture cible du système d’information. Rédiger ou mettre à jour les spécifications fonctionnelles et techniques nécessaires aux développements. Piloter les phases de tests et de recette des livrables. Assurer un reporting régulier sur l’avancement des projets auprès des interlocuteurs concernés.
2338 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous