Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 321 résultats.
CDI
CDD

Offre d'emploi
Consultant Projets Cybersécurité / RSSI Confirmé

RIDCHA DATA
Publiée le
ISO 27001
Maintien en condition de sécurité (MCS)
Safe

1 an
La Défense, Île-de-France
🎯 Objectif de la mission Accompagner les projets cybersécurité afin de garantir la conformité réglementaire, la sécurité opérationnelle et l’amélioration continue des services numériques de la BU. 📦 Livrables attendus Pilotage et développement des politiques de sécurité du SI Animation et coordination des partenaires internes et externes 🛠 Missions principales1. Pilotage de la sécurité du SI Déployer les politiques, normes et procédures de sécurité de l’information Rédiger la documentation liée au SMSI (conforme ISO 27001) Réaliser les analyses de risques (méthode EBIOS RM) et piloter les plans de remédiation Traduire les risques en contrôles techniques opérationnels Suivre les indicateurs de performance sécurité (KPI, KRI) Préparer les audits internes et contribuer à l’amélioration continue Intégrer les exigences réglementaires (RGPD, NIS2, DORA) Sensibiliser les équipes techniques et métiers 2. Coordination des partenaires Mettre en place les annexes de sécurité partenaires Concevoir les supports d’évaluation sécurité Rédiger documents projets (PAS, PAQ, KPI, questionnaires) Animer des revues techniques régulières avec DSI, DEV, SRE Accompagner les équipes projets dans les réponses sécurité 💻 Compétences techniques requises (Impératives) Analyse de risques & remédiation (EBIOS RM) – Confirmé Méthodologie Agile SAFe – Confirmé Amélioration continue / MCS – Confirmé 🌍 Langues Anglais courant – Impératif
Freelance
CDI

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
CDI

Offre d'emploi
Data Engineer Python - Dax

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-50k €
Occitanie, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Développeur React Native / Data Engineer F/H

SMARTPOINT
Publiée le
Databricks
React Native
Spark Streaming

12 mois
100-450 €
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un profil hybride associant : Une expertise confirmée en développement mobile React Native, et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. Informations complémentaires : - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Compétences techniques : React Native - Expert - Impératif Databricks - Confirmé - Impératif Spark - Confirmé - Impératif SQL - Confirmé - Impératif
Freelance
CDI
CDD

Offre d'emploi
Data modeler

IT CONSULTANTS
Publiée le
Méthode Agile

12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Freelance
CDI

Offre d'emploi
Data engineer Dataiku

ANDEMA
Publiée le
Dataiku
SAS

1 an
45k-60k €
400-550 €
Île-de-France, France
Contexte : Accompagnement d’un projet stratégique de migration SAS vers Dataiku , dans le cadre du décommissionnement de SAS et de la transition vers le cloud. Missions : Piloter la conduite du changement et l’adoption de Dataiku par les équipes métiers et IT. Valoriser Dataiku face à SAS : ateliers, démonstrations et argumentaires orientés valeur métier. Administrer la plateforme : licences, utilisateurs, monitoring, mises à jour. Développer des plugins et automatisations : conversion SAS → Parquet, exports, traitements conditionnels. Définir et diffuser les bonnes pratiques sur stockage, moteurs de calcul et fonctionnalités Dataiku. Coacher les équipes SAS pour une adoption progressive et sereine . localisation : ile de france 2jours de TT/semaine
CDI
Freelance

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

6 mois
45k-60k €
550-600 €
Île-de-France, France
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)
Freelance
CDI

Offre d'emploi
Data Analyst

VISIAN
Publiée le
Data analysis
Dataiku

1 an
40k-45k €
400-560 €
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de contribution aux évolutions de la solution permettant la production du reporting VDS (Valuation Data Set). À la suite de la réception de nouvelles instructions reçues du SRB (Single Resolution Board) sur le reporting réglementaire VDS (Valuation Data Set), une organisation financière doit revoir le dispositif technique existant permettant de produire le reporting VDS pour refondre cette solution ou l'enrichir selon les analyses qui seront menées. La solution actuelle et la solution cible s'appuient sur les briques techniques Dataiku et Teradata au sein du SRS, datawarehouse du groupe. Dans cette perspective, nous cherchons un profil Data Analyst aguerri pour implémenter cette solution. D'autres sujets, sur des projets / solutions en voie de stabilisation, pourront aussi être lui confiés. La mission a lieu au sein de la squad Reporting Solutions, sur de la Data Préparation (certification Dataiku Advanced Designer + pratique sur une mission précédente obligatoires)
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Freelance
CDI

Offre d'emploi
Data Engineer Azure & Databricks (H/F)

CITECH
Publiée le
Data Lake
Databricks
PySpark

12 mois
80k-90k €
550-650 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Architect Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Freelance

Mission freelance
Développeur Data/Data Engineer

Mindquest
Publiée le
Azure
Git
Python

1 an
450-600 €
Gosselies, Hainaut, Belgique
Développer des flux d’ingestion de données via Fabric Data Factory (et compréhension d’Azure Data Factory) Développer des flux de transformation via Fabric Notebooks Optimiser les requêtes de transformation , en tenant compte des coûts Azure Contribuer à la modélisation du Lakehouse Concevoir et implémenter l’ architecture médaillon (Silver / Gold) dans Microsoft Fabric Définir, automatiser et exécuter les tests unitaires Participer aux estimations d’effort lors des phases de cadrage Rédiger la documentation technique Contribuer à l’ amélioration continue (guidelines, standards de développement) Participer à la maintenance applicative et à la résolution d’incidents en production
CDI

Offre d'emploi
Senior Data Scientist

TO B SERVICES
Publiée le
ClickHouse
Kubernetes
Python

55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
Freelance
CDI

Offre d'emploi
Recetteur

MSI Experts
Publiée le
Business Object
Data quality
Migration

3 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de transformation d’un système de gestion, nous recherchons un(e) Consultant(e) Data / Recette & Qualité des Données pour sécuriser une phase clé de migration. Vous interviendrez sur la validation des données issues d’un nouveau système, avec un objectif central : garantir la fiabilité, la cohérence et l’exploitabilité des données , tout en assurant la continuité des reportings métiers. La mission s’inscrit dans un environnement exigeant, impliquant plusieurs équipes (IT, éditeur, métiers) et des délais structurants, avec des éléments fonctionnels et techniques susceptibles d’évoluer en cours de projet. Objectifs principaux Vérifier l’exhaustivité et la cohérence des données migrées depuis l’ancien système Contrôler la qualité des données produites par la nouvelle solution Sécuriser les usages métiers (pilotage, reporting, analyses) après mise en production Vos missions Stratégie de test & qualité des données Définir une stratégie de recette adaptée au contexte de migration Concevoir des scénarios de test et les jeux de données associés Formaliser des règles de contrôle couvrant : les volumes de données, la cohérence entre sources, la qualité fonctionnelle des données restituées Mise en œuvre et exécution de la recette Mettre en place et automatiser les contrôles de données lorsque cela est pertinent Réaliser les tests de validation (techniques et fonctionnels) Analyser, qualifier et documenter les anomalies détectées Évaluer les impacts et risques métier associés aux écarts constatés Coordination & pilotage Organiser et piloter la phase de recette en lien avec les équipes IT, les métiers et l’éditeur de la solution Assurer un suivi régulier de l’avancement via des indicateurs clairs (KPI) Produire un reporting hebdomadaire incluant alertes, risques et points nécessitant arbitrage Documenter l’ensemble des travaux (plans de test, règles de contrôle, constats, risques)
2321 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous