L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 841 résultats.
Offre d'emploi
Lead BA sur Niort
AIS
Publiée le
Big Data
Business Analyst
3 ans
40k-45k €
400-470 €
Niort, Nouvelle-Aquitaine
Le LBA interviendra sur un périmètre transverse incluant notamment : -Catalogue produit -Souscription & gestion de contrats -Gestion du compte sociétaire -Référentiels B2B -Processus transverses et trajectoire de convergence Stratégie • S’approprier la stratégie de l’entreprise, accompagner sa déclinaison en enjeux métier et fonctionnels. • Influer ou confirmer la trajectoire SI au regard des enjeux Métiers et SI. • Challenger les visions fonctionnelles du SI, les processus et les outillages associés Études • Porter ou contribuer à des études à fort enjeu fonctionnel avec les différentes parties prenantes (métiers, architecte, BA…). • Porter l’architecture fonctionnelle du SI, assurer la maîtrise, la cohérence et la modélisation d’un ou plusieurs domaines fonctionnels SI (Fonctions, Datas, API, trajectoire) et contribuer à l’architecture applicative. • Piloter la qualité et le bon usage des fonctions délivrées et des Datas tout au long du cycle de vie des produits et s’assurer de la conformité juridique, de la confidentialité, de la sécurité et de l’accessibilité des données. Communication Métiers • Apporter une valeur ajoutée aux Directions Métiers par une proximité durable et la prise en compte des besoins des utilisateurs finaux • Anticiper, identifier, s’approprier et consolider les enjeux Métiers ayant un impact sur le SI par une vision transverse. Veille • Grace à une veille active, éclairer les ambitions et le champ du possible • Porter des actions de veille sur la profession et sur les visions SI Changement/acculturation • Promouvoir le plein usage de la Data (data au cœur). • Accompagner les Squads dans la mise en œuvre des solutions en apportant une vision transverse à moyen terme des enjeux et en s’assurant du bon respect du cadre de cohérence fonctionnelle • S'informer sur l’usage des outils et apporter ponctuellement un soutien à l’accompagnement au changement • Animer des séquences de partage et d’acculturation auprès de parties prenantes
Offre premium
Offre d'emploi
Directeur de Programme IT / Data (H/F)
ALTEN
Publiée le
Data Strategy
Gestion de projet
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique de migration des plateformes data et BI, ce poste joue un rôle central. Il implique une collaboration étroite avec des équipes techniques et métiers, et s’inscrit dans une dynamique de transformation du SI, avec des enjeux forts en gouvernance et coordination. Intervenir sur le pilotage transverse d’un programme de migration de plateforme data , en assurant la coordination des équipes techniques et métiers Contribuer à l’animation de la gouvernance du programme (comités de pilotage, comités techniques, suivi des décisions et arbitrages) Coordonner les différentes squads techniques et gérer les interdépendances entre les chantiers Intervenir dans la gestion de la relation avec les métiers , en animant les ateliers d’expression des besoins et en accompagnant la transformation des usages Contribuer à la gestion du changement et à la communication auprès des utilisateurs finaux Piloter le suivi budgétaire du programme (OPEX / CAPEX), l’allocation des ressources et les arbitrages nécessaires Contribuer à l’identification et au suivi des risques projet , ainsi qu’à la mise en place de plans de mitigation Garantir la qualité des livrables et le suivi des migrations de flux de données et de restitutions BI Piloter la stratégie de décommissionnement des usages obsolètes et la rationalisation des infrastructures Contribuer à la documentation, capitalisation et préparation des instances de gouvernance du programme
Mission freelance
Data Scientist orienté Marketing- H/F
Wekey
Publiée le
Data science
6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Mission freelance
FREELANCE – Data Manager (H/F)
Jane Hope
Publiée le
Data Strategy
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06) est à la recherche d’un Data Manager (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Traduire les besoins métiers mis en lumière par le business analyst en besoins techniques notamment en termes de requêtes SQL et de tableaux de bord à mettre en place · Être l’interface technique auprès du client : accompagner les clients ayant des lacunes en requêtes SQL et leur proposer des solutions · Occuper un rôle de data manager mentor pour transmettre l’information et accompagner les équipes · Echanger avec différents interlocuteurs, aussi bien techniques que métiers · Animer des ateliers pour présenter les modèles et faire monter en compétences l’ensemble des clients
Offre d'emploi
Data Migration Expert (H/F)
HELPLINE
Publiée le
Data cleaning
Migration
1 an
40k-65k €
510-620 €
Île-de-France, France
Contexte : Nous recherchons pour notre client un Data Migration Expert (H/F), afin de piloter et structurer les activités de migration de données dans le cadre d’un programme de transformation. Le Data Migration Expert gère les activités de migration de données depuis la phase de préparation jusqu’à l’exécution. Il accompagne les équipes locales dans la mise en œuvre des activités allant de la définition de l’approche de migration jusqu’à la validation métier des données. Missions principales Définir et porter la méthodologie Définir la stratégie de data cleansing , les KPIs associés et assurer leur suivi Garantir la cohérence des pratiques entre les régions et contribuer à l’amélioration continue Définir et maintenir les templates et outils de migration : MAD (Migration Approach Definition) Règles de mapping Séquence des tâches DTM Outils de validation et de chargement Rapports et dashboards de qualité de données (NEO) Bibliothèque de connaissances (NEO Fit, FAQ, etc.) Arbitrer les écarts à la méthodologie et gérer les impacts des Deviation Requests Former et animer la communauté des Data Migration Experts sur son périmètre
Offre d'emploi
Data Scientist Confirmé (H/F)
Clostera
Publiée le
Data science
Île-de-France, France
Rejoignez-nous ! Aujourd’hui, nous recherchons un(e) Data Scientist Confirmé pour intervenir sur un projet clé de transformation analytique dans le secteur de la distribution. Ce que vous ferez : Modélisation et analyse Concevoir et développer des modèles de Machine Learning permettant de prédire l’appétence client aux offres promotionnelles. Explorer, transformer et enrichir de nouveaux jeux de données afin de les rendre exploitables pour les analyses et les modèles. Test & Learn Concevoir et analyser des protocoles d’A/B Testing afin d’évaluer l’efficacité des campagnes marketing. Mesurer l’impact réel des dispositifs promotionnels sur les comportements clients. Industrialisation & MLOps Participer à la mise en production des modèles et au monitoring de leur performance (dérive des données, qualité des scores). Contribuer à l’industrialisation des pipelines de traitement de données et des workflows analytiques. Data Engineering & Cloud Développer des traitements et automatisations en Python pour la manipulation et l’industrialisation des données. Concevoir et optimiser des requêtes et datasets via SQL / BigQuery . Déployer des solutions data sur une plateforme Cloud (GCP) . Conteneuriser les applications avec Docker pour garantir leur portabilité. Orchestrer des workloads avec Kubernetes . Planifier et superviser les pipelines data via Airflow / Cloud Composer . Gérer le versioning et la collaboration via Git . Votre positionnement vous permettra de travailler sur des projets innovants, d’interagir avec des équipes multidisciplinaires et d’exploiter votre expertise pour apporter une réelle valeur ajoutée. Environnement technique Langages : Python, SQL Cloud : Google Cloud Platform (GCP) Data : BigQuery Orchestration : Airflow (Cloud Composer) Conteneurisation : Docker Orchestration de conteneurs : Kubernetes Versioning : Git Méthodologie projet : Agile (Scrum, Sprint Planning, Backlog)
Mission freelance
Directeur de projet Data (H/F)
Freelance.com
Publiée le
Big Data
Data Lake
ERP
12 mois
400-820 €
Malakoff, Île-de-France
Nous recherchons un Spécialiste Intégration & Data Senior / Directeur de projet SI afin de piloter des sujets d’intégration complexes au sein d’un système d’information hybride et transverse. La mission consiste à sécuriser l’intégration des solutions SI et leur passage du Build vers le Run , en garantissant leur exploitabilité par les équipes de production. Le consultant interviendra principalement sur : des sujets Data (environ 70%) des périmètres Corporate / ERP (environ 30%) Dans ce cadre, il devra : Piloter les activités d’intégration SI et coordonner les acteurs techniques et fonctionnels. Garantir la préparation des mises en production et l’exploitabilité des solutions livrées. Assurer la transition Build to Run et l’alignement avec les équipes d’exploitation. Faire le lien entre les différentes équipes Études, Infrastructure, Data, Production et Métiers . Organiser et anticiper la mobilisation des équipes techniques nécessaires aux déploiements . Identifier les risques d’intégration et sécuriser les flux et dépendances entre systèmes . Animer la coordination transverse dans un environnement sans management hiérarchique direct. Le rôle nécessite une forte capacité à naviguer dans un environnement organisationnel complexe , à fédérer plusieurs équipes et à sécuriser les projets d’intégration.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Test Data Manager Senior/Expert (H/F)
HELPLINE
Publiée le
Data management
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans le cadre de la migration d’un système central de réservation, une fonction transverse de gestion des données de test : Test Data Manager (H/F) est mise en place pour organiser et structurer les jeux de données de test, et assurer la fiabilité et la sécurité des campagnes de tests end-to-end et métiers. Missions principales Pilotage TDM : Définir la stratégie de gestion des données de test, organiser et prioriser les demandes, suivre la qualité et la disponibilité, garantir un service fiable pour les équipes et les campagnes. Catalogue et gouvernance : Maintenir un catalogue centralisé, définir les règles d’usage et de versioning, assurer traçabilité, qualité et sécurité des données. Support aux équipes et E2E : Recueillir les besoins des équipes, coordonner la configuration des données, supporter les campagnes de test et sécuriser les parcours critiques. Gestion des prestataires : Piloter les partenaires, définir le cadre opérationnel, suivre performance et qualité, coordonner activités internes et externes. Industrialisation et amélioration continue : Identifier et mettre en œuvre des leviers d’automatisation et d’outillage, réduire les délais, optimiser les processus TDM. Onboarding, documentation et communication : Définir et diffuser les processus, accompagner l’intégration des équipes, produire la documentation de référence et assurer le reporting régulier.
Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes
FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management
1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Mission freelance
Data Custodian
MLMCONSEIL
Publiée le
Data governance
6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Offre d'emploi
Product Owner / Data Steward
OCTOGONE
Publiée le
Data governance
Data modelling
IA
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Offre d'emploi
DevOps & SRE Engineer (H/F)
RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud
1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5841 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois