L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 321 résultats.
Offre d'emploi
Consultant Projets Cybersécurité / RSSI Confirmé
RIDCHA DATA
Publiée le
ISO 27001
Maintien en condition de sécurité (MCS)
Safe
1 an
La Défense, Île-de-France
🎯 Objectif de la mission Accompagner les projets cybersécurité afin de garantir la conformité réglementaire, la sécurité opérationnelle et l’amélioration continue des services numériques de la BU. 📦 Livrables attendus Pilotage et développement des politiques de sécurité du SI Animation et coordination des partenaires internes et externes 🛠 Missions principales1. Pilotage de la sécurité du SI Déployer les politiques, normes et procédures de sécurité de l’information Rédiger la documentation liée au SMSI (conforme ISO 27001) Réaliser les analyses de risques (méthode EBIOS RM) et piloter les plans de remédiation Traduire les risques en contrôles techniques opérationnels Suivre les indicateurs de performance sécurité (KPI, KRI) Préparer les audits internes et contribuer à l’amélioration continue Intégrer les exigences réglementaires (RGPD, NIS2, DORA) Sensibiliser les équipes techniques et métiers 2. Coordination des partenaires Mettre en place les annexes de sécurité partenaires Concevoir les supports d’évaluation sécurité Rédiger documents projets (PAS, PAQ, KPI, questionnaires) Animer des revues techniques régulières avec DSI, DEV, SRE Accompagner les équipes projets dans les réponses sécurité 💻 Compétences techniques requises (Impératives) Analyse de risques & remédiation (EBIOS RM) – Confirmé Méthodologie Agile SAFe – Confirmé Amélioration continue / MCS – Confirmé 🌍 Langues Anglais courant – Impératif
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Data Scientist
VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI
1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Offre d'emploi
Data Engineer Python - Dax
KOMEET TECHNOLOGIES
Publiée le
Databricks
45k-50k €
Occitanie, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Développeur React Native / Data Engineer F/H
SMARTPOINT
Publiée le
Databricks
React Native
Spark Streaming
12 mois
100-450 €
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un profil hybride associant : Une expertise confirmée en développement mobile React Native, et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. Informations complémentaires : - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Compétences techniques : React Native - Expert - Impératif Databricks - Confirmé - Impératif Spark - Confirmé - Impératif SQL - Confirmé - Impératif
Offre d'emploi
Data modeler
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Offre d'emploi
Data engineer Dataiku
ANDEMA
Publiée le
Dataiku
SAS
1 an
45k-60k €
400-550 €
Île-de-France, France
Contexte : Accompagnement d’un projet stratégique de migration SAS vers Dataiku , dans le cadre du décommissionnement de SAS et de la transition vers le cloud. Missions : Piloter la conduite du changement et l’adoption de Dataiku par les équipes métiers et IT. Valoriser Dataiku face à SAS : ateliers, démonstrations et argumentaires orientés valeur métier. Administrer la plateforme : licences, utilisateurs, monitoring, mises à jour. Développer des plugins et automatisations : conversion SAS → Parquet, exports, traitements conditionnels. Définir et diffuser les bonnes pratiques sur stockage, moteurs de calcul et fonctionnalités Dataiku. Coacher les équipes SAS pour une adoption progressive et sereine . localisation : ile de france 2jours de TT/semaine
Offre d'emploi
Senior Cloud Data Engineer
adbi
Publiée le
Apache Airflow
Apache Spark
AWS Cloud
6 mois
45k-60k €
550-600 €
Île-de-France, France
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)
Offre d'emploi
Data Analyst
VISIAN
Publiée le
Data analysis
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de contribution aux évolutions de la solution permettant la production du reporting VDS (Valuation Data Set). À la suite de la réception de nouvelles instructions reçues du SRB (Single Resolution Board) sur le reporting réglementaire VDS (Valuation Data Set), une organisation financière doit revoir le dispositif technique existant permettant de produire le reporting VDS pour refondre cette solution ou l'enrichir selon les analyses qui seront menées. La solution actuelle et la solution cible s'appuient sur les briques techniques Dataiku et Teradata au sein du SRS, datawarehouse du groupe. Dans cette perspective, nous cherchons un profil Data Analyst aguerri pour implémenter cette solution. D'autres sujets, sur des projets / solutions en voie de stabilisation, pourront aussi être lui confiés. La mission a lieu au sein de la squad Reporting Solutions, sur de la Data Préparation (certification Dataiku Advanced Designer + pratique sur une mission précédente obligatoires)
Offre d'emploi
Data Scientist
Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks
3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Offre d'emploi
Data Engineer Azure & Databricks (H/F)
CITECH
Publiée le
Data Lake
Databricks
PySpark
12 mois
80k-90k €
550-650 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Architect Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Mission freelance
Développeur Data/Data Engineer
Mindquest
Publiée le
Azure
Git
Python
1 an
450-600 €
Gosselies, Hainaut, Belgique
Développer des flux d’ingestion de données via Fabric Data Factory (et compréhension d’Azure Data Factory) Développer des flux de transformation via Fabric Notebooks Optimiser les requêtes de transformation , en tenant compte des coûts Azure Contribuer à la modélisation du Lakehouse Concevoir et implémenter l’ architecture médaillon (Silver / Gold) dans Microsoft Fabric Définir, automatiser et exécuter les tests unitaires Participer aux estimations d’effort lors des phases de cadrage Rédiger la documentation technique Contribuer à l’ amélioration continue (guidelines, standards de développement) Participer à la maintenance applicative et à la résolution d’incidents en production
Offre d'emploi
Senior Data Scientist
TO B SERVICES
Publiée le
ClickHouse
Kubernetes
Python
55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
Offre d'emploi
Recetteur
MSI Experts
Publiée le
Business Object
Data quality
Migration
3 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de transformation d’un système de gestion, nous recherchons un(e) Consultant(e) Data / Recette & Qualité des Données pour sécuriser une phase clé de migration. Vous interviendrez sur la validation des données issues d’un nouveau système, avec un objectif central : garantir la fiabilité, la cohérence et l’exploitabilité des données , tout en assurant la continuité des reportings métiers. La mission s’inscrit dans un environnement exigeant, impliquant plusieurs équipes (IT, éditeur, métiers) et des délais structurants, avec des éléments fonctionnels et techniques susceptibles d’évoluer en cours de projet. Objectifs principaux Vérifier l’exhaustivité et la cohérence des données migrées depuis l’ancien système Contrôler la qualité des données produites par la nouvelle solution Sécuriser les usages métiers (pilotage, reporting, analyses) après mise en production Vos missions Stratégie de test & qualité des données Définir une stratégie de recette adaptée au contexte de migration Concevoir des scénarios de test et les jeux de données associés Formaliser des règles de contrôle couvrant : les volumes de données, la cohérence entre sources, la qualité fonctionnelle des données restituées Mise en œuvre et exécution de la recette Mettre en place et automatiser les contrôles de données lorsque cela est pertinent Réaliser les tests de validation (techniques et fonctionnels) Analyser, qualifier et documenter les anomalies détectées Évaluer les impacts et risques métier associés aux écarts constatés Coordination & pilotage Organiser et piloter la phase de recette en lien avec les équipes IT, les métiers et l’éditeur de la solution Assurer un suivi régulier de l’avancement via des indicateurs clairs (KPI) Produire un reporting hebdomadaire incluant alertes, risques et points nécessitant arbitrage Documenter l’ensemble des travaux (plans de test, règles de contrôle, constats, risques)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretien Client final
- Cher FreeWork : possible de vérifier le sérieux des "annonceurs" ? ;-)
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- ARCE ou ARE : Nouvelles règles 2025
- ARE, ACRE, création SARLU, IK et rémunération
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
2321 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois