Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 819 résultats.
Freelance

Mission freelance
Architecte Data Fonctionnel – Spécialiste Data Product

Ipanema Technology
Publiée le
Azure Data Factory

1 an
600-700 €
Île-de-France, France
Au sein d’une direction data en pleine transformation pour un acteur majeur du conseil et de l’audit, vous rejoignez une équipe stratégique dont l'objectif est de passer d'une gestion de la donnée "support" à une vision "Data as a Product" . En tant qu' Architecte Data Fonctionnel , vous êtes le chef d'orchestre de la valeur. Votre mission consiste à concevoir les fondations des premiers produits data de l'organisation. Vous ne vous contentez pas de dessiner des flux ; vous concevez des actifs de données réutilisables, fiables et à forte valeur ajoutée pour les métiers. Vos principales missions : Conception & Stratégie : Définir l'architecture fonctionnelle des Data Products (modélisation, lignage, interopérabilité) en cohérence avec la stratégie globale. Binôme Product : Travailler main dans la main avec les Product Owners (PO) et Product Managers (PM) pour traduire les besoins business en spécifications techniques actionnables. Gouvernance & Qualité : Garantir que chaque produit respecte les standards de qualité, de sécurité et de conformité, tout en facilitant son adoption par les utilisateurs finaux. Acculturation : Porter la vision "Data Product" auprès des équipes techniques et métiers pour favoriser une culture orientée résultat et efficacité.
Freelance

Mission freelance
Data Configurateur

Codezys
Publiée le

12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
CDI

Offre d'emploi
SRE - Site Reliability Engineer Linux / AWS [Full Remote possible]

Recrut Info
Publiée le
Administration linux
AWS Cloud
Linux

42k-53k €
Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable infrastructure, au sein de l’équipe SRE, vous jouerez un rôle clé dans la gestion et l’évolution de notre infrastructure, composée de serveurs bare metal et de ressources cloud. Votre mission sera d’assurer la fiabilité, la performance et la sécurité de nos environnements de production, tout en veillant à leur amélioration continue. Concrètement, vous prendrez en charge l’exploitation quotidienne des serveurs, en garantissant leur disponibilité et leur bon fonctionnement. Vous assurerez une surveillance constante de l’infrastructure afin de détecter tout incident, d’en analyser les causes et d’y apporter des solutions durables. Vous serez également responsable des mises à jour systèmes et applicatives, en veillant à respecter les meilleures pratiques ainsi que les exigences de conformité liées à notre certification. Une part essentielle de votre rôle consistera à automatiser les opérations récurrentes afin de fluidifier les processus internes et d’augmenter l’efficacité globale de l’équipe. Vous collaborerez étroitement avec les équipes de développement et de QA, en leur fournissant les environnements nécessaires ( serveurs, clusters Kubernetes, bases de données) pour garantir un cycle de vie logiciel fiable et performant. Enfin, vous participerez activement à la conception et à la mise en place de nouvelles solutions techniques visant à optimiser l’évolutivité et la sécurité de notre plateforme. Environnement technique : Linux (requis), AWS (souhaité), Docker (requis), Kubernetes (souhaité), Ansible (souhaité), Terraform (souhaité), Python, Bash (requis), MySQL (souhaité), PostgreSQL (souhaité)
Freelance

Mission freelance
DevSecOps Cloud AWS (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
DevOps

2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
Freelance

Mission freelance
Data Analyst Professional

Codezys
Publiée le
Data visualisation
Python
SQL

12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance
CDI

Offre d'emploi
Ingénieur Systèmes Data

VISIAN
Publiée le
Ansible
SQL

1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
Freelance

Mission freelance
Tech Lead Java – management d’une équipe de développeurs et pilotage technique

INSYCO
Publiée le
Ansible
AWS Cloud
Docker

36 mois
500-660 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Tech Lead Java – management d’une équipe de développeurs et pilotage technique . Dans le cadre d’une prestation de transition, vous interviendrez au sein d’un pôle de développement d’une vingtaine de personnes organisé en équipes agiles (Scrum) dans un environnement SAFe. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco.fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/TLM/5075 dans l’objet de votre message Dans le cadre d’une organisation de développement structurée autour d’équipes agiles, la prestation consiste à intervenir en tant que Tech Lead manager de transition afin d’encadrer et structurer un pôle d’environ vingt développeurs. Les équipes sont organisées en Scrum et fonctionnent dans un environnement agile à l’échelle de type SAFe , avec des sprints de trois semaines et des cycles de planification trimestriels. L’activité applicative concerne plusieurs domaines fonctionnels autour d’un système d’information comprenant notamment : un CRM dédié au suivi de la relation avec les clients et à la gestion contractuelle un ERP couvrant des processus de facturation et de comptabilité des applications mobiles utilisées pour des activités opérationnelles de terrain différents outils applicatifs participant aux processus de gestion et d’exploitation du système d’information L’équipe de développement est composée à la fois de collaborateurs internes et de prestataires externes, avec des niveaux de séniorité variés. La prestation couvre notamment les activités suivantes : animer et faire progresser une équipe de développeurs superviser la qualité du code produit par les équipes participer à l’évaluation des développeurs et contribuer aux recrutements techniques valider les conceptions techniques proposées par les équipes piloter les coûts liés aux évolutions techniques encourager et diffuser les bonnes pratiques de développement contribuer à la poursuite et à l’amélioration des pipelines CI/CD participer ponctuellement à certains développements sur les applications du domaine favoriser l’innovation et les démarches d’amélioration continue Le prestataire devra également jouer un rôle structurant dans la diffusion des pratiques techniques, la coordination entre équipes et l’amélioration continue de la qualité logicielle.
Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Freelance
CDI

Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE

SMILE
Publiée le
Data science
IA Générative
RAG

6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Freelance

Mission freelance
Architecte Data Azure / Databricks / Snowflake — Part-time puis Full-time

CONCRETIO SERVICES
Publiée le
Azure
Databricks
Snowflake

3 mois
700-750 €
Puteaux, Île-de-France
Architecte Data Azure senior (10 ans+) recruté en mission de transformation — plateforme Databricks/Snowflake à recadrer architecturalement , équipe interne à coacher, stratégie data à 3 ans à définir. Il challenge diplomatiquement la direction technique actuelle , conçoit l'architecture cible , industrialise les pipelines en Terraform/Azure DevOps, gouverne la plateforme via Unity Catalog, et transfère les compétences sans créer de dépendance. MISSIONS PRINCIPALES Audit & Recadrage Diplomatique de l'Architecture Existante Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels Formuler les recommandations de façon constructive Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée Définition de l'Architecture Cible Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos Produire le DAT complet, défendable en comité de direction Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données Industrialisation des Pipelines & DataOps Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks) Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code Tests automatisés data : qualité, contrats, régression — culture DataOps production réelle Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée Sécurité & Conformité IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli Coaching & Transfert de Compétences Revues de code, revues d'architecture, sessions de formation sur les patterns et standards Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform Stratégie Data à 3 ans Roadmap data : quick wins, transformations structurelles, jalons, dépendances Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
CDI
Freelance

Offre d'emploi
Chef de projet Data

OBJECTWARE
Publiée le
Data analysis
Gestion de projet

2 ans
40k-75k €
400-600 €
Île-de-France, France
Dans le cadre du développement de ses activités Data et de la valorisation des données métiers, notre client souhaite renforcer ses équipes avec un Chef de Projet Data . La mission consiste à piloter des projets de transformation et d’exploitation de la donnée, en lien étroit avec les équipes métiers, Data et IT, afin de produire des indicateurs décisionnels et des outils de visualisation. Pilotage de projets Data Recueillir et analyser les besoins métiers liés à la valorisation de la donnée Piloter les projets Data de la phase de cadrage jusqu’à la mise en production Organiser et animer les ateliers avec les équipes métiers et techniques Suivre l’avancement des projets (planning, risques, dépendances) Analyse et valorisation des données Contribuer à la structuration et à la qualité des données exploitées Participer à la modélisation et à la préparation des datasets Exploiter Dataiku pour l’analyse des données et la production d’indicateurs Datavisualisation et reporting Concevoir des tableaux de bord et indicateurs de performance Mettre en place des visualisations de données permettant le pilotage métier Garantir la cohérence et la fiabilité des indicateurs produits Coordination des équipes Assurer l’interface entre métiers, data analysts, data engineers et IT Suivre les développements et la livraison des solutions Data Participer à l’amélioration continue des processus Data
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
2819 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous