Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 591 résultats.
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Data Privacy COE Expert

Publiée le
Reporting

18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Expert Spécialités technologiques : RGPD,Reporting,Gestion de projet Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences : Méthodes / Normes Adapter Soft skills Rigueur Adaptation Langues Français Anglais MISSIONS Contexte de la mission La mission s’inscrit dans un contexte de renforcement de la conformité réglementaire en matière de protection des données personnelles au sein d’un environnement international complexe. L’objectif est d’assurer l’adaptation, la mise en œuvre et le suivi des politiques de Data Privacy conformément aux législations applicables (RGPD, lois locales et standards internes). Le consultant interviendra en coordination étroite avec les équipes juridiques, IT et de gouvernance afin de garantir la conformité, la sécurité et la cohérence des pratiques de traitement des données à caractère personnel. Le consultant aura pour mission principale de développer, adapter et piloter les politiques de confidentialité et de protection des données, ainsi que d’assurer un rôle d’expertise et de conseil transverse. Principales responsabilités : - Développement et adaptation des politiques internes de confidentialité conformément aux lois et règlements applicables ; - Élaboration et mise à jour des formulaires de consentement, autorisations, notices d’information et supports de communication liés à la protection des données ; - Mise en œuvre et suivi des exigences détaillées nécessaires pour assurer une gestion conforme des traitements spécifiques ; - Formation et accompagnement des équipes métiers sur les enjeux de conformité et de protection des données personnelles ; - Gestion et contrôle du registre de traitement des données (Data Protection Register) ; - Support et validation des projets nécessitant une évaluation d’impact relative à la vie privée (DPIA) et émission d’avis de conformité ; - Interface avec les équipes dédiées à la gestion des demandes d’accès, incidents et violations de données personnelles ; - Rédaction et revue d’accords de confidentialité, d’évaluations d’impact, de clauses contractuelles et de notes de position ; - Analyse et supervision des activités métiers et de la conformité des contrats fournisseurs ; - Participation aux comités de gouvernance liés à la protection des données ; - Suivi permanent de la conformité et reporting vers les instances de gouvernance internes. Expertise souhaitée - Expérience préalable en Data Privacy / Compliance (profil juridique ou IT sécurité) ; - Solide compréhension des cadres réglementaires : RGPD, directives européennes, bonnes pratiques de conformité ; - Maîtrise de la gestion du risque lié à la donnée (registre, DPIA, reporting, audit) ; - Capacité à analyser les traitements et à recommander des actions correctives.
Freelance

Mission freelance
Chef de projet Gouvernance Data et Adoption Décisionnelle (H/F)

Publiée le
Coordination
Gouvernance

1 an
Île-de-France, France
Pour l'un de nos clients Grand Compte : Dans le cadre d’un vaste programme de modernisation de son dispositif décisionnel, le client souhaite renforcer la gouvernance et l’adoption de sa plateforme de Data Warehouse. La mission vise à structurer un cadre de gouvernance unifié garantissant la cohérence et la qualité des évolutions, tout en accompagnant les entités dans la transition vers les nouveaux usages Data. Elle inclut la cartographie des processus, la définition des rôles, la mise en place d’un workflow de suivi et la conduite du changement pour favoriser l’appropriation durable de la plateforme.
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Architecte / Expert MongoDB Atlas sur Azure

Publiée le
.NET CORE
Apache Kafka
Architecture ARM

6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Freelance

Mission freelance
DATA ENGINEER TALEND

Publiée le
Talend

1 an
280-480 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un Data Engineer Talend afin de renforcer notre équipe Data et participer à la conception, au développement et à l’optimisation de nos plateformes d’intégration de données. Missions principales 1. Développement et maintenance des flux de données Concevoir, développer et maintenir des flux ETL sous Talend (Talend Open Studio / Talend Data Integration). Mettre en œuvre des pipelines d’ingestion, de transformation et d'alimentation des systèmes cibles (Data Warehouse, Data Lake, applications métier…). Intégrer des données provenant de sources variées : bases relationnelles, APIs, fichiers, systèmes internes ou externes. 2. Optimisation et performance des jobs Optimiser les traitements existants pour améliorer les performances, la scalabilité et les temps de calcul . Identifier les points de contention et proposer des solutions d’industrialisation. Mettre en place de bonnes pratiques de développement ETL et d’orchestration. 3. Qualité, fiabilité et gouvernance des données Garantir la qualité , la cohérence et la fiabilité des données transportées. Implémenter des contrôles automatiques (data quality, validation, dédoublonnage, gestion des anomalies). Assurer la traçabilité et la documentation des flux en conformité avec les standards Data de l’entreprise. 4. Collaboration et support Travailler étroitement avec les équipes Data, BI, Architecture et les équipes métiers. Participer aux phases de design technique, aux revues de code et aux déploiements. Assurer un support de niveau 2/3 sur les flux en production. Compétences requises Maîtrise de Talend (TOS ou Talend Data Integration). Solides compétences en SQL et en manipulation de bases de données (Oracle, PostgreSQL, SQL Server…). Connaissances en optimisation ETL , gestion des performances et industrialisation. Compréhension des architectures Data : ETL/ELT, Data Warehouse, Data Lake. Connaissance des bonnes pratiques de Data Quality. Capacité d’analyse, rigueur et sens du détail. Compétences appréciées Connaissances des environnements cloud (AWS, GCP, Azure). Notions de scripting (Python, Shell). Expérience sur des outils de supervision et d'orchestration (Airflow, Control-M, Talend TAC).
CDI
Freelance

Offre d'emploi
Expert Data Factory

Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
60k-70k €
400-550 €
Paris, France
Télétravail partiel
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Freelance

Mission freelance
Data Scientist - GenAI

Publiée le
Gitlab

18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE : Experinence : 5 ans et plus Métiers Fonctions : Data Management,Data Scientist, Spécialités technologiques : Big Data,genAI Compétences Technologies et Outils Docker genai Gitlab Fast API Python Git flow genai Méthodes / Normes Agile Langues Anglais MISSIONS Nous sommes actuellement à la recherche d'un Data Scientist. Notre client met en œuvre sa stratégie IA en soutenant différentes initiatives clés. Vous interviendrez sur l'un de ses projets phares. pour soutenir l'analyse des formulations, notamment l'analyse des tendances : Vos missions seront les suivantes : • Mettre en œuvre la révision et la numérisation du portefeuille de traités, en veillant à ce que tous les documents liés aux contrats (traités et polices) soient correctement convertis et gérés. • Mettre en œuvre des jumeaux numériques conformément au modèle de données établi, en garantissant une intégration et une cohérence parfaites des données. • Mettre en place et appliquer des contrôles rigoureux d'assurance qualité et de validation pour la saisie des données afin de maintenir des normes élevées d'intégrité des données. • Élaborer une documentation complète afin de rationaliser et de soutenir l'intégration des données dans les modèles de données analytiques du client Vous interviendrez sur un large scope de contrat. Vous livrerez du code et de la documentation conformément à la définition du travail terminé.
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance

Mission freelance
Consultant Data / Prism Q1-2026

Publiée le
Blue Prism

6 mois
400-610 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026
CDI

Offre d'emploi
Chef de Programme Data

Publiée le
Méthode Agile

40k-58k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un Chef de Programme Data pour piloter deux programmes stratégiques au sein de la tribe IT Data : Programme de transformation des solutions data analytics (stream technologies) – 90 % du temps En support du Stream Leader Technologie, vous cadrez les besoins autour des plateformes data , les transformez en exigences produit , budgétez, planifiez et préparez l’exécution du programme , en assurant la coordination entre les squads plateformes et les Product Owners . Programme de définition du plan stratégique data 2027-2030 – 10 % du temps Vous contribuez à la définition et au suivi des orientations stratégiques data à moyen terme, en lien avec les priorités opérationnelles et technologiques. Dans un cadre Agile , vous travaillez transversalement avec les Product Owners, les squads et les centres d’expertise pour structurer, prioriser et animer le backlog de ces deux programmes, en garantissant leur cohérence et leur succès opérationnel.
Freelance

Mission freelance
PMO i4.0

Publiée le
Big Data
ERP
JIRA

6 mois
100-400 €
Élancourt, Île-de-France
Télétravail partiel
Dans le cadre de ses initiatives Industrie 4.0 , le centre de compétences industriel d’un grand groupe du secteur de la défense et de l’aéronautique cherche à renforcer son équipe maîtrise d’ouvrage avec un PMO expérimenté . Ce renfort vise à accompagner la transformation digitale de l’environnement industriel à travers plusieurs chantiers stratégiques autour de l’ IoT, du MES, de l’intelligence artificielle, de la RPA et des réseaux industriels (RIN) . Le consultant interviendra en appui direct du pilotage des projets, contribuant à la planification, au reporting, au suivi de l’avancement et à la coordination des équipes techniques et métiers. Il jouera également un rôle clé dans la mise en place des bonnes pratiques de gouvernance projet et l’amélioration continue des processus de gestion de la performance industrielle
Freelance

Mission freelance
Data Analyst / BI Analyst

Publiée le
Data analysis
Microsoft Power BI

6 mois
Paris, France
Télétravail partiel
Contexte de la mission: Dans le cadre d’un projet stratégique de transformation data au sein d’un acteur majeur du secteur bancaire, nous recherchons un Data Analyst / BI Analyst capable d’intervenir sur la modélisation, la visualisation et l’analyse des données métier. L’objectif de la mission est d’optimiser la qualité, la fiabilité et la mise à disposition des données analytiques pour les directions métiers (finance, risque, marketing). Responsabilités principales: · Collecter, nettoyer et modéliser les données issues de différentes sources (internes et externes). · Concevoir et maintenir les tableaux de bord décisionnels sur Tableau et Dataiku . · Développer et maintenir les modèles BI afin de répondre aux besoins métiers (finance, risque, opérations). · Identifier les Data Issues et assurer le suivi de leur résolution. · Accompagner les utilisateurs métier dans l’interprétation et l’exploitation des dashboards. Stack technique: · BI & Data Visualisation : Tableau, Power BI (apprécié) · Data Science / Workflow : Dataiku, SQL, Python (optionnel) · Modélisation & Gouvernance : Data Warehouse, DataCube, Data Modeling (dimensionnel, relationnel) · Base de données : Oracle, Snowflake ou équivalent · Environnement Cloud : AWS (S3, Redshift, Glue, Lambda, etc.) Profil recherché: · Minimum 3 ans d’expérience en tant que Data Analyst ou BI Analyst. · Bonne maîtrise des outils de visualisation et de modélisation ( Tableau, Dataiku, SQL ). · Connaissance du secteur Banque / Finance fortement appréciée. · Expérience dans un environnement AWS est un vrai plus. · Capacité à comprendre les enjeux métiers et à vulgariser les insights auprès des décideurs. · Bon niveau de communication et autonomie dans la gestion de projet data. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Freelance

Mission freelance
Directeur de Programme Data / IA

Publiée le
Cloudera
Data analysis
Data governance

12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
CDI

Offre d'emploi
DevOps / Architecte Azure

Publiée le
Azure Data Factory
Azure DevOps Services
Azure Synapse

Paris, France
Télétravail partiel
1. Présentation de Codezys Codezys est une entreprise innovante spécialisée dans la conception et le développement de solutions numériques sur mesure. Notre mission est de soutenir nos partenaires dans leur transformation digitale à travers des architectures cloud performantes, sécurisées et scalables. Dans le cadre de notre croissance, nous lançons un appel à candidature pour le recrutement d’un DevOps / Architecte Azure confirmé (H/F) en CDI . 2. Objet de l’appel à candidature Le présent appel d’offres a pour objet le recrutement d’un ingénieur DevOps expérimenté ayant une solide expertise sur Microsoft Azure , afin de renforcer notre pôle d’ingénierie cloud et d’architecture logicielle. 3. Description du poste Intitulé du poste : DevOps / Architecte Azure Type de contrat : CDI Expérience requise : Minimum 5 ans d’expérience dans un environnement similaire. Lieu de travail : Siège Codezys / Télétravail hybride Prise de poste : Dès que possible 4. Missions principales Concevoir et maintenir des architectures cloud Azure performantes et résilientes. Automatiser le déploiement des infrastructures et applications (IaC) via Terraform , Bicep ou ARM Templates . Gérer les pipelines CI/CD (GitHub Actions, Azure DevOps, Jenkins, etc.). Assurer la supervision , la sécurité , et la haute disponibilité des environnements. Collaborer étroitement avec les équipes de développement pour favoriser une culture DevOps. Participer à la définition des bonnes pratiques en matière de cloud, sécurité et monitoring. Proposer des évolutions d’architecture et des optimisations coûts/performance.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
2591 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous