Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 813 résultats.
Freelance
CDD

Offre d'emploi
Développeur mobile React Native / Data Engineer H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Full-Stack Engineer - Data Plateform - Aix-en-Provence (H/F)

EASY PARTNER
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js

50k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste Dans le cadre du renforcement d’une équipe Data & Engineering, notre client final recrute un Développeur Full-Stack confirmé en CDI. Le poste s’inscrit dans l’évolution d’une application interne critique de gestion d’actifs. Cette plateforme constitue la source unique de vérité pour la gestion des actifs physiques, supportant directement les processus opérationnels, commerciaux et financiers du groupe. L’environnement est international, multiculturel et fortement orienté data-driven decision making . Missions principales Concevoir, développer et maintenir les fonctionnalités full-stack de l’application métier Optimiser la performance et la scalabilité du back-end (API, cache, base de données) Garantir la qualité, la fiabilité et l’intégrité des données Implémenter des fonctionnalités métier stratégiques (prévisions, transferts, modifications d’actifs, etc.) Développer et maintenir les API permettant l’interconnexion avec les systèmes tiers et plateformes cloud Traduire les besoins métier en spécifications techniques exploitables Améliorer en continu l’expérience utilisateur des outils internes Missions secondaires Participer au maintien en conditions opérationnelles de la plateforme (RUN) Identifier, analyser et corriger les anomalies complexes Gérer et réduire la dette technique Maintenir la stack technologique à jour Participer activement aux code reviews et aux standards qualité Contribuer à la documentation technique Collaborer étroitement avec les équipes métier, data et produit Participer aux cérémonies Agile Stack technique Front / Full-Stack Nuxt.js Vue.js TypeScript JavaScript ES6+ HTML5 / CSS3 / Sass / Less Back / Data Node.js (via Nuxt API) MongoDB Atlas (NoSQL) Redis (cache) Cloud / DevOps Cloud PaaS / IaaS (Clever Cloud, GCP ou équivalent) Git Docker (apprécié)
Freelance
CDI

Offre d'emploi
un(e) Consultant(e) Senior DATA / IA // PO

OMICRONE
Publiée le
BI
Data analysis
IA

2 ans
40k-45k €
400-460 €
Nantes, Pays de la Loire
Nous recrutons un(e) Consultant(e) Senior DATA / IA – Pilotage de projets de bout en bout 📍 Contexte de la mission Dans le cadre du déploiement de notre roadmap DATA / IA, nous renforçons la Direction DATA/IA et recherchons un(e) consultant(e) expérimenté(e) pour piloter des projets de valorisation des données de bout en bout, en lien étroit avec les équipes métiers et IT. 🎯 Votre rôle Vous intervenez comme chef d’orchestre des projets DATA / IA, garant de la valeur métier, des délais, de la qualité des livrables et du respect des budgets. 🧩 Vos responsabilités Piloter des projets DATA / IA de bout en bout au sein de la Direction DATA/IA Assurer la synergie entre équipes métiers et équipes de développement Travailler avec les métiers pour définir la solution cible et la décliner en fonctionnalités Construire, maintenir et prioriser le Product Backlog (user stories) Créer et animer une équipe projet pluridisciplinaire (métiers & IT) Mettre en place et animer les rituels Agile (selon le framework interne) Élaborer et suivre le planning des itérations en lien avec les enjeux de Time to Market Suivre l’exécution, ajuster le backlog selon les contraintes techniques et délais Mettre en place des boucles de feedback utilisateurs à chaque itération Piloter le budget projet, suivre la consommation et ajuster le périmètre si nécessaire Animer les instances de gouvernance : cérémonies agiles, COPIL, interventions CODIR / COMEX si besoin Définir la stratégie de déploiement, l’ouverture du service et la conduite du changement auprès des utilisateurs finaux 🧠 Profil recherché Expérience confirmée en pilotage de projets DATA / BI / IA Forte capacité à travailler à l’interface métiers / IT Maîtrise des méthodes Agile (Scrum, Kanban, SAFe…) Excellentes compétences en communication et en animation d’équipes Solide culture produit, orientée valeur métier À l’aise avec le pilotage budgétaire et la gouvernance projet ⭐ Pourquoi nous rejoindre ? Des projets DATA / IA à fort impact métier Un rôle central et visible au sein de la Direction DATA/IA Un environnement stimulant, collaboratif et orienté innovation
Freelance

Mission freelance
Développeur / data engineer

AVALIANCE
Publiée le
Azure
CI/CD
Microsoft Fabric

2 ans
400-550 €
Belgique
Contexte de la mission Le data developer/engineer recherché rejoindra l’équipe Factory Data utilisant les technologies data Azure : Tâches principales • Développer les flux d’ingestion via Fabric Data Factory (et compréhension de Azure Data Factory) ; • Développer les flux de transformation de données via Fabric Factory Notebook ; • Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; • Contribuer à la modélisation du Lake House ; • Établir le Design technique, implémentation de l’architecture médaillon (argent & or) dans Microsoft Fabric ; • Établir le plan de tests unitaires (automatisables) de la solution ; • Suivre/exécuter les tests unitaires ; • Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; • Rédiger la technique de documentation ; • Contribuer à l’amélioration continue (guidelines de développement) ; • Contribuer à la maintenance & résolution des incidents (production).
Freelance
CDI

Offre d'emploi
Data Base Administrator

HN SERVICES
Publiée le
Oracle
PL/SQL

1 an
28k-50k €
100-450 €
Paris, France
Ses principales activités • Contribuer à la conception de l’infrastructure en charge d’accueillir la BDD en lien avec le Référent IT Solution • Contribuer aux chiffrages des développements BDD à réaliser • Contribuer au maintien du référencement des BDD Hors production et à leur administration • Contribuer à la conception technique (MCD, MPD) de la solution à mettre en œuvre dans le respect des choix techniques en lien avec les autres intervenants du projet • Participer à la réalisation des scripts de création des modèles physiques • Contribuer à la gestion de configuration logicielle des composants de bases de données • Contribuer à l’optimisation/la vérification de l’adéquation des modèles et des requêtes • Intégrer les composants dans une version de mise en production
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

VISIAN
Publiée le
API REST
PySpark

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI

Offre d'emploi
Data Engineer Semarchy XDI - Nantes (F/H)

Argain Consulting Innovation
Publiée le
Informatica
Semarchy
Talend

35k-40k €
Nantes, Pays de la Loire
Attention : cette opportunité n'est pas ouverte aux Freelances Nous recherchons un/e Data Engineer pour renforcer des équipes de Data Factory. Les activités à couvrir : · Compréhension de l’activité et des besoins de vos clients, en dialogue avec la MOA · Compréhension du SI de production, en dialogue avec les équipes MOE · Modélisation du Système d’Information Décisionnel · Conception et réalisation des traitements d’alimentation des datamarts · Diagnostic des dysfonctionnements rencontrés · Maintenances correctives et évolutives · Support auprès des différents métiers · Documentation technique · Suivi des traitements Pas d’activité de reporting (Business Object ou autre outil BI). Uniquement de l’alimentation de datamarts via un ELT Les compétences recherchées : Maitrise d’un ELT du type SEMARCHY XDi ou type Talend / Informatica Connaissance d’une base de données orientée Analytique (ex : HP VERTICA) Appétence à manipuler de gros volumes de données Bonne connaissance du langage SQL Des compétences sur un outil de modélisation (ex : Power Designer) et un outil de qualification (ex : QCHP) seraient un plus
CDI

Offre d'emploi
Data Analyst - CDI Uniquement

AEROW
Publiée le
Grafana
Python
SQL

40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
Freelance

Mission freelance
Développeur Microsoft Dynamics 365 CRM On-Premise – Corbeil (91) + 2 jours télétravail

Freelance.com
Publiée le
.NET
Active Directory
API

1 an
520-700 €
Corbeil-Essonnes, Île-de-France
Nationalité : FR / UE obligatoire (contexte industriel, exigences sécurité) Dans le cadre d’un programme de déploiement Dynamics 365 CRM , le développeur accompagnera l’équipe projet sur les modules Customer Service, Request Management et Sales , ainsi que sur les chantiers d’intégration SI (archivage, signature électronique, échanges partenaires, interfaçages). Sous le pilotage du référent technique, il exécutera les travaux de développement et d’intégration pour enrichir et maintenir l’environnement CRM On-Premise. Rôle et responsabilités Développement & personnalisation Dynamics 365 : Développement de plugins C# / .NET Création de Custom Workflow Activities Développement de Web Resources (JavaScript / HTML / CSS) Utilisation de l’API Web Dynamics 365 Déploiement de solutions via XRM Toolbox Configuration & paramétrage : Gestion d’entités, champs, vues, formulaires et dashboards Business Rules / Workflows (Power Automate si connecté) Gestion des rôles et sécurité Intégration & données : Interfaces SI via API ou middleware (MuleSoft, Talend) Import/export de données (Data Import Wizard / Data Management) Scripts / flux SSIS / KingswaySoft si nécessaire Qualité, tests et documentation : Tests unitaires et fonctionnels Documentation technique Participation à la démarche DevOps (GitHub, CI/CD) Revues techniques et code avec le référent
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance

Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes

Almatek
Publiée le
JIRA

6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Delivery Master

CAT-AMANIA
Publiée le
Microsoft Excel

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

1813 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous