Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 150 résultats.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
CDI

Offre d'emploi
Chef de projet Data (Expert Power BI)

AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX

Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
CDI
Freelance

Offre d'emploi
Chef de Projet IT Senior

SKYLLIT
Publiée le
Agile Scrum
Comité de pilotage (COPIL)
Gestion de projet

1 an
40k-56k €
100-480 €
Guyancourt, Île-de-France
1. Contexte Dans le cadre de ses projets de transformation et d’évolution de son système d’information, SKYLLIT recherche un Chef de Projet IT Senior , ayant déjà travaillé dans le secteur bancaire, capable de piloter des programmes complexes liés aux infrastructures IT, aux applications métiers et aux enjeux de cybersécurité. La mission s’inscrit dans un environnement technique et organisationnel exigeant, impliquant des équipes pluridisciplinaires et des interactions avec des acteurs internes et externes (équipes métiers, équipes techniques, éditeurs, intégrateurs). 2. Objectifs de la mission Le Chef de Projet aura pour objectif principal de piloter et sécuriser la réalisation de projets stratégiques IT , notamment autour des thématiques suivantes : Transformation et modernisation des infrastructures IT Projets de migration ou de transformation (Datacenter, Cloud, infrastructures) Gestion de l’obsolescence des infrastructures et applications Déploiement d’architectures réseau et sécurité Projets de résilience, de continuité d’activité et de cybersécurité Intégration ou évolution d’applications métiers 3. Missions principales Le consultant interviendra notamment sur les activités suivantes : Pilotage de projet Cadrage des projets et définition du périmètre Élaboration et suivi des plans de charge Gestion du budget, des délais et des ressources Identification et gestion des risques Coordination et gouvernance Animation des comités de pilotage et de suivi Coordination des équipes métiers et techniques Pilotage des partenaires, éditeurs et fournisseurs Reporting auprès des directions et parties prenantes Mise en œuvre des projets Organisation des phases de conception, recette et déploiement Pilotage de POC et phases pilotes Accompagnement des mises en production Gestion de la conduite du changement Suivi opérationnel Mise en place et suivi d’indicateurs (KPI / SLA) Suivi des incidents et des problèmes Optimisation des processus et des organisations 4. Environnement technique Le projet pourra couvrir des environnements tels que : Infrastructures IT : serveurs, stockage, réseau, virtualisation, cloud Sécurité : cybersécurité, chiffrement, DRP / PRA, conformité réglementaire Applications : ERP, CRM, applications web et métiers Technologies : supervision, middleware, bases de données, ordonnancement Projets d’obsolescence et de modernisation des infrastructures
Freelance
CDD

Offre d'emploi
Product Manager IA

Digimatch
Publiée le
Agile Scrum
AI
Data science

12 mois
70k €
600 €
Paris, France
Pour le département Digital, nous recherchons un(e) Product Manager IA compétent(e), motivé(e) et opérationnel(le), afin de piloter le développement de produits digitaux au sein de la division Taste & Wellbeing. Le/la candidat(e) idéal(e) dispose d’un fort sens du produit (discovery, delivery, run), d’une bonne compréhension des enjeux liés à l’IA et à la data science, ainsi que d’une expérience confirmée dans la gestion de produits digitaux au sein d’environnements complexes et orientés consommateurs. Vous travaillerez en étroite collaboration avec des parties prenantes internationales et des équipes transverses, en prenant la responsabilité de l’ensemble du cycle de vie du produit, tout en garantissant une qualité de delivery élevée, l’alignement business et une performance produit mesurable.
Freelance

Mission freelance
Data engineer GCP Google cloud platform 500 e par jour

BI SOLUTIONS
Publiée le
Docker
Google Cloud Platform (GCP)

2 ans
400-500 €
Île-de-France, France
Data engineer GCP Google cloud platform 500 e par jour Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner et des chefs de projets • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Connaissances techniques : • Plateforme et environnement GCP (indispensable) • Environnement GKE • Stockage : HDFS / GCS • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala • Planification : Airflow / Composer • Méthodologies : Scrum, Kanban, Git • DWH : SQL, BigQuery, BigTable • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build 500 e par jour
CDI
Freelance

Offre d'emploi
Prestation de Release Train Engineer

CAT-AMANIA
Publiée le
Agile Scrum

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Gestionnaire de Configuration Data (H/F) pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office, qui définit les grandes orientations stratégiques autour de la donnée, vous interviendrez sur le domaine des Référentiels (Véhiculier, Personne, Immobilier…). Intégré(e) à l’équipe Data OPS (profils intégrateurs et exploitants) rattachée au Services Delivery, vous aurez pour mission de garantir la qualité, la performance et la conformité des solutions Data du domaine. Vos responsabilités Collaboration & gestion des versions Déterminer les versions des composants en coordination avec les équipes de conception et les Release Managers Assurer la cohérence des versions applicatives et techniques Disponibilité & stabilité des environnements Garantir la disponibilité et la stabilité des environnements (DEV, TEST, CI/CD) Sécuriser les mises en production Supervision & diagnostic Documenter les dépendances applicatives pour faciliter la supervision et le diagnostic Contribuer à l’amélioration continue des outils de monitoring Analyse des incidents Réaliser les analyses de causes racines Piloter et suivre les plans de remédiation Gestion des configurations Appliquer et documenter les configurations spécifiques à chaque environnement Mettre en place la traçabilité des changements (versions & configurations) Qualité & gestion des risques Vérifier la complétude des livrables (tests, documentation, conformité) Identifier et anticiper les risques liés aux mises en production Exigences Non Fonctionnelles (ENF) Participer à la définition des ENF : sécurité, performance, scalabilité, disponibilité Garantir leur implémentation en projet et en production Automatisation & maintenance Automatiser les déploiements Maintenir et optimiser les pipelines CI/CD Environnement technique Confluence (Avancé) Jira (Avancé) Kafka (Confirmé) MongoDB (Avancé) Hadoop (Avancé) Oracle (Avancé) Informatica MDM (Confirmé) TIBCO (Confirmé) GitLab CI/CD (Confirmé) OpenShift (Confirmé) DevOps (Confirmé) BMC Control-M (Avancé) Dynatrace (Avancé) EasyVista (Avancé) API (Confirmé) Méthodologie Agile (Confirmé)
Freelance

Mission freelance
Chef de projet finance de marché

JobiStart
Publiée le
Agile Scrum
Analyse financière

2 ans
400-670 €
Île-de-France, France
Tâches principales : Piloter des projets IT complexes en mode Agile (Scrum / SAFe) et Waterfall hybride , de la phase de cadrage jusqu'à la mise en production et le go-live Définir et suivre le plan projet : périmètre, budget, planning, ressources, jalons et livrables Animer les comités de pilotage (Steerco) , les réunions de suivi et les ateliers de conception avec les équipes métiers et techniques Gérer le RAID Log (Risks, Assumptions, Issues, Dependencies) et mettre en place des plans de mitigation adaptés Coordonner les équipes pluridisciplinaires : Développeurs, Architectes Solution, Data Engineers, QA / UAT, DevOps Assurer le suivi budgétaire et la gestion des ressources internes et prestataires externes (TJM, staffing, montée en compétence) Contribuer aux projets de transformation réglementaire (FRTB, EMIR Refit, Bâle IV, DORA) en lien avec les équipes Compliance et Risk Rédiger les Business Requirements Documents (BRD) , les Functional Specifications et les livrables de gouvernance projet Piloter les phases de recette (SIT / UAT) , de gestion du changement ( Change Management ) et de déploiement en production Assurer un reporting régulier auprès des sponsors et du middle management via des tableaux de bord ( PowerBI, Confluence, JIRA )
CDI

Offre d'emploi
Product Owner – Application Mobile Les Inrocks

█ █ █ █ █ █ █
Publiée le
Business
Marketing
Scrum

Paris-l'Hôpital, Bourgogne-Franche-Comté

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS

Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming

1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Freelance
CDI

Offre d'emploi
Pilote de la Feuille de Route Sécurité Data

CAT-AMANIA
Publiée le
Agile Scrum

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Freelance
CDI

Offre d'emploi
Product Owner Data / IA

VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management

1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
PMO Ressources – Sécurité Opérationnelle

Atlas Connect
Publiée le
Agile Scrum
Cybersécurité
Data management

3 ans
400-470 €
Issy-les-Moulineaux, Île-de-France
La DMRSO (Direction Maîtrise des Risques et Sécurité Opérationnelle) intervient sur les missions suivantes : Maîtrise des risques liés au Système d’Information Sécurité opérationnelle assurée par le Centre de Sécurité Opérationnelle (CSO) La mission du Centre de Sécurité Opérationnelle est notamment de : Déployer et configurer les mesures techniques de prévention et de protection Construire et piloter le cockpit sécurité (mise sous surveillance continue des assets) Réaliser le transfert de la sécurité opérationnelle gérée par la Banque vers la BGPN Faire face à un contexte d’augmentation significative des attaques cyber (volume, intensité, complexité) Dans ce cadre, la prestation s’inscrit dans l’animation et la gestion des ressources de la DMRSO . Objectif de la mission Le PMO Ressources contribue au bon fonctionnement des équipes et à la bonne exécution des prestations externes, dans un contexte de suivi des actions d’amélioration continue en mode Agile . Les principaux enjeux sont : Maintenir un suivi rigoureux des entrées et sorties des ressources Mettre en place un suivi des outils et des transferts de connaissance Déployer un reporting de pilotage des ressources sous Excel / Power BI Missions principalesPilotage des ressources Suivi des ressources externes principalement Gestion des entrées et sorties des ressources dans les outils internes Accompagnement des nouveaux arrivants sur : outils espaces collaboratifs documentation processus Suivi administratif et financier Suivi des ressources en interface avec le PMO Finance : TJM dates d’arrivée suivi des prestations Préparation des demandes d’achat Émission des demandes vers la DPT Suivi du cycle de commande de bout en bout Suivi du réceptionné Projection des dépenses et gestion des alertes Contribution au pilotage financier de la DMRSO Reporting et suivi opérationnel Diffusion mensuelle du tableau de suivi des ressources externes : date de début de mission date de fin de mission alertes sur les fins de mission Mise en place et suivi du reporting ressources sous Excel / Power BI Maintien à jour de la documentation de prestation sous Confluence Conduite du changement Accompagnement des équipes dans l’ adoption des nouveaux outils et processus Contribution aux actions de transformation et d’amélioration continue Animation Agile Contribution active à l’animation Agile de la DMRSO : Participation aux PI Planning trimestriels Participation aux instances Agile Prise en compte des OKR Création et gestion des User Stories dans JIRA Suivi du delivery selon la planification Mise à jour régulière des tickets JIRA
CDI

Offre d'emploi
Product Owner Banque Assurance - CDI F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

150 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous