Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 181 résultats.
Freelance
CDI

Offre d'emploi
Data Stewart

Publiée le
Big Data
BigQuery
Cloud

12 mois
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Définition du besoin : Accélération de la transformation digitale avec pour mission de devenir le média numérique de référence pour tous, gratuit, utile et adapté à chacun pour s’informer, se cultiver et se divertir ! La Direction Data est rattachée à la direction du Numérique et met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données afin d’en accélérer son usage. Contribuer à la croissance des offres numériques du groupe via plusieurs plateformes en accompagnant les équipes éditoriales, produit, design et marketing (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension et la prévision des usages ainsi que l’amélioration de l’expérience utilisateurs. Au sein du pôle Data Gouvernance, rattachée au responsable du pôle, la prestation sera affectée au data domaine utilisateurs (caractéristiques socio-démographiques, consentements, abonnements…) et permettra d’être le catalyseur et le facilitateur pour améliorer l’efficience de la mise à disposition de la donnée aux utilisateurs métier. Prestations attendues : Comprendre et mettre en œuvre la stratégie data gouvernance : Gestion de la qualité des données : Recueillir les data quality rules et coordonner leur mise en œuvre Assurer une vision complète des étapes de transformation de la donnée Gérer la mise en œuvre des contrôles qualité Effectuer la mesure des écarts de qualité par rapport aux objectifs fixés Coordonner la remédiation à la qualité des données avec les différents acteurs Participer à la gestion des métadonnées : Animer le remplissage du glossaire métier en collaboration avec les data owners Veiller au respect des règles et politiques établies par les équipes data gouvernance Coordonner la mise en synergie entre dictionnaire de données et glossaire métier Participer à la politique des accès : Contribuer à garantir la sécurité des données en mettant en application la politique des accès aux données Participer à l’application des normes RGPD et jouer le rôle de facilitateur entre les différents interlocuteurs Animer et jouer un rôle moteur dans la mise en œuvre de la stratégie data gouvernance : Communiquer et accompagner : Expliquer et faciliter la compréhension de la politique de gouvernance data en place Créer une synergie collaborative entre les équipes data et les équipes métier Être en support des Data Owners Animer le Data domaine : Lister les données sensibles à mettre sous contrôle S’assurer de la mise aux normes des Data Sets du domaine
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Freelance

Mission freelance
Data Engineer GCP - Rennes

Publiée le
Agile Scrum
Apache Airflow
BigQuery

12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Freelance

Mission freelance
Développeur Python/vuejs

Publiée le
Google Cloud Platform (GCP)
Python
Vue.js

1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Freelance
CDI

Offre d'emploi
Architecte Technique Data

Publiée le
Apache Spark
Architecture
Big Data

2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Freelance

Mission freelance
Data Engineer Talend / GCP

Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend

3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Freelance

Mission freelance
Devops AWS / GCP

Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
370-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Freelance

Mission freelance
Architecte Technique Réseaux Cloud (GCP) – Network Security & Availability

Publiée le
Architecture
Google Cloud Platform (GCP)
IAC

3 ans
160-550 €
Lille, Hauts-de-France
Missions principales Conception & architecture : définir les architectures et standards des environnements réseau (on‑prem et cloud), en cohérence avec l’urbanisme SI et l’existant Produits self‑service & automatisation : concevoir des API et outillages pour automatiser les changements (infra as code, pipelines), afin de délivrer des produits réseau self‑service Run & support N3 : assurer le support de niveau 3 sur des problèmes réseau complexes, contribuer au run et à l’amélioration continue de la disponibilité et de la sécurité Industrialisation & automatisation des opérations récurrentes (scripts, modules Terraform, Python). Gouvernance & référentiels techniques : définir/tenir à jour le référentiel (outils, procédures, normes, sécurité) et standards techniques réseau. Études & préconisations : analyser l’impact des nouvelles solutions, préconiser des choix techniques , organiser la veille et promouvoir les bonnes pratiques d’architecture auprès des équipes
Freelance

Mission freelance
Développeur C++ / Grid Computing & Cloud

Publiée le
Google Cloud Platform (GCP)
Kubernetes
Openshift

3 ans
400-600 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, tr Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, troubleshooting . Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards internes
Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

Publiée le
Azure
Cloud
Infrastructure

24 mois
350-700 €
Paris, France
Télétravail partiel
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance

Mission freelance
Concepteur Développeur

Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

12 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Positionné(e) dans l'équipe RUN / Process Transverses / Tour de Contrôle, il/elle met en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données afin de vérifier la qualité sur l'ensemble des chaînes de valeur monitorées.
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Freelance

Mission freelance
Data Engineer GCP (Rouen)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Publiée le
Big Data
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Google Cloud Platform (GCP)
Gouvernance

1 an
400-550 €
Nord, France
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
2181 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous