Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 558 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
BigQuery
Docker
Domain Driven Design (DDD)

1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
CDI
CDD

Offre d'emploi
Chargé de Pilotage SI / PMO Confirmé – Pilotage d’Équipe Delivery -Saint Herblain(H/F)

Publiée le
Git
Java
JIRA

1 an
Saint-Herblain, Pays de la Loire
🎯 Contexte & Mission Dans le cadre d’un projet stratégique, nous recherchons un Chargé de Pilotage SI (PMO) Confirmé capable de piloter une équipe de delivery, coordonner les développements applicatifs et assurer le suivi opérationnel des projets IT. Vous serez le point central entre les équipes techniques, les équipes métiers et l’infrastructure, avec un rôle clé dans la planification, le reporting, le pilotage des charges et la qualité des livrables. 🛠️ Livrables attendus Planning de charge détaillé Board Jira structuré et régulièrement mis à jour 🧠 Compétences techniques recherchées Excel : Confirmé – Important Jira : Confirmé – Souhaitable Environnement outils : Redmine, Sciforma, Excel, PowerPoint Environnement technique : Java, Spring, Hibernate, Maven, ReactJS DevOps : Git, Nexus, Jenkins 📌 Description de la mission1. Pilotage de projet Agir comme interlocuteur principal du chef de projet métier Assurer un reporting régulier et rigoureux Identifier les risques, les dépendances et les interactions Animer les cérémonies Agile (daily, démo, etc.) Être force de proposition pour assurer le respect du planning et la qualité des livrables 2. Pilotage des développements Calculer la capacité de charge de l’équipe de développement Estimer la charge des différentes tâches Suivre le reste à faire et anticiper les dérives 3. Pilotage des chantiers infrastructure (hébergement) Coordonner les actions avec l’équipe Infrastructure Gérer le planning de réalisation et les validations techniques 4. Activités complémentaires Organiser et participer aux audits externes Planifier et suivre les tests de performance Assurer le support et l’assistance jusqu’à la clôture des opérations critiques (dont opérations de vote) 📊 Indicateurs de performance Respect des délais de livraison des versions applicatives Fiabilité et mise à jour des tableaux de bord Qualité des mises en production
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Azure
ETL (Extract-transform-load)
Informatica

1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Freelance

Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration

6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Freelance
CDI

Offre d'emploi
Architecte Fabric Power BI / Data Platform

Publiée le
Azure
Data Lake
microsoft

6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Freelance

Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau

Publiée le
Architecture

6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
CDD

Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)

Publiée le
Java
Node.js
SQL

62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Freelance

Mission freelance
Expert Automatisation / HCM & HPOO (H/F)

Publiée le
Cloud
DevOps

12 mois
400-550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une Expert Automatisation / HCM & HPOO (H/F) Description de la mission: Notre client du secteur bancaire est à la recherche de son futur Ingénieur Cloud DevOps en freelance ! Au sein de l'équipe Natif Data Cloud qui conçoit et opère les outils et services de l’environnement du Natif, vous serez amené à administrer et maintenir en condition opérationnelle les solutions de gestion de l’automatisation des plateformes (Cloud Management Platform) basées sur les outils OpenText HCM et Opération Orchestration (OO). La mission comprend le volet opérationnel de la solution pour lequel une bonne appréciation du sens du service et de l’approche “production” sont primordiales. Description des tâches : - Mise en œuvre opérationnelle et techniques des produits cloud management platform - Participation au Daily meeting animé par le Squad Lead - Gestion des incidents et problèmes, accompagnement et support des utilisateurs de la plateforme - Reporting
Freelance

Mission freelance
Data Engineer Finance et Risque (H/F)

Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Freelance

Mission freelance
développeur Cloud & IA(H/F)

Publiée le
Cloud
IA

6 mois
Guyancourt, Île-de-France
Profil senior disponible en début d’année, le temps plein n’est pas forcément un attendu la charge estimée étant aujourd’hui autour d’un 3/5 sur les 3 premiers mois de l’année. ---------- Développeur senior autour de la Stack IA GEn AI. Responsabilités Clés • Développement Expert & Maintien: o Développer des agents intelligents capables d’agir de manière autonome en utilisant l’approche Agentic AI. Ces agents doivent pouvoir utiliser des outils externes ou interagir avec d’autres agents pour accomplir des tâches complexes. (API externes, des applications basées sur le Model Context Protocol (MCP) ou d’autres services. o Développer des applicatifs permettant la consommation des Agents et algorithmes aux utilisateurs finaux avec de la création de front spécifiques o Mettre en place des pipelines robustes pour l'alimentation des LLMs/Agents avec les solutions Azure, Snowflake et Databricks (RAG, Fine-Tuning). o Assurer un support dans la mise en production, la supervision des modèles/agents et la résolution des problèmes techniques éventuels. Compétences spécifiques (Gen AI, Agentic AI, MCP) • IA générative (Gen AI) : Très bonne compréhension des modèles génératifs (GPT, modèles de diffusion, etc.) et de leurs cas d’usage. Savoir exploiter des LLM (via API ou fine-tuning) pour des tâches de génération de texte, de code ou d’images. Compréhension des limitations/biais des modèles génératifs. • Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud. Compréhension de l’orchestration d’agents, de la gestion du contexte (par ex. partage d’état ou de mémoire entre agents via MCP), et des enjeux de performance/coût dans un système à agents multiples. • Architecture de Solution & POC: o Conception de POCs : Mener l'exploration et la conception d'Architectures de POC autour des usages de la Gen AI et des systèmes Agentiques o Prise de Responsabilités Architecturale : Porter les choix techniques clés pour une validation avec équipe centrale architecture (stack d'agents, orchestration, modèles LLM, intégration Cloud Azure) pour garantir la scalabilité, la sécurité et la performance des solutions futures. o Optimisation Cloud : Conseiller sur les meilleures pratiques d'utilisation des services Azure pour les charges de travail d'IA Générative (coût, performance, résilience). Compétences Requises - Techniques • Maîtrise Cloud Avancée (Azure) : Maîtrise de Microsoft Azure (services cognitifs,Azure AI Foundry, Azure Machine Learning, Azure Functions, etc.) pour déployer des agents et développer des applications cloud natives. Une certification Azure (ou équivalent) serait un atout. • Développement Front Web Utilisateur : Compétence en Javascript, React nécessaire pour créer des font applicatifs d’usages des outils IA créés • Qualité logicielle : Connaissance des bonnes pratiques de développement logiciel (code review, tests unitaires, gestion de version avec Git, méthodologies Agile). • Intégration de systèmes : Compétences en développement d’API REST, MCP, A2A ou de microservices pour consommer et exposer les modèles et agents IA dans des applications. • Expertise en Python et maîtrise des librairies Gen AI (Hugging Face, Transformers, OpenAI API). • Systèmes Agentiques : Maîtrise des frameworks d'agents AI (LangChain, AutoGen) et de l'implémentation du Model Context Protocol (MCP) ou A2A. • Évaluation d'Agents : Compétence dans la mise en œuvre de tests unitaires, fonctionnels et de performance pour les systèmes autonomes. • Ingénierie de Données Moderne et machine learning : Une expérience avec l'écosystème Databricks et/ou Snowflake dans un contexte d'IA (Snowpark, Lakehouse, Vector DBs) sera un plus. Soft skills attendus • Esprit d’équipe et communication : Capacité avérée à travailler en équipe pluridisciplinaire et à communiquer efficacement avec des profils variés (équipes métier, IT, data). • Résolution de problèmes : le candidat doit faire preuve de réflexion analytique pour ajuster les approches, diagnostiquer les bugs des modèles/agents et améliorer en continu les solutions IA. • Curiosité et apprentissage continu :Le domaine de l’IA évolue très vite (nouveaux modèles, nouveaux outils chaque mois) : le candidat doit assurer une veille technologique et monter en compétence rapidement sur de nouveaux sujets. • Adaptabilité : Capacité à adapter les solutions développées suite aux retours des utilisateurs ou à l’évolution des contraintes (par exemple, ajuster un agent en fonction de nouvelles politiques de sécurité ou de nouvelles API disponibles). • Sensibilité à la Gouvernance (Registries, MLOps) et l'Évaluation des systèmes agentiques en production
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
Data Analyst snowflake, DataBricks Power BI SQL

Publiée le
FinOps
Snowflake

6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
558 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous