Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 242 résultats.
CDI

Offre d'emploi
Data Engineer Python/DBT

Publiée le
Databricks

45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Cloud, Network and Datacenter Solution Consultant

Publiée le
Hyper-v
Réseaux
Stockage

3 mois
450-550 €
Puteaux, Île-de-France
Télétravail partiel
Poste : Cloud, Network and Datacenter Solution Consultant Lieu : Puteaux (92) Durée : 3 mois, renouvelable TJM : 550€ Expérience requise : minimum 10 années Démarrage : ASAP Date limite de réponse : 12/12/2025 Langue : Anglais courant + CV en anglais Résumé du rôle Fournir une expertise technique dans la supervision de solutions cloud, datacenter, réseau et infrastructures associées, en assurant conformité réglementaire, sécurité des données et efficacité opérationnelle, tout en favorisant l'innovation évolutive et la fiabilité des services pour soutenir l'entreprise et ses clients. C'est une opportunité de travailler au sein d'une équipe mondiale, en réponse aux besoins locaux, dans un environnement exigeant. Le candidat doit posséder de solides compétences techniques, être organisé, rigoureux et motivé par un environnement stimulant. Principales responsabilités Évaluer l'infrastructure IT existante et recommander des stratégies cloud et datacenter conformes aux réglementations financières (FCA, PRA, GDPR). Concevoir, engineer et déployer des solutions alignées à la stratégie technologique régionale tout en répondant aux besoins métier. Collaborer avec la direction sur la feuille de route et les initiatives stratégiques. Conseiller sur l'optimisation des coûts, la gestion des risques et la résilience des systèmes critiques financiers. Architekter des solutions sécurisées et évolutives sur cloud public (Azure) et datacenters on-premises. Gérer les dépendances, priorités, intégrations et impacts du changement en collaboration avec les équipes techniques. Collaborer avec les équipes d'architecture, cybersécurité et opérations cloud pour équilibrer exigences métier et sécurité. Implémenter des stratégies cloud hybrides pour les charges sensibles et réglementaires. Gérer les migrations d'applications vers le cloud. Créer documentation, guides, procédures, outils et templates pour améliorer l'efficacité et l'adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, chiffrement et gestion des identités pour les données sensibles. Supporter les audits et produire la documentation pour la conformité réglementaire. Surveiller la performance et la disponibilité des systèmes critiques. Optimiser l'infrastructure pour haute disponibilité, récupération après sinistre et continuité des activités. Collaborer avec les équipes de gestion des risques, conformité et sécurité afin d'aligner la technologie avec les standards de gouvernance.
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
développeur Cloud & IA(H/F)

Publiée le
Cloud
IA

6 mois
Guyancourt, Île-de-France
Profil senior disponible en début d’année, le temps plein n’est pas forcément un attendu la charge estimée étant aujourd’hui autour d’un 3/5 sur les 3 premiers mois de l’année. ---------- Développeur senior autour de la Stack IA GEn AI. Responsabilités Clés • Développement Expert & Maintien: o Développer des agents intelligents capables d’agir de manière autonome en utilisant l’approche Agentic AI. Ces agents doivent pouvoir utiliser des outils externes ou interagir avec d’autres agents pour accomplir des tâches complexes. (API externes, des applications basées sur le Model Context Protocol (MCP) ou d’autres services. o Développer des applicatifs permettant la consommation des Agents et algorithmes aux utilisateurs finaux avec de la création de front spécifiques o Mettre en place des pipelines robustes pour l'alimentation des LLMs/Agents avec les solutions Azure, Snowflake et Databricks (RAG, Fine-Tuning). o Assurer un support dans la mise en production, la supervision des modèles/agents et la résolution des problèmes techniques éventuels. Compétences spécifiques (Gen AI, Agentic AI, MCP) • IA générative (Gen AI) : Très bonne compréhension des modèles génératifs (GPT, modèles de diffusion, etc.) et de leurs cas d’usage. Savoir exploiter des LLM (via API ou fine-tuning) pour des tâches de génération de texte, de code ou d’images. Compréhension des limitations/biais des modèles génératifs. • Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud. Compréhension de l’orchestration d’agents, de la gestion du contexte (par ex. partage d’état ou de mémoire entre agents via MCP), et des enjeux de performance/coût dans un système à agents multiples. • Architecture de Solution & POC: o Conception de POCs : Mener l'exploration et la conception d'Architectures de POC autour des usages de la Gen AI et des systèmes Agentiques o Prise de Responsabilités Architecturale : Porter les choix techniques clés pour une validation avec équipe centrale architecture (stack d'agents, orchestration, modèles LLM, intégration Cloud Azure) pour garantir la scalabilité, la sécurité et la performance des solutions futures. o Optimisation Cloud : Conseiller sur les meilleures pratiques d'utilisation des services Azure pour les charges de travail d'IA Générative (coût, performance, résilience). Compétences Requises - Techniques • Maîtrise Cloud Avancée (Azure) : Maîtrise de Microsoft Azure (services cognitifs,Azure AI Foundry, Azure Machine Learning, Azure Functions, etc.) pour déployer des agents et développer des applications cloud natives. Une certification Azure (ou équivalent) serait un atout. • Développement Front Web Utilisateur : Compétence en Javascript, React nécessaire pour créer des font applicatifs d’usages des outils IA créés • Qualité logicielle : Connaissance des bonnes pratiques de développement logiciel (code review, tests unitaires, gestion de version avec Git, méthodologies Agile). • Intégration de systèmes : Compétences en développement d’API REST, MCP, A2A ou de microservices pour consommer et exposer les modèles et agents IA dans des applications. • Expertise en Python et maîtrise des librairies Gen AI (Hugging Face, Transformers, OpenAI API). • Systèmes Agentiques : Maîtrise des frameworks d'agents AI (LangChain, AutoGen) et de l'implémentation du Model Context Protocol (MCP) ou A2A. • Évaluation d'Agents : Compétence dans la mise en œuvre de tests unitaires, fonctionnels et de performance pour les systèmes autonomes. • Ingénierie de Données Moderne et machine learning : Une expérience avec l'écosystème Databricks et/ou Snowflake dans un contexte d'IA (Snowpark, Lakehouse, Vector DBs) sera un plus. Soft skills attendus • Esprit d’équipe et communication : Capacité avérée à travailler en équipe pluridisciplinaire et à communiquer efficacement avec des profils variés (équipes métier, IT, data). • Résolution de problèmes : le candidat doit faire preuve de réflexion analytique pour ajuster les approches, diagnostiquer les bugs des modèles/agents et améliorer en continu les solutions IA. • Curiosité et apprentissage continu :Le domaine de l’IA évolue très vite (nouveaux modèles, nouveaux outils chaque mois) : le candidat doit assurer une veille technologique et monter en compétence rapidement sur de nouveaux sujets. • Adaptabilité : Capacité à adapter les solutions développées suite aux retours des utilisateurs ou à l’évolution des contraintes (par exemple, ajuster un agent en fonction de nouvelles politiques de sécurité ou de nouvelles API disponibles). • Sensibilité à la Gouvernance (Registries, MLOps) et l'Évaluation des systèmes agentiques en production
Freelance

Mission freelance
Urbaniste Data & IA

Publiée le
Databricks
Large Language Model (LLM)
Python

1 an
500-600 €
Île-de-France, France
Télétravail partiel
Pour un client dans le secteur d’activité bancaire qui accélère sa transformation data et IA pour renforcer son offre client, optimiser ses processus et innover dans un secteur en pleine mutation. Au sein du Data Office, nous recherchons un·e Urbaniste Data & IA confirmé·e pour concevoir et piloter l’architecture cible de nos plateformes data, en alignement avec notre stratégie groupe et les enjeux réglementaires (RGPD, IA Act, BCBS 239). Votre rôle sera clé : garantir la cohérence technique et fonctionnelle de nos schémas directeurs data, tout en intégrant les dernières innovations technologiques (cloud, Snowflake, IA générative) et en assurant la confidentialité et la sécurité des données clients. Vous contribuerez directement à la modernisation de notre SI, en lien étroit avec les métiers et les équipes IT. Missions principales 1 - Architecture et urbanisation data - Piloter la roadmap technique des plateformes data (on-premise, cloud, hybride) en collaboration avec les équipes IT et métiers. - Concevoir et déployer des schémas directeurs data pour la transformation de la banque, en intégrant les contraintes de scalabilité, sécurité et conformité (chiffrement, anonymisation, traçabilité). - Optimiser l’utilisation de Snowflake et des solutions cloud (AWS/GCP/Azure) pour des cas d’usage bancaires critiques (personnalisation client, lutte contre la fraude, reporting réglementaire). - Assurer l’interopérabilité entre les systèmes legacy et les nouvelles briques technologiques (APIs, microservices, Data Mesh). 2 - Stratégie Data & IA - Contribuer à la feuille de route IA de la banque : identifier les opportunités d’IA générative (chatbots, analyse prédictive, automatisation des processus) et encadrer leur déploiement de manière éthique et -sécurisée. - Accompagner les métiers dans la définition de cas d’usage data/IA prioritaires (ex : scoring crédit, recommandation produit, détection des anomalies). - Veiller au respect des bonnes pratiques en matière de gouvernance des données, qualité, et confidentialité, en conformité avec les réglementations bancaires. 3 - Collaboration et influence - Fédérer les parties prenantes (DSI, risques, conformité, métiers) autour des enjeux d’urbanisation et de modernisation des plateformes. - Former et sensibiliser les équipes aux enjeux de confidentialité des données et d’usage responsable de l’IA. - Assurer une veille active sur les tendances technologiques (FinOps, MLOps, Data Fabric) et proposer des solutions adaptées au secteur bancaire.
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
Architecte MongoDB / Azure

Publiée le
Azure
Mongodb

3 mois
650-700 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte MongoDB / Azure" pour un client dans le secteur de l'immobilier Description 🎯 Contexte de la mission Le Groupe, acteur majeur de l’immobilier en France, regroupe de nombreuses activités : promotion, construction, gestion de patrimoine, hôtellerie, restauration, foncier d’entreprise et administration de biens. La DSI, structurée autour de pôles spécialisés (sécurité, architecture, production, métiers et projets transverses), pilote l’ensemble des systèmes d’information du groupe. Dans le cadre de la digitalisation réglementaire de la facturation (PDP – Plateformes de Dématérialisation Partenaires) , le groupe doit mettre en place une nouvelle base NoSQL centralisée pour assurer la conformité, la traçabilité et la supervision des flux de facturation multi-métiers. Ce projet, baptisé DIABI , s’appuiera sur MongoDB Atlas sur Azure et s’interfacera avec les PDP satellites via l’ESB Snaplogic . L’objectif est de garantir la robustesse, la sécurité et la performance de cette solution critique, tout en assurant une gouvernance et une exploitation optimales. ⚙️ Rôle et responsabilités En tant qu’ Architecte MongoDB Atlas sur Azure , vous serez en charge de concevoir et piloter la mise en œuvre de l’architecture technique complète de la plateforme NoSQL. Vos principales missions seront : Concevoir l’architecture cible MongoDB Atlas sur Azure : topologie, interconnexion réseau, haute disponibilité, sauvegarde et reprise après incident. Définir le modèle de données et les schémas documentaires adaptés aux formats de facturation (Facture X) et aux contraintes réglementaires. Implémenter la sécurité : chiffrement (at rest / in transit), BYOK / Azure Key Vault, RBAC / AD / IAM, audit et journalisation. Superviser l’intégration des flux avec les pipelines Snaplogic, Kafka ou Azure Data Factory. Mettre en place l’observabilité et le monitoring via Grafana / Azure Monitor (métriques, alerting, dashboards). Optimiser les performances : indexation, sharding, tuning des agrégations et requêtes. Connecter MongoDB à Grafana et Power BI pour la visualisation et la gouvernance des données. Rédiger les livrables techniques (architectures, runbooks, plans de tests, schémas de données, règles de sécurité). Accompagner les équipes internes dans la prise en main et le run de la solution.
Freelance

Mission freelance
Chef de projet technique Data plateforme - Nantes

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
242 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous