L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 301 résultats.
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Offre d'emploi
Consultant Power plateform H/F
Publiée le
Power Apps
Power Platform
SQL
3 ans
Île-de-France, France
Télétravail partiel
- Concevoir et développer des applications PowerApps adaptées aux besoins des utilisateurs. - Mettre en place des flux automatisés avec Power Automate pour améliorer l’efficacité opérationnelle. - Communiquer avec les différents métiers. - Rédiger les différents livrables. - Assurer la formation et l’accompagnement des équipes métiers dans l’utilisation des solutions PowerPlatform. - Administrer et sécuriser l’environnement PowerPlatform (gestion des environnements, gouvernance, conformité). - Participer à la veille technologique et proposer des améliorations continues. - Partager les connaissances avec l’équipe en place Excellente maîtrise des outils PowerPlatform (PowerApps, Power Automate, Dataverse). Connaissance du SQL. Compréhension des architectures Microsoft 365 et Azure, et idéalement celles du Groupe.
Mission freelance
[LFR] DBA post gre SQL, Expérimenté à Paris - 1104
Publiée le
10 mois
450-590 €
Paris, France
Contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, l’entreprise investit de manière importante dans son système d’information, notamment dans son infrastructure qui est considérée comme clé dans la transformation vers le digital et l’agilité nécessaire à son développement. Objet de la prestation La prestation se fera au sein des Database Administrators du département Infrastructure. Les administrateurs de bases de données ont pour principales activités d’assurer l’architecture, le build et le maintien en condition opérationnelle des bases de données. Ils accompagnent les équipes de développement et d’infrastructure dans l’optimisation, la mise à niveau et la résilience des environnements de leur périmètre. Au-delà de son rôle de DBA, il travaille en collaboration avec les autres équipes « Transversal Governance & Production Excellence » sur le build des projets et services et pour le suivi de certains services. Dans le cadre d’un remplacement et d’un contexte cloud first (Azure/AWS), les DBA ont besoin de renfort afin de travailler sur le design des solutions on-premises et cloud. La prestation se fera donc au sein de l’équipe DBA avec une priorité sur l’accompagnement des projets des équipes de développement. Il devra, après une période d’adaptation, participer aux astreintes. Il aura un rôle de contact privilégié avec les équipes basées en Belgique et devra prévoir des déplacements réguliers sur Bruxelles. Responsabilités : · Travailler en environnement de haute disponibilité · Travailler sur des environnements virtuels · Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS · Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. · S’intégrer aux process agiles des équipes de développement de son périmètre. · Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes · Être impliqué dans l'étude concernant l'avenir des actifs infra. · Contribuer à la transformation de l'infrastructure informatique chez l'entreprise, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). · Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Les points clés auquel le candidat doit répondre à minima · Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA · Expérience sur du réseau Azure ? 4 ans · Expérience sur du réseau AWS ? 2 ans · Astreinte 1 semaine/2 ou 3 · Niveau d'anglais B2 minimum obligatoire · Télétravail : tous les lundi et mardi, un vendredi sur 2 · Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate Profil recherché : · Expérience solide en tant que DBA PostgreSQL en environnement de production · Maîtrise des outils d’automatisation (Ansible, Git, scripts Shell ou Python) · Expérience avec PostgreSQL sur Azure (Flexible Server, PaaS, supervision Azure Monitor) · Esprit DevOps, rigueur dans l’automatisation et la documentation · Environnement technique moderne (cloud Azure, infra as code, supervision centralisée), équipe solide et projets à fort impact Les principales activités sont : · Étudier des solutions techniques pour améliorer ou mettre en place des services d'infrastructures · Comparez plusieurs scénarios et faires des recommandations · Rédiger des documentations techniques (documents de conception HLD et LLD) · Contribuer à la construction des solutions d'infrastructure · Conseiller, proposer et valider l'infrastructure à instancier dans les projets métiers · Déployer les infrastructures proposées avec les Delivery Center applicatifs · Transmettre les besoins des Delivery Center Applicatifs aux experts des périmètres concernés Compétences techniques : 1. PostgreSQL : Maîtrise de l’installation, configuration, mise à jour et sécurisation de PostgreSQL Séniorité : Avancé | Obligatoire : Oui 2. PostgreSQL : Optimisation des performances (analyse des plans d’exécution, tuning des requêtes, indexation) Séniorité : Avancé | Obligatoire : Oui 3. PostgreSQL : Sauvegarde et restauration (pg_dump, pg_basebackup, pgbackrest, etc.) Séniorité : Avancé | Obligatoire : Oui 4. PostgreSQL : Gestion des extensions (PostGIS, pg_stat_statements, etc.) Séniorité : Avancé | Obligatoire : Oui 5. Scripting (Bash, Python, PowerShell) pour automatiser les tâches Séniorité : Avancé | Obligatoire : Oui 6. Connaissance des systèmes Linux/Unix (Red Hat, Debian, etc.) Séniorité : Avancé | Obligatoire : Oui 7. Surveillance avec des outils comme Zabbix, Prometheus, Grafana, ou OEM Séniorité : Avancé | Obligatoire : Oui 8. Sécurité des bases de données (gestion des rôles, audit, chiffrement) Séniorité : Avancé | Obligatoire : Oui 9. Expérience avec les environnements cloud (AWS RDS, Azure Database) Séniorité : Avancé | Obligatoire : Oui 10. Azure databases PaaS services Séniorité : Avancé | Obligatoire : Oui 11. AWS databases PaaS services Séniorité : Avancé | Obligatoire : Non 12. Microsoft Certified: Azure Database Administrator Associate Séniorité : Oui | Obligatoire : Oui Type de projet (support / maintenance / implementation /…) : Deploiement d’infra Type de prestation (Client / Hybrid / Remote) : Hybrid (2,5J TT) Les astreintes (HNO, etc.) : oui La possibilité de renouvellement (oui/non) : Oui
Offre d'emploi
Data Engineer Python/DBT
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
DevOps
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Ingénieur DevOps chargé de concevoir, automatiser et optimiser les plateformes techniques de nos clients. Vous travaillerez au cœur des environnements cloud et conteneurisés, en collaboration avec les équipes de développement, d'exploitation et d'architecture. Vous participerez à l’industrialisation des process, l'amélioration de la performance des systèmes, la fiabilité des chaînes CI/CD et la sécurisation des environnements. Votre rôle est clé dans le maintien d’un écosystème stable, scalable et résilient. Vos missions Construire, maintenir et optimiser les pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins…). Gérer et automatiser l’infrastructure cloud (AWS, GCP ou Azure). Déployer, monitorer et opérer des environnements Kubernetes / Docker. Mettre en place des outils d’observabilité (logs, métriques, traces). Automatiser les tâches récurrentes via scripting (Shell, Python…). Mettre en œuvre des pratiques IaC (Terraform, Ansible, CloudFormation…). Améliorer la performance, la sécurité et la résilience des plateformes. Collaborer avec les équipes Dev, QA et Ops pour fluidifier les livraisons. Participer aux rituels Agile et documenter les process techniques.
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Ingénieur Test et Validation Cloud / Data maitrisant Snowflake (H/F)
Publiée le
Snowflake
12 mois
380-420 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflake - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Mission freelance
EXPERT TECHNIQUE CYBER SECURITE & DEVSECOPS GENAI
Publiée le
Azure DevOps
Copilot
Cybersécurité
1 an
400-680 €
Île-de-France, France
Télétravail partiel
Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Sécurité opérationnelle sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML • Maîtrise des outils de DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview • Expertise sur la sécurisation des tenants Azure, souscriptions, RBAC, MFA, Conditional Access, Privileged Identity Management • Expérience terrain sur le design et le déploiement de contrôles de sécurité dans des environnements AI hybrides • Connaissance des risques spécifiques liés aux LLM et aux services GenAI (prompt injection, data leakage, model poisoning) • Références : missions pour des groupes bancaires et industriels sur la sécurisation de plateformes GenAI Microsoft • Compétences complémentaires : scripting (PowerShell, Python), analyse de logs, automatisation de contrôles de sécurité
Offre premium
Offre d'emploi
Data Architecte Databricks - Paris
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Consultant MS BI Power BI h/f
Publiée le
DAX
Microsoft Power BI
Microsoft SSIS
36 mois
Paris, France
Télétravail partiel
Pour notre client, grand compte dans le secteur de l’immobilier, vous rejoindrez l'équipe BI pour prendre en charge l'évolution et la maintenance de la plateforme décisionnelle, avec une forte composante de migration vers les outils Cloud (Azure Data Factory) et de modernisation des outils de reporting (Power BI).. Vos missions sont donc les suivantes : 1. Développement et Intégration de Données (ETL) · Migration active des packages d'intégration de données existants de SSIS (SQL Server Integration Services) vers la plateforme Cloud Azure Data Factory (ADF). · Conception et développement de nouveaux flux d'intégration de données sur la plateforme ADF. · Assurer la maintenance corrective des flux SSIS existants. 2. Reporting et Visualisation (Power BI) · Analyser et comprendre les besoins métiers détaillés afin de proposer les solutions de reporting adéquates. · Réaliser des maquettes et prototypes pour valider l'expérience utilisateur (UX) et la pertinence des futurs rapports. · Migration et/ou ré-écriture des rapports existants développés sous SSRS (SQL Server Reporting Services) vers l'outil Power BI. · Développer de nouveaux rapports et tableaux de bord performants sous Power BI. · Comprendre le modèle sémantique sous-jacent pour l'écriture de requêtes et de mesures complexes en DAX.
Offre d'emploi
Développeur.euse Dynamics 365 Finance
Publiée le
Azure DevOps
CI/CD
Microsoft Dynamics
3 ans
50k-60k €
400-500 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Vous interviendrez sur l’évolution et le paramétrage de la solution Dynamics 365 Finance, en assurant la maintenance et la gestion des évolutions. Vous accompagnerez les équipes métiers dans l’appropriation de l’outil, au cœur d’un environnement structurant et en constante évolution, avec des enjeux forts de fiabilisation, de montée en maturité des processus financiers et de création de valeur métier. Votre rôle Développement et intégration Dynamics 365 Finance Développer des personnalisations et extensions sur Dynamics 365 F&O (X++, .NET, extensions) Implémenter des interfaces (API, web services, intégration avec Power Platform) Collaborer avec les consultants fonctionnels pour garantir la cohérence des solutions Analyse technique et qualité des développements Participer à l’analyse technique des besoins fonctionnels Réaliser les tests unitaires et techniques Documenter les développements et les procédures techniques Maintenance et évolution de la solution Assurer la maintenance corrective et évolutive des développements Suivre les versions et les livraisons dans Azure DevOps ou autres outils similaires Participer à l’amélioration continue des processus de livraison ERP DevOps et industrialisation des déploiements Collaborer avec les équipes techniques sur l’intégration des processus fonctionnels dans les pipelines CI/CD Participer à la définition des environnements de développement, test et production Contribuer à l’automatisation des tests fonctionnels et des déploiements
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Mission freelance
Administrateur systèmes et réseaux H/F
Publiée le
3 mois
350-450 €
Grenoble, Auvergne-Rhône-Alpes
Mission Freelance - Administrateur Systèmes & Réseaux (H/F) Cabinet de recrutement Grafton recherche, pour l'un de ses clients, un Administrateur Systèmes & Réseaux freelance afin d'accompagner ses équipes IT dans le cadre d'une mission stratégique. Contexte de la mission Notre client, acteur reconnu dans son secteur, souhaite renforcer son infrastructure informatique et garantir la disponibilité, la sécurité et la performance de ses systèmes et réseaux. Vos missions Administration et supervision des environnements systèmes (Windows/Linux). Gestion et optimisation des réseaux (LAN/WAN, VPN, firewall). Mise en place et suivi des politiques de sécurité. Support technique de niveau 2/3 auprès des équipes internes. Participation aux projets d'évolution et de migration d'infrastructures. Documentation et amélioration continue des procédures. Compétences recherchées Expertise en administration systèmes Windows et Linux. Solides connaissances en réseaux (Cisco, Fortinet, VPN, routage, switching). Expérience en virtualisation (VMware, Hyper-V) et cloud (Azure, AWS). Maîtrise des outils de supervision et de sauvegarde. Capacité à travailler en autonomie et à proposer des solutions fiables. Informations pratiques Localisation : Grenoble Démarrage : Dès que possible Durée : Reconductible TJM : Selon profil et expérience #LI-ST1
Offre d'emploi
Analyste SOC (F/H)
Publiée le
50k-55k €
Courbevoie, Île-de-France
Dans le cadre de la stratégie de Cyber Défense , un Cyber Security Operations Center global (Global SOC) a été mis en place pour prévenir, détecter et traiter les incidents de sécurité sur les SI traditionnels (Office et Data Center), les SI industriels et les nouveaux usages digitaux. Vous rejoindrez une équipe d'experts dédiée à la détection et gestion des incidents de cybersécurité dans un environnement technique avancé : Splunk, XSOAR, Proofpoint TAP, Zscaler… Technical skills Niveau : Senior / Expert Durée : 3 ans Démarrage : 02/01/2026 Localisation : Courbevoie (Télétravail 2 jours/semaine, astreintes possibles) Compétences clés : SIEM (Splunk Enterprise Security) Développement de règles de détection Tableaux de bord et indicateurs de sécurité Cloud AWS, Microsoft Azure, Office 365 Threat Hunting, EDR, Forensics Vos missions : Détecter et gérer les incidents de sécurité remontés par le SIEM, par mail ou téléphone. Évaluer les risques et cybermenaces, mettre en œuvre les moyens de détection associés. Réaliser des analyses et une veille sur les menaces (Threat Intelligence). Implémenter et améliorer les règles de détection, documenter les playbooks de réponse à incidents. Effectuer des activités de Threat Hunting (O365, Cloud AWS, Microsoft Azure). Utiliser des outils EDR et réaliser des analyses forensics. Communiquer avec les équipes sécurité des entités et assurer l'interface avec les experts. Livrables attendus : Tickets de gestion des incidents Implémentation et documentation des règles de détection Documentation des playbooks de réponse à incident Analyses des menaces et couverture des menaces par les règles de détection
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
301 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois