L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 185 résultats.
Mission freelance
Data engineering GCP
Publiée le
Gitlab
18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Mission freelance
Chef de Projet Data & BI (H/F)
Publiée le
BI
Big Data
SQL
1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Offre d'emploi
Data Product Manager
Publiée le
Data management
1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Offre d'emploi
Chef de Projet Technico-Fonctionnel ou Product Lead,
Publiée le
Agile Scrum
API REST
Confluence
3 ans
40k-55k €
400-420 €
Île-de-France, France
Télétravail partiel
Piloter la roadmap globale du programme IS/IT en garantissant la cohérence des évolutions, la bonne priorisation des sujets et l’alignement des équipes métiers et techniques. Vous serez le référent de la vision produit et le garant du rythme d’avancement. • Mettre en place, suivre et optimiser les interfaces entre les systèmes en vous appuyant sur les API REST et les outils tels que Postman ou Bruno. Vous accompagnez les équipes dans la conception, la validation et la qualité des flux d’échanges de données. • Faciliter le travail des équipes projet en assurant la coordination transverse, l’animation des rituels, la bonne tenue des comités de pilotage et le respect des jalons. Vous jouez un rôle de facilitateur pour fluidifier la collaboration et lever les blocages. • Contribuer à la stratégie de tests end-to-end , en participant à la définition, la préparation et la validation des scénarios de tests entre les systèmes du groupe, l’ERP et les autres applications. Vous veillez à la qualité fonctionnelle et technique de bout en bout. • Assurer une documentation claire, structurée et centralisée sur Jira et Confluence : roadmap, flux, décisions, spécifications, comptes rendus… Vous garantissez la traçabilité et la qualité du patrimoine projet. • Accompagner la conduite du changement , notamment via la communication, la préparation de supports, les sessions de formation et l'adoption des nouveaux processus métiers. Vous aidez les équipes à s’approprier les nouveaux outils et méthodes. • Identifier en continu les risques, dépendances et axes d’amélioration , en proposant des solutions concrètes pour optimiser l’organisation, sécuriser les jalons et renforcer l’efficacité opérationnelle des équipes.
Mission freelance
Architecte réseaux
Publiée le
Ansible
Architecture
Azure
1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées. Vous possédez déjà une expérience concluante à un poste similaire. Vous êtes en mesure d’interagir avec des équipes hétérogènes & vous avez une vision 360° du système d'information. Vous disposez d'une expertise confirmée et d'un leadership qui permet de fédérer les équipes qui collaborent avec vous sur les programmes. Environnement International / Cloud Hybride: Cloud Privé, Azure, OVH/vmware, GCP, OCI / Wan International Environnement techniques Sécurité: Fortinet, Palo Alto Netskope LAN Cisco, Meraki, Huawei SDWAN WAN: Cisco ASR, Huawei, BGP Cloud: Azure, GCP, OCI Cloud Privé: Ovh (Vmware) Datacenter: Huawei DCS IaC: Terraform, Ansible
Offre d'emploi
Ingénieur DEVOPS
Publiée le
Ansible
AWS Cloud
Azure
40k-45k €
Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Offre d'emploi
Architecte GCP
Publiée le
Azure
Datadog
DevSecOps
6 mois
Paris, France
Télétravail partiel
L’ Architecte GCP rejoindra le client au sein de l’équipe Engineering Platform , pour concevoir, automatiser et gouverner les environnements cloud GCP (et partiellement Azure ). Il aura un rôle clé dans la mise en place des landing zones , la définition des standards d’ingénierie , la gouvernance technique cloud et la sécurisation de la plateforme. Ses missions incluent la création de golden paths (templates, pipelines CI/CD, observabilité, sécurité), la standardisation de l’observabilité via Datadog et OpenTelemetry , l’intégration des outils GitHub Actions , SonarCloud et Datadog , et l’accompagnement des équipes de développement dans une démarche DevOps/Cloud Native . Ce poste stratégique requiert une excellente maîtrise de GCP , une approche DevSecOps , des compétences en Terraform , et un leadership technique affirmé dans un contexte de forte industrialisation et de gouvernance cloud à grande échelle .
Mission freelance
Data / AI Engineer
Publiée le
Databricks
Git
Python
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Offre d'emploi
Support GCP – RUN N1/N2 (H/F)
Publiée le
Google Cloud Platform (GCP)
IAM
VPC (Virtual Private Cloud)
6 mois
65k-70k €
400-430 €
Toulouse, Occitanie
Télétravail partiel
VOS MISSIONS : Assister l’équipe indienne sur les tickets RUN N1/N2 (firewall, IAM, networking, policies…). Répondre aux questions techniques en anglais (échanges quotidiens). Diagnostiquer et résoudre les incidents liés à VPC Service Controls (service perimeters, access levels). Vérifier et corriger les configurations firewall et les règles de sécurité. S’assurer de la conformité des environnements GCP (sécurité, IAM, restrictions). Accompagner le suivi des pipelines GitHub / GitHub Actions dans un contexte IaC. Documenter les cas récurrents et contribuer à l’amélioration continue du RUN. ENJEUX DU POSTE : Maintenir la stabilité et la sécurité du périmètre firewall GCP. Accélérer la résolution des incidents et le support aux équipes offshore. Renforcer la qualité et la conformité des configurations GCP (VPC-SC en priorité). Garantir une communication fluide et fiable avec l’Inde. ENVRIONNEMENT TECHNIQUE : Vous intervenez sur : GCP (IAM, Networking, Firewall, Compute, Logging) VPC Service Controls (élément critique du poste) GitHub / GitHub Actions – Infrastructure as Code Environnement sécurité Cloud (politiques réseau, least privilege, audit) Modèle offshore (équipe en Inde)
Mission freelance
CONSULTANT GCP ANTHOS KUBERNETES
Publiée le
Google Cloud Platform (GCP)
Kubernetes
1 mois
350-500 €
France
Télétravail partiel
Expertise confirmée de plus de 5 ans d’expérience sur les technologies Anthos/Kubernetes et DevOps Kubernetes, Connaissance confirmée de Google Anthos Très bonne connaissance de Terraform et Ansible Bonne connaissance de GITLAB-CI Bonne connaissance des outils de virtualisation, de Linux et du scripting Bonne connaissance du travail en mode Agile (SCRUM...) Bon niveau de pratique de l’anglais dans un contexte international Activités attendues : • Mise en œuvre de Anthos/Kubernetes sur les infrastructures Edge computing hybrides avec le cloud public (GCP/). • Déploiement des environnements du dev à la production. • Mise en place de l’automatisation du déploiement des services via Ansible et Terraform • Rédaction de la documentation et montée en compétences des équipes actuelles infrastructure • Support de la solution en production • Assistance aux utilisateurs projets
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Mission freelance
Développeur Java/vue
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un développeur fullstack Java/Vue (H/F). Il/Elle interviendra principalement sur une nouvelle brique applicative à destination de plusieurs pays et participera ponctuellement sur d'autres applications gérées dans l'équipe. Le nouveau produit digital est dédié à fournir une nouvelle expérience de validation des changements de prix de vente auprès de nos équipes de pricing. Vos missions sont les suivantes : Conception et développement des différentes briques logicielles Mise en place des tests unitaires et des tests d'intégration Intervenir dans la mise en place de l'outillage logiciel pour l'automatisation des tests et l'intégration continue Assurer le suivi des tâches JIRA Participer à la revue de code Rédaction et actualisation des documentations techniques. Etre force de proposition, et challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Participer aux différents rituels agiles projet
Offre d'emploi
Lead Consultant Machine Learning Engineering H/F
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python
12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Création de site Wordpress : BIC ou BNC ?
- SASU a l'IR non présente dans mon memento fiscal
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Une ESN peut-elle suspendre les paiements pour ça ?
2185 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois