L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 707 résultats.
Mission freelance
Tech Lead Data Integration (Salesforce / GCP/ CRM) h/f
Publiée le
Apache Kafka
API REST
BigQuery
3 mois
400-580 €
Saint-Ouen-sur-Seine, Île-de-France
Télétravail partiel
Contribuer à la conception et l’intégration des architectures Data & CRM (CDP, SFMC, SFSC, BigQuery). Tester et valider les intégrations API REST / Kafka, documenter les flux et assurer leur cohérence. Réaliser des POC et accompagner les équipes de développement (React, Vue, Copilot). Automatiser les traitements et validations via Python / SQL / BigQuery. Garantir la qualité et la cohérence des données CRM (interactions, consentements, consommateurs). Produire la documentation projet (ServiceNow, Confluence) et collaborer étroitement avec les équipes zones, intégrateurs et data teams globales.
Mission freelance
Ingénieur DevOps Kafka MongoDB GCP (Infrastructures)
Publiée le
Apache Kafka
12 mois
400-720 €
Paris, France
Télétravail partiel
Vous rejoindrez notre équipe en charge des projets d'industrialisation DevOps, vos missions consisteront à contribuer : Mise en place de l'infrastructure GCP pour plusieurs Pays en Terraform Mise en place des connections réseaux avec du PSC. Intégration au projet Miles ( MongoDB et Kafka sont des briques majeures du projet Miles). Mise en place des CI/CD applicatives. Accompagner si besoin les projets sur le Run qui en découle. · L'aspect fonctionnel de Kafka et MongoDB n'entre pas dans les futurs travaux du DevOps.
Mission freelance
Expert Dataiku - H/F - Paris + remote
Publiée le
BigQuery
Dataiku
Google Cloud Platform (GCP)
3 mois
400-660 €
Courbevoie, Île-de-France
Télétravail partiel
Mission * Piloter et réaliser des analyses data à forte valeur ajoutée : client, produit, média, digital, supply. * Participer à la construction de la data plateforme (GCP / Dataiku / BigQuery). * Mettre en place des reportings récurrents et KPI automatisés pour les directions métiers. * Identifier les use cases analytiques réplicables et contribuer à leur industrialisation dans Dataiku. * Garantir la qualité, la pertinence et la fiabilité des données utilisées. * Collaborer étroitement avec les équipes business pour comprendre leurs enjeux et transformer leurs besoins en solutions concrètes. * Travailler en mode agile (sprints de 3 mois) au sein de l’Analytics Factory.
Mission freelance
Java / Angular Developers
Publiée le
Angular
Java
36 mois
Paris, France
Télétravail partiel
Senior Java & Angular Developer, freelance, 3 ans de contrat initial, IDF, trois jours de TT par semaine, plusieurs postes ouverts ! Attractive opportunité pour des Java / Angular Developers chevronné(e)s de rejoindre notre client basé en IDF et qui assure et accompagne des centaines de milliers d'entreprises quotidiennement en France. Vous participerez à d’ambitieux projets de développement qui permettront de soutenir l’économie française et où vous pourrez votre propre vision du code !
Mission freelance
Senior devops - expertise Observabilité
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes
3 mois
400-590 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Présentation de la demande Nous recherchons au sein du pôle Observability dans notre équipe Engineering Productivity, un ingénieur expérimenté et autonome pour prendre la responsabilité d’un ou plusieurs projets et gestion de process autour de l'observabilité et notamment les notions de metrics, traces et alerting. Le terrain de jeu est propice à la prise d’initiative : une plateforme internationale, au coeur de l'ensemble des initiatives digitales L'offre est est possible en remote avec 2 jours / mois sur Lille (si localisation hors métropole Lilloise avec possibilité d'espace de coworking dans certaines de villes de France) Le projet Au cœur des équipes Cloud Platform Engineering (CPE), l'équipe Engineering Productivity et spécifiquement l'équipe Observability a pour objectif de construire et maintenir les process et l'accompagnement autour des notions et pratiques d'Observability (metrics, trace, logs management, dashboard, alerting) au sein de l'ensembles des solutions digitales Pour répondre à ces besoins, l'équipe développe et maintient des solutions utilisées mondialement par nos solutions e-commerces et magasins dans plus de 70 pays. Pour cela nous avons besoin de renforcer notre équipe avec un profil ingénieur expert / senior, qui sera un acteur clef pour la réussite de ces challenges. Clause de Confidentialité Toutes informations transmises par l’une des parties à l’autre partie comme informations transmises pour la réalisation des prestations ont un caractère confidentiel. Dès la réalisation d'une prestation, chaque partie s'engage à conserver comme confidentielles toutes les informations obtenues de l’autre partie. Chaque partie garantit le respect des engagements de cet article par tout son personnel et/ou les autres intervenants aux prestations. Objectifs et livrables En tant que consultant APM, tu contribueras au maintien opérationnel des solutions Datadog et Splunk via : Maintien et tests de nos stacks Terraform Développement en Python/Go d'API ou de composants OpenTelemetry Accompagnement technique et configuration avec les utilisateurs Déploiement sur certains périmètres Prise en charge d’une partie du RUN Formation et le suivi de nos utilisateurs Industrialisation et mise en conformité avec nos gouvernances SI Automatisation du provisionnement Définition des règles et bonnes pratiques Audit de conformité (application des bonnes pratiques) Création de Control Towers vérifiant la qualité du service rendu Mise à jour de la base documentaire Tu formalises régulièrement tes avancées auprès du responsable de ces solutions. Enfin, évoluant dans un contexte international, tu as un niveau d’anglais courant. Tu évolueras dans un contexte Agile au sein d'une équipe pluridisciplinaire autour d'un leitmotiv : "You Build it, You run it, You Enjoy it"... Environnement Technique Solutions: Datadog, OpenTelemetry, Splunk, Solarwinds, Pagerduty Tu maitrises au moins un language de développement de type Python ou Go Tu as une affinité particulière pour l'observabilité et tu comprends et maîtrise l'intérêt des logs, métriques, traces. Tu es à l'aise dans un environnement Kubernetes et dans l'utilisation d'un Cloud Provider (GCP ou AWS) Compétences demandées Compétences Niveau de compétence DATADOG Confirmé Programmation Python Confirmé Google Cloud Confirmé KUBERNETES Confirmé SPLUNK Élémentaire Observability Expert AWS Confirmé GOLANG Confirmé IBM Terraform Confirmé Langues Niveau de langue Anglais Courant
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Mission freelance
Full Remote - Mission Freelance / portage - DevOps GCP Senior – Projet Move to Cloud
Publiée le
Google Cloud Platform (GCP)
IAC
Kubernetes
3 ans
400-600 €
France
Télétravail 100%
Bonjour, Pour un client dans l’industrie, je recherche un DevOps GCP Senior pour un projet Move to Cloud GCP - Lift and Shift . Mission : Migration de l’infra on-prem vers GCP (GCE) Modernisation sur Kubernetes (GKE) Durée : 6 mois renouvelable (freelance ou portage – accompagnement possible pour le passage en portage – préavis de 2 mois accepté) Démarrage : janvier 2026 // ⏳ Process & contrat : ASAP Rythme : full remote depuis la France Compétences clés : GCP / Google Cloud Kubernetes / GKE Google Compute Engine (GCE) Services managés IaC Migration Lift & Shift Si vous êtes intéressé et que votre profil correspond, envoyez votre CV à jour , je reviendrai vers vous rapidement.
Mission freelance
Profil Data hybride / Alteryx / Power BI
Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI
3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Mission freelance
PO data - GCP/Power BI - Supply
Publiée le
BigQuery
Google Cloud Platform (GCP)
1 an
620-710 €
Paris, France
Télétravail partiel
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,
Mission freelance
Expert NoSQL
Publiée le
AWS Cloud
Docker
Elasticsearch
12 mois
400-500 €
Paris, France
Télétravail partiel
Nous recherchons un Expert NoSQL Objectif global : Accompagner le client avec une Expertise NoSQL Les livrables sont: POC et guides d’architecture NoSQL Souches et scripts conteneurisés (Docker/OpenShift) Rapports d’audit et documentation technique consolidée Compétences techniques: ElasticSearch / GraphDB (Cypher, RDF, LPG) - Expert - Impératif Docker / Kubernetes / OpenShift / Linux RedHat - Confirmé - Impératif DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) - Confirmé - Impératif Description: Recherche un Expert NoSQL confirmé pour accompagner la création d’un centre de compétences interne autour des technologies NoSQL (ElasticSearch, GraphDB). Vous interviendrez sur la conception, l’industrialisation et l’optimisation d’environnements conteneurisés (Docker/OpenShift) hébergés sur cloud hybride (on-premise / AWS / GCP). Mission longue Compétences essentielles : - ElasticSearch / GraphDB (Cypher, RDF, LPG) - Docker / Kubernetes / OpenShift / Linux RedHat - DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) Livrables principaux : - POC et guides d’architecture NoSQL - Souches et scripts conteneurisés (Docker/OpenShift) - Rapports d’audit et documentation technique consolidée
Offre d'emploi
Ingénieur Cloud (GCP / AWS)
Publiée le
AWS Cloud
CI/CD
Jenkins
50k-70k €
Yvelines, France
Télétravail partiel
En tant qu’Ingénieur d’étude et développeur, vos missions principales seront de : - Concevoir la solution ; - Paramétrer, développer et qualifier des solutions applicatives ; - Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; - Mettre en place, mener ou piloter le déploiement des applications développées ; - Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; - Analyser les traitements pour réaliser les études détaillées ou les études d’impact. L'expertise attendue : • Expertise et expérience significative sur Terraform. • Définition de module Terraform • Expertise sur le Cloud GCP et AWS si possible . • Maitrise des outils de déploiement automatisés • Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python • Connaissance sur les technologies kubernetes
Offre d'emploi
Ingénieur Devops Digital Backbone
Publiée le
Ansible
CI/CD
Dynatrace
1 an
40k-66k €
400-650 €
Puteaux, Île-de-France
On recherche pour notre client final grand compte un Ingénieur Devops Digital Backbone pour intervenir sur la plateforme Digital Backbone. La prestation sera en lien avec le chapitre DevOps dont le référent sera le SDL (Solution Delivery Lead) » et travaillera avec le Product Owner de l'équipe « Digital Backbone ». Les activités attendues sont les suivantes : o Déploiement des composants et services liés au projet Digital Backbone via des outils Infrastructure as Code (Ansible, Terraform). o Mise en place des pipelines CI/CD pour automatiser le déploiement des services, depuis l'environnement de développement jusqu'à la production. o Contribution au support opérationnel (RUN) et résolution des incidents en cas de dysfonctionnement. o Implémentation du monitoring et des alertes pour la plateforme Digital Backbone. o Rédaction et mise à jour de la documentation technique. o Gestion des aspects sécurité et FinOps (optimisation des coûts) sur les environnements du projet. o Assurer la sécurité des processus de développement et de déploiement, en garantissant la mise en place de contrôles appropriés pour protéger les données et les actifs de l'entreprise. Livrables o Scripts et configurations pour l'automatisation du déploiement des services o Pipeline CI/CD conformes aux exigences sécurité et aux recommandations du chapitre DevOps o Documentation technique des composants d'infrastructure ainsi que les chaîne CI/CD o Dashboards pour le monitoring des services Digital Backbone.
Mission freelance
Administrateur BDD
Publiée le
Ansible
Git
Google Cloud Platform (GCP)
1 an
400-450 €
Lille, Hauts-de-France
Télétravail partiel
Nous sommes à la recherche d’un profil qui pourrait aussi bien gérer les moteurs de bases de données, faire de l’analyse, prendre en charge le RUN, accompagner les utilisateurs, rédiger la doc et qui maîtrise les sujets d’automatisation (python, ancible, terraform…) . Au sein de notre équipe Cloud Databases, tu feras avec l’équipe le RUN de plusieurs moteurs de bases de données tels que Ingres, PostgreSQL et Oracle on-premise et Postgres, Open Search, Redis sur le cloud (en services managés) Pour cette mission, nous ne recherchons pas un expert pour chaque type de moteur de bases de données mais quelqu’un qui puisse résoudre la majorité des incidents sur les différents périmètres avec astreinte en 24/7. A ce titre, tu as un profil DBA, tu sais travailler en autonomie a l’appuie de documents d’exploitation et des collègues experts sur chaque moteur, tu aimes trouver des solutions pour des analyses complexes, tu es force de propositions et tu souhaites t'investir au sein d 'une équipe de qualité. Alors rejoins-nous !
Offre d'emploi
Développeur react.JS / next.JS confirmé H/F
Publiée le
Git
Google Cloud Platform (GCP)
Next.js
12 mois
40k-50k €
400-500 €
Île-de-France, France
Télétravail partiel
Les principales missions sont les suivantes : Participer aux analyses techniques et aux études d’impacts liées aux User Stories ; Concevoir des solutions en respectant les bonnes pratiques de développements ; Fournir des chiffrages détaillés des futures réalisations (dans le cadre des Backlog Refinements) ; Réaliser les développements ; Effectuer des contrôles croisés : Relecture et validation de Pull Request, Pair Programming et écriture de Tests unitaires/Intégration/End to End ; Assurer le support aux équipes d’homologateurs/Product Manager/Product Owner lors des phases de recette ; Assurer le support lors des mises en production de chacune des évolutions ; Assurer le maintien en condition opérationnelle des applications du périmètre (effectuer les analyses sur incident en support des équipes d’exploitation, et réaliser les correctifs le cas échéant)..
Mission freelance
X2 Mission freelance / Portage - DevOps / Cloud Engineer -Lille - Long terme
Publiée le
Cloud
Google Cloud Platform (GCP)
Python
3 ans
370-420 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un DevOps / Cloud Engineer . Description : Nous recherchons un DevOps / Cloud Engineer pour travailler sur des projets Cloud variés. Vous participerez à la mise en place, à l’automatisation et à la maintenance d’infrastructures et d’applications dans un environnement agile. Missions principales : Déployer et maintenir des environnements Cloud Automatiser des processus et pipelines Surveiller et assurer le bon fonctionnement des systèmes Accompagner les équipes sur les bonnes pratiques Profil recherché : Expérience DevOps ou Cloud Maîtrise des environnements Cloud (GCP ) Connaissance d’outils d’automatisation et de scripting Esprit d’équipe, rigueur et autonomie Compétences : Cloud (GCP, Kubernetes souhaité) Automatisation / CI/CD Infrastructure as Code SQL et Linux souhaités Méthodes Agile Langue : Français courant Si vous êtes intéressé(e) et que votre profil correspond à la demande, merci de postuler avec votre CV à jour. Je reviendrai vers vous rapidement.
Mission freelance
Data Engineer GCP
Publiée le
Google Cloud Platform (GCP)
Hadoop
12 mois
550-570 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- Passer de la micro à l'EURL dans les règles de l'art
- Projet d'évolution
- Réforme de l’assiette sociale
- Demande d’enquête métier – Manager en infrastructures et cybersécurité des systèmes d’information
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
2707 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois