Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 596 résultats.
Freelance

Mission freelance
Architecte Data – Azure/Databrics

Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI

6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
CDI

Offre d'emploi
Administrateur/Ingénieur poste de travail H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

42k-48k €
Bruyères-le-Châtel, Île-de-France
Ce qui vous attend : Au sein de l'infogérance d'un grand groupe de l'aéronautique défense nucléaire, sur un périmètre sécurisé nous recherchons un/e Ingénieur ou Administrateur Poste de Travail. A ce titre, le candidat devra assurer la production suivante : • Prise en charge de l'administration technique relatifs à l'environnement de travail Windows 10 & 11 • Réalisation de packages MSI et PowerShell • Réalisation de scripts PowerShell • Télédistribution de logiciels via MECM • Gestion des images systèmes (master, sysprep, MDT, etc.) • Gestion des antivirus/antimalwares (Defender, solutions tierces) • Traitement des incidents de niveau 2 et support de niveau 2 auprès des équipes de proximité • Capitalisation, formation et réalisation de documentation technique et procédures d'exploitation • Réalisation de master Windows 10 et 11 • Administration et mise en œuvre des politiques de sécurité (GPO, antivirus, chiffrement, etc.) • Gérer les déploiements des mises à jour sur les postes de travail (systèmes d'exploitation, logiciels, MàJ sécurité...) Analyse des besoins et veille technologique · Mise en place d'un environnement de développement pour l'industrialisation des packages · Réaliser les GPO poste de travail · Packaging des applications métiers et éditeurs · Rédaction des procédures d'installation · Automatisation d'installation des souches serveurs Windows · Mise en place sous PowerShell d'une bibliothèque des fonctions pour l'industrialisation des packages · Assurer une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise Documentation, reporting et sécurité · Conseiller sur l'utilisation des ressources du système, des langages, des fichiers... · Concevoir ou adapter (paramétrer) les logiciels de base sélectionnés · Réaliser des études technique pour de nouvelles applications · Comptes rendus d'interventions · Comptes rendus de tests · Comptes rendus des déploiements logiciels Maintenance · Gérer des packages applicatifs et des Masters Windows · Diagnostiquer les pannes et les dysfonctionnements liés au hardware ou aux logiciels · Assurer une maintenance évolutive et corrective en fonction des grandes évolutions technologiques (notamment les changements de versions) · Mesurer et optimiser les performances des systèmes d'exploitation Référence de l'offre : 5yzndetjti
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance

Mission freelance
Administrateur Système, Sauvegarde et réseaux

QUALIS ESN
Publiée le
Linux
NetBackup

6 mois
310 €
Lille, Hauts-de-France
Mission Administrateur systèmes RUN : • MCO/MCS Linux (RHEL 6,7,8 9 // Ubuntu) • MCO/MCS vSphere 7,8 • MCO Windows 2012, 2016, 2019 • MCO Trend Micro • Traitement des CGC (MEQ/MEP) • PRTG (installation des équipements, configuration des sondes) • Gestion des demandes et des incidents N2/N3 • Rédaction des procédures pour le N1/N2 • Astreinte DSI (bureautique et industriel) • MCO/MCS Sauvegarde – Netbackup 9.1/10.1.1 BUILD : Linux/DevOps • Optimisation du renouvellement des licences • Mises à jour des serveurs RHEL (planification, communication, analyse d’impact, mise en œuvre) • Correction des vulnérabilités • Mise en place SFTP, NFS, ansible • Ansible • Installation et configuration • Déploiement SIEM, EDR • Uniformisation des déploiements • Gestion de l’installation et configuration des nouveaux serveurs • Patch Management, Changement DNS, redémarrage • Script supervision personnalisé DevOps : • Mise à jour du code GIT pour le site web Ilévia, création pipeline, déploiement application ArgoCD • Rancher, ArgoCD, Harbor, Git, Jenkins Sauvegarde - Netbackup • Analyse, conseil, audit sur l’infrastructure • Mise en place sauvegarde immuable - worm • Changement de la robotique (LTO 6/7 > 9) • Rédaction des documentations techniques et des procédures
CDI
Freelance

Offre d'emploi
Ingénieur de production F/H

AIS
Publiée le
Production

1 mois
40k-46k €
230-460 €
Toulouse, Occitanie
- Assurer le build et le run des applications en production, - Prendre en charge les incidents complexes (niveau 4) et en assurer le diagnostic jusqu'à la résolution, - Analyser les logs applicatifs et réaliser des investigations techniques approfondies, - Effectuer des requêtes SQL pour analyse, diagnostic ou correction de données, - Participer aux mises en production et aux changements (release management), - Administrer et maintenir les environnements Windows et Linux RedHat, - Gérer et configurer les middlewares (IIS, Apache) - Proposer des axes d'amélioration continue sur la supervision, la performance et la fiabilité
Freelance

Mission freelance
Business Analyst – ALM Treasury Transformation - Paris

Net technologie
Publiée le
ALM
Data quality
Recette

9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
CDI
Freelance

Offre d'emploi
Administrateur Réseaux Sénior F/H

AIS
Publiée le
Réseaux

1 mois
35k-42k €
210-420 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Participation à la conception technique des architectures réseau - Mise en place de solutions d'automatisation / industrialisation - Contribution aux projets d'évolution du réseau et de la sécurité - Rédaction de la documentation technique - Réalisation des transferts de compétences vers les équipes - Administration courante des infrastructures réseau - Réalisation des campagnes de mise à jour - Suivi et gestion de l'obsolescence matérielle ou logicielle - Support N3 sur les incidents de production - Accompagnement des déploiements projets - intervention en HNO possibles et astreinte cyclique éventuelle Environnement Technique : - Maîtrise du switching - Maîtrise du routage BGP et firewalling - Connaissance en SD-WAN, Cisco Meraki, Cradlepoint / Starlink - Une expérience dans la relation opérateurs serait un plus - Contribution à l'industrialisation, bonnes pratiques réseau et capacités d'analyse avancées
CDI

Offre d'emploi
Ingénieur Sécurité & Réseau H/F

UMANTIC
Publiée le

50k-60k €
Clichy, Île-de-France
# Ingénieur Sécurité & Réseau H/F ## ? Notre client Groupe centenaire et familial, leader en France dans la lingerie et la mode, notre client fédère plusieurs marques à travers un réseau de plus de 1 400 magasins dans 57 pays. * * * ## ? Votre rôle Rattaché au responsable de la cellule Système & Réseau, vous êtes à la fois référent technique et leader opérationnel. * * * ## ? Missions principales 1\. Leadership technique de l'équipe réseau * Accompagner la montée en compétences de l'équipe * Organiser la charge, répartir les tâches et prioriser les incidents et projets * Animer les réunions techniques hebdomadaires * Assurer le rôle d'escalade L3 sur les incidents majeurs 2\. Architecture & conception réseau/sécurité * Concevoir, adapter et dimensionner les composants réseau et sécurité * Élaborer une roadmap technologique d'évolution de l'architecture * Conduire la refonte des éléments réseau de l'entreprise * Intégrer les outils de cyberdéfense face aux nouvelles menaces * Mettre en place les interconnexions et garantir la compatibilité des réseaux * Assurer les audits, la veille technologique et les benchmarks * Superviser l'ensemble des équipements et maintenir la documentation d'exploitation 3\. Gestion de projets d'intégration * Mettre en oeuvre les choix techniques et réaliser les analyses d'impact (matériels & logiciels) * Garantir la bonne installation, l'administration et la maintenance des composants réseau/sécurité * Apporter l'expertise technique lors du lancement de projets transverses DSI 4\. Support & gestion des incidents Intervenir en tant qu'expert N2 infrastructure et N3 global magasin Détecter les menaces potentielles et appliquer les contre-mesures nécessaires Auditer les réseaux lors de dysfonctionnements Partager les bonnes pratiques avec les équipes réseau et système Maintenir à jour les tableaux de bord et rapport Environnement technique Firewalls Checkpoint · Fortinet · Palo AltoRéseauCisco (Nexus, Catalyst, Meraki) · HPE · protocoles de routage · SD-WANSASE / Zero TrustCatoNetworkCloudAzure · Oracle OCIWiFi & accèsAruba · Airwave · ClearpassLoad balancerCitrix NetscalerVPNIPsec · SSL DNSInterne & externeCollaborationToIP Microsoft Teams Phone
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Ingénieur Intégration / API / Coordination technique

COEXYA
Publiée le
API REST
DNS
JSON

6 mois
380-420 €
Lyon, Auvergne-Rhône-Alpes
Cette mission vise un profil opérationnel sur les sujets d’intégration, capable de traiter concrètement des API REST, des flux SFTP/EDI et des problématiques réseau associées (DNS, reverse proxy). Ce n’est pas un poste de PMO, de Product Owner ou de pilotage pur. Nous recherchons un profil technique JUNIOR orienté intégration, capable d’intervenir sur des sujets API et flux, avec une première expérience de coordination et une montée en compétence progressive sur le pilotage. Rôle attendu : Prendre en charge le suivi de sujets d’intégration autour des API, des flux et des échanges de données. Intervenir sur des problématiques API REST, JSON/XML, EDI/SFTP et environnements réseau type DNS / reverse proxy. Participer aux tests, à la recette, au suivi des incidents, à la documentation et au reporting. Échanger avec les équipes et les clients, animer certains points de suivi et contribuer à la coordination opérationnelle. Monter progressivement en responsabilité sur des sujets de pilotage technique
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Freelance
CDI

Offre d'emploi
Ingénieur de production DevOps H/F

OCSI
Publiée le
Ansible
CI/CD
Jenkins

3 ans
40k-55k €
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme de transformation majeur au sein d’un environnement international, une nouvelle application critique est en cours de mise en place afin de remplacer plusieurs systèmes existants de gestion de données sensibles. Cette application doit répondre à de fortes exigences en matière de performance, de haute disponibilité, de résilience et de conformité réglementaire. Missions principales Vous interviendrez sur les activités suivantes : Mise en place et maintien du provisioning de l’infrastructure (Infrastructure as Code) Conception, mise en œuvre et maintenance de la chaîne CI/CD Déploiement des releases applicatives en production Mise en place et administration des outils de monitoring et d’observabilité Mise en œuvre des solutions de continuité et de reprise d’activité Suivi et analyse des tests de performance Coordination avec les équipes infrastructure et développement Rédaction et mise à jour de la documentation technique Exploitation et suivi de la production
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
6596 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous