L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 558 résultats.
Mission freelance
Marketing consultant (H/F) - 75
Publiée le
Automatisation
CRM
IA
6 mois
75017, Paris, Île-de-France
Télétravail partiel
Un de nos clients dans le cloud recherche un Consultant Marketing en freelance : Poste basé à Paris – Votre mission : En tant que relais des équipes Sales & Marketing (globales et locales), vous serez chargé d’évaluer, déployer et favoriser l’adoption des technologies marketing, des processus et des workflows qui soutiennent la stratégie go-to-market en pleine évolution. Votre objectif : Maximiser l’impact business grâce à : une organisation plus performante, des processus et workflows de lancement produit renforcés, une expérience digitale client optimisée. Nos indicateurs clés : génération de leads, efficacité des équipes, optimisation du stack technologique & des workflows, et développement de solutions internes innovantes. Votre équipe : Vous rejoignez l’équipe Global Marketing Operations, rattachée au département du Chief Revenue Officer. Un poste transversal au croisement du marketing, des ventes, de l’IT et des équipes techniques.
Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)
Publiée le
Ansible
Google Cloud Platform (GCP)
Helm
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Publiée le
Salesforce CPQ
3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
DATA ENGINEER Python
Publiée le
Python
Terraform
6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Offre d'emploi
Platform Engineer Kubernetes – Data & GitOps (Environnement bancaire critique)
Publiée le
API Platform
Kubernetes
1 an
Paris, France
Télétravail partiel
Nous recherchons un Platform Engineer Kubernetes senior , orienté Data , pour concevoir, industrialiser et opérer une plateforme Kubernetes from scratch dans un contexte bancaire critique . Le rôle est plateforme & RUN , avec une approche GitOps stricte : Git est l’unique source de vérité, aucune intervention manuelle en production . Vos missions principales : Conception et déploiement de clusters Kubernetes from scratch (cloud et/ou on-prem) Mise en œuvre et exploitation en GitOps (ArgoCD / FluxCD) Industrialisation de plateformes data sur Kubernetes (batch, ML, analytique) Sécurisation de la plateforme (SSO, gestion des secrets, RBAC, Vault) Mise en place du monitoring, de la résilience et du scaling Exploitation et RUN en environnement bancaire (SLA, ITIL, MCO)
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Mission freelance
Développeur .NET 8 | Azure Cloud | Blazor | API REST
Publiée le
12 mois
500 €
75001, Paris, Île-de-France
Lieu : Paris - Présence physique requise 4 jours/semaine Durée : 12 mois (renouvelable) Date de démarrage : 19 janvier 2026 Langues : Français et Anglais (maîtrise requise) Contexte Nous recherchons un Développeur IT Senior pour intervenir sur le projet UniqueRef au sein de l'équipe Referential. Ce projet stratégique consiste à migrer une application OnPrem vers Azure, intégrer un nouveau fournisseur de données et mettre en place des flux d'alimentation pour nos référentiels (instruments, émetteurs, données extra-financières). Vos missions Développer les nouveaux composants et assurer la cohérence technique des modules. Rédiger les spécifications techniques et documents d'architecture (architecture review, dossier d'exploitation). Planifier les travaux, estimer les charges et anticiper les risques. Collaborer avec les équipes infrastructures pour la mise en place de l'environnement Azure. Tester, déployer et accompagner les phases UAT et PROD. Garantir la qualité des livrables et des développements (tests unitaires, Sonar, automatisation). Profil recherché (détails) Formation : Bac+5 (école d'ingénieur ou équivalent). Expérience : Minimum 5 ans en développement informatique. Expertise dans le développement sur Azure et la définition d'architectures applicatives. Expérience confirmée en API REST , ETL, batchs et services. Connaissance des frameworks Microsoft pour accélérer la mise en place de nouvelles fonctionnalités. Maîtrise des modèles et bases de données (SQL Server). Expérience dans la mise en place de la qualité du code (Sonar) et amélioration continue. Une expérience en automatisation des tests est un plus. Familiarité avec les environnements Agile (SCRUM) et les process DevOps . Atout : Expérience en finance de marché ou gestion d'actifs, avec un intérêt pour les problématiques data (produits financiers, référentiels). Compétences techniques (détails) Langages & Frameworks : .NET 8, C#. Blazor WebAssembly / Server App (Front-end). Outils & Environnements : Visual Studio, GIT. Microsoft SQL Server. Azure (déploiement, services, migration). Méthodologies & Qualité : Tests unitaires, automatisation des tests. Sonar pour la qualité du code. Jira ou Azure DevOps pour la gestion Agile (board, test plans). Soft skills Rigueur, pragmatisme, adaptabilité. Esprit d'équipe et communication claire. Résistance au stress.
Mission freelance
H/F - Product Owner CRM & Data Client
Publiée le
Backlog management
Rédaction des spécifications fonctionnelles
Salesforce Sales Cloud
3 mois
Paris, France
Télétravail partiel
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Mission freelance
Architecte Data
Publiée le
Architecture
Azure
4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
Offre d'emploi
INGENIEUR CLOUD H/F
Publiée le
Azure
Azure DevOps
Databricks
12 mois
50k-65k €
Île-de-France, France
Télétravail partiel
Au sein de la Direction Digital et Data, vous rejoindrez le Data Lab , en charge des projets BI et Data pour l’ensemble des enseignes et métiers du Groupe En tant qu’ Ingénieur DevOps H/F , vous jouerez un rôle clé dans le déploiement, la sécurisation et l’industrialisation des projets Data du Groupe, au sein d’une équipe d’une dizaine de collaborateurs évoluant en méthodologie Agile. La plateforme Cloud principale est Microsoft Azure . Déploiement & Infrastructure Construire et déployer des infrastructures Cloud Azure adaptées aux besoins Data. Configurer et industrialiser les architectures cibles ( CI/CD ). Participer aux phases de validation technique lors des mises en production. Mettre en place des outils de surveillance pour assurer la haute disponibilité et la résilience des environnements. Sécurité & Gouvernance Organiser des ateliers avec les équipes internes pour répondre aux exigences de sécurité du Groupe. Suivre les plans d’action liés aux audits sécurité et proposer des solutions adaptées. Contribuer à la sécurisation des applications Web, APIs et services Azure . Maintenance & Amélioration Continue Assurer le maintien en conditions opérationnelles (MCO) des infrastructures virtualisées. Diagnostiquer incidents / dysfonctionnements et garantir la fiabilité des solutions déployées. Participer à l’amélioration continue des chaînes CI/CD . Veiller à la sauvegarde des données , à la gestion des droits d’accès et à la conformité des environnements.
Offre d'emploi
Chef de projet Data
Publiée le
BigQuery
Data quality
Gestion de projet
6 mois
Île-de-France, France
Télétravail partiel
La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : Maximiser la collecte de données tout en respectant les réglementations en vigueur Développer la connaissance et l’expérience utilisateur Mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’assurer la coordination de l’ensemble de cas d’usages transverses aux pôles Data. Prestations attendues : En interaction avec l’ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité….) , la prestation consistera à : La Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Mangement, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au mangement le suivi de ces sujets transverses Gestion de la coordination inter Data : point d’entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d’assurer la promotion des travaux Expertises demandées pour la réalisation de la prestation : Expériences d’au moins 8 ans en tant que Chef de projet data Expériences d’analyse des données sur un environnement GCP Expériences sur SQL/Big Query Expériences sur les principaux métiers de la data : Collecte, tracking, Dashboard, analyses, personnalisation, data science Expériences sur des données digitales sur l’outil Piano Analytics Capacité à fédérer, coordonner des projets transverses, mener plusieurs sujets en même temps Capacité à synthétiser, et présenter des résultats à des interlocuteurs ayant des niveaux de maturité data différent
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
558 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois