Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
TECH LEAD DATA ENGINEER AZURE DATABRICKS (H/F)
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Mission freelance
Data Engineer
🧩 Description du poste Le Data Engineer a pour mission de concevoir et développer des solutions de gestion et de transformation de données, depuis la collecte jusqu’à la restitution analytique. Il contribue activement à la mise en place d’une plateforme data moderne, automatisée et orientée performance, reposant sur les technologies Microsoft Azure . 🔧 Responsabilités principales Concevoir, développer et maintenir les Data Warehouses , Data Marts et Data Cubes . Mettre en œuvre des pipelines ETL/ELT avec Azure Data Factory ou SSIS . Optimiser la performance, la fiabilité et la montée en charge des flux de données. Mettre en place des automatisations et des mécanismes de surveillance des traitements. Garantir la sécurité des données (Row Level Security) et la conformité aux standards internes. Développer des outils analytiques et des rapports via Power BI . Documenter les flux et enrichir le catalogue de composants techniques. Collaborer avec les équipes DevOps pour intégrer les pipelines dans les chaînes CI/CD. 🧰 Environnement technique Cloud & Data : Azure Data Factory, Azure SQL DB, SQL Server, Azure Analysis Services Reporting : Power BI, DAX Studio, Tabular Editor Outils DevOps : GitLab, Azure DevOps, Visual Studio Méthodologie : CI/CD, Agile, documentation structurée

Offre d'emploi
Architecte IA
Contexte : Dans le cadre du renforcement de nos dispositifs Data & IA, nous recherchons un Architecte IA capable de piloter la conception, l’implémentation et l’industrialisation de solutions d’intelligence artificielle robustes et scalables. Ce rôle exige une maîtrise des pipelines MLOps, des standards CI/CD, ainsi qu’une forte culture de la qualité logicielle. L’architecte jouera un rôle clé dans la gouvernance des modèles ML en production, le suivi de leur performance, et l'encadrement des choix techniques autour des plateformes IA (MLflow, Domino, etc.). Missions principales : Architecture et automatisation des workflows IA : Concevoir et mettre en place des pipelines CI/CD pour les projets Data Science et IA. Industrialiser les workflows ML : preprocessing, entraînement, déploiement, monitoring. Structurer l’infrastructure IA sur Docker, GitLab-CI et des environnements cloud (AWS, Azure, GCP). Garantir la reproductibilité, la traçabilité et la résilience des traitements IA. Gouvernance du code et qualité logicielle : Définir et imposer les bonnes pratiques de développement (clean code, typage, testabilité). Implémenter et maintenir des outils de qualité : Ruff, Black, MyPy, SonarQube. Assurer la scalabilité et la maintenabilité des solutions IA/ML dans le temps. Gérer le versionnage, la promotion, le rollback et le monitoring des modèles via MLflow. Encadrer l’intégration des modèles dans les chaînes de valeur métiers. Définir les stratégies de supervision des performances des modèles (drift, alerting, logs). Encadrement des équipes Data & IA : Accompagner les Data Scientists sur les enjeux d’industrialisation et d’architecture en tenant compte de la culture MLOps et DevSecOps au sein des projets IA. Contribuer au choix et à la mise en œuvre de plateformes comme Domino Data Lab.

Mission freelance
Ingénieur de production _ Charenton le pont (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur de production (H/F) à Charenton-le-pont (94) Votre mission : La mission proposée peut être soumise aux horaires décalés (intervention en HPO notamment pour les mises en production) ainsi qu’à une participation au dispositif d’astreinte hebdomadaire et week-end sur la partie CLOUD. Maintenir un niveau d’excellence technique des plateformes du périmètre : - Créer, administrer des environnements, appliquer des patchs, superviser, veille technologique - Définir des architectures techniques autour des composants applicatifs - Participer aux réponses aux audits pour le compte de la production applicative - Gérer des incidents critiques : communication, diagnostic, correction, coordination d’experts en cellule technique. - Contacter avec des cellules supports éditeurs. - Gérer des problèmes (incident récurrent avec plan d’action sur moyen/long terme) - Analyser, Gérer, Piloter des changements. - Coordonner des multi-intervenants. - Réaliser l’interface entre les experts techniques et le support Editeur/MOE dont vous êtes l’interlocuteur privilégié. - Rédiger les manuels d’exploitation : procédures, sauvegardes, supervision

Offre d'emploi
Développeur Power BI Sénior
Nous recherchons actuellement un profil sénior Développeur Power BI pour une mission de longue durée chez un de nos clients dans le secteur du luxe. La mission démarrera ASAP, au sein des locaux du client situés dans Paris Intramurros. 2 jours de télétravail seront prévus pour cette mission, fixé par l'équipe en fonction des semaines. Les différentes tâches consisterons en : • Analyse, chiffrage, conception sur les nouveaux besoins de reporting • Développements avancés (Dashboard, Semantic Model, Power automate) • Support Power BI L3 sur les incidents • Formation des utilisateurs à Power BI et au self-service en Français / Anglais

Mission freelance
Expert Data Supply Chain Specialist
Nous cherchons un(e) : ➡️ Data Supply Chain Specialist / Data Product Owner Supply Chain Expérience : 7 à 10 ans d’expérience dans la Supply Chain (connaissance terrain indispensable : achats, appro, production, logistique, gestion de stock, contrôle de gestion industriel). Expérience confirmée sur des projets Data / BI appliqués à la Supply Chain (construction de socles de données, mise en place d’indicateurs, outils de pilotage). Déjà intervenu dans un rôle de pont entre les métiers Supply Chain et les équipes data/IT . Compétences clés : Bonne compréhension des processus de bout en bout Supply Chain . Capacité à formaliser et challenger les processus métiers pour les projeter dans une architecture data. Maîtrise de la modélisation de socles de données (structuration, schémas, indicateurs). Culture data : capacité à traduire des besoins métiers en cas d’usage et en modèles de données exploitables . Idéalement : expérience sur un environnement BI/data (SQL, Power BI, Snowflake, GCP, etc. – selon ton écosystème). Soft skills : Très bon relationnel et capacité d’écoute. Empathie et diplomatie pour interagir avec des métiers variés. Pragmatisme et sens du service (savoir prioriser et simplifier). Aisance dans des organisations complexes et matricielles . Capacité à embarquer les équipes métiers et à vulgariser la data. Localisation & disponibilité : Basé idéalement en Île-de-France (siège, proximité équipes), avec possibilité de remote partiel. Disponible rapidement pour intégrer le projet.

Mission freelance
Développeur Java/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java/Vue (H/F) à Lille, France. Contexte : Développeur fullstack maitrisant pour compléter l'équipe. La personne sera en charge du développement du RUN, améliorations continues et Build de 2 produits. Un démarrage rapide est souhaité. Les missions attendues par le Développeur Java/Vue (H/F) : Les compétences techniques recherchées sont : - Backend: Java 17 (21 apprécié), Spring boot 3, Spring Cloud (version 2022), Maven 3, Spring Data JPA (version 3.1.1), Spring Batch (version 5.0.2) , Spring Integration (version 6.1.1) , Spring Web (6.0.10), Spring Security (6.1.1), Junit 5, Mockito, Mapstruct, Slf4j, Nest JS (version 10), Jest. - Frontend: Vue 3.3.2, Vue Axios, Vue router, Fastify, Pinia, Vite, Vitest, Cypress 13, eslint, typescript 5, Home made Design System, Sass, HTML 5, CSS 3 - Authentication: OIDC, Oauth2 - Data : PostgreSQL 15, MongoDB 7, Opensearch 2.7.1, BigQuery - Flux : Enterprise Service Bus, Kafka, avro - DevOps : Google Kubernetes Engine, Dockerfile, Podman, Helm, Github Actions, jfrog artifactory, Distroless docker images - Coding assistant : Github Copilot - Architecture : Layered architecture, microservices, micro-fronts, C4 Model, Architecture Decision Records - Code version control & quality : Git, Github, Sonarqube, Dependabot - Project Management : Jira - Monitoring : Datadog En plus des compétences techniques, nous recherchons une personne qui soit challengeante et motrice. L'esprit d'initiative ainsi que l'esprit d'équipe sont absolument nécessaires. Une bonne implication et de l'engagement seront également demandés. Mixte TT et présentiel.

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Mission freelance
Architecte Cloud AWS / GCP – Mission longue durée - Full Remote
Pour l’un de mes clients, je recherche un Architecte Infra AWS / GCP Mission : Poste d’architecte référent sur les stratégies DRP et Backup (Cloud AWS / GCP) Design des solutions et définition des standards Mission longue durée (3 ans ou plus) Compétences : DevOps / Cloud AWS & GCP Commvault DRP Conditions : Full remote (2-3 déplacements par an dans le sud de la France) Localisation : France Niveau : Senior Démarrage : ASAP Langues : français + anglais courant Si vous êtes intéressé et correspondez au profil, merci d’envoyer votre CV à jour.

Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).
Offre d'emploi
Développeur DevOps Cloud
🎯 Contexte Nous recherchons un Développeur Senior DevOps GCP pour intervenir sur une plateforme stratégique de calculs de risque Equity au sein d’un groupe bancaire international. Vous rejoindrez l’équipe en charge du développement et de la transformation de la plateforme vers une architecture micro-services déployée sur Google Cloud Platform (GCP). 🔎 Missions Intégré(e) à l’équipe, vous serez en charge de : Développer et maintenir les composants de la chaîne end-to-end du calcul de risque. Répondre aux enjeux de performance, scalabilité, résilience et sécurité. Mettre en place et exécuter les tests, déployer en production et rédiger la documentation. Travailler principalement sur GCP, avec une ouverture sur AWS. Participer au monitoring, à la maintenance et au support des applications (astreintes incluses). Contribuer à l’amélioration continue des pratiques DevOps au sein de l’équipe. 🛠 Compétences recherchées 5 ans d’expérience minimum en développement et DevOps. Excellente maîtrise de Java, Python, Jenkins, Terraform, Kubernetes et GCP/AWS. Connaissances appréciées en C++ et SQL. Anglais courant, environnement international. Une expérience dans les domaines Equity, Pricing ou Risk est un atout. 📍 Localisation & Conditions Basé en Ile-de-France. Démarrage : dès que possible.

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.
Offre d'emploi
Ingénieur SysOps Cloud GCP
Nous recherchons pour l'un de nos clients un(e) Ingénieur(e) SysOps Cloud Public qui aura la responsabilité d’assurer le MCO (Maintien en Condition Opérationnelle), la sécurisation et l’optimisation des ressources déployées sur GCP. A ce titre, vos principales missions seront les suivantes : • Administrer et exploiter les environnements GCP. • Gérer les incidents et assurer les astreintes de niveau 2/3. • Optimiser l’usage des ressources GCP (FinOps, performances). • Déployer et maintenir l’automatisation de l’infrastructure (Terraform, CI/CD). • Assurer le durcissement sécurité des environnements et comptes GCP. • Mettre en place et exploiter la supervision centralisée (Cloud Logging, Monitoring). • Rédiger la documentation d’exploitation et former les équipes internes

Offre d'emploi
Ingénieur DevOps (F/H)
CDI/Freelance/Portage 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du retail ? Cette mission est peut-être faite pour vous ! 🚀 Vos missions : Concevoir, mettre en œuvre et maintenir les pipelines CI/CD pour automatiser les processus de build, test et déploiement des applications. Administrer et superviser les environnements d’exécution (on-premise ou cloud), en assurant leur disponibilité, leur sécurité et leur scalabilité. Collaborer avec les équipes de développement et d’infrastructure pour améliorer en continu l’intégration, le déploiement et la fiabilité des services, tout en promouvant les bonnes pratiques DevOps (IaC, monitoring, containerisation, etc.).

Offre d'emploi
Business Analyst - Secteur Automobile (H/F)
Vous souhaitez rejoindre un projet d’envergure dans le secteur industriel, au cœur de l’innovation digitale et des nouvelles technologies appliquées aux usines de demain ? Nous recrutons un(e) Business Analyst IT expérimenté(e) avec une forte expertise Manufacturing / Production Automobile pour intégrer une mission stratégique dans le pilotage et la supervision de la production industrielle. Votre rôle : En lien direct avec les équipes métiers et techniques, vous serez le point central entre l’usine et l’IT. Votre mission sera de : - Recueillir et analyser les besoins métiers liés aux environnements de production. - Les transformer en User Stories claires et priorisées pour les équipes de développement. - Participer à la définition des scénarios métiers et des cas de test. - Vérifier la bonne mise en œuvre des évolutions et en assurer le reporting. - Contribuer à l’évolution d’applications stratégiques.
Mission freelance
Cloud Engineer / Architecte
Dans le cadre de projets de transformation digitale et de modernisation des infrastructures, nous recherchons un Cloud Engineer / Architecte pour concevoir, déployer et sécuriser des solutions cloud au sein d’un environnement hybride et multi-cloud. Le consultant interviendra à la fois sur la conception d’architectures cibles et sur la mise en œuvre opérationnelle des solutions, en lien direct avec les équipes systèmes, réseaux, sécurité et développement. Missions Concevoir et mettre en place des architectures cloud (AWS, Azure, GCP). Définir les bonnes pratiques en termes de sécurité, haute disponibilité, scalabilité et optimisation des coûts . Déployer et administrer les environnements IaaS, PaaS et solutions managées (Kubernetes, bases de données, stockage). Automatiser le déploiement via l’ Infrastructure as Code (Terraform, Ansible, CloudFormation, Bicep). Participer aux projets de migration vers le cloud et à l’intégration d’architectures hybrides. Mettre en place le monitoring, la supervision et l’alerting des environnements. Collaborer avec les équipes DevOps, Réseaux & Sécurité pour garantir la cohérence des infrastructures. Assurer une veille technologique sur les services cloud et les tendances du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.