Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 112 résultats.
CDI

Offre d'emploi
Développeur Java H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

37k-39k €
Strasbourg, Grand Est
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Grand Est accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'une société de courtage d'assurance, vous intégrerez une équipe de développeurs et de concepteurs dans le cadre d'une prestation d'assistance technique. Vous participerez à la conception et au développement de solutions applicatives basées sur une architecture micro-services Java. Vos responsabilités : • Analyser les besoins métiers et proposer des solutions adaptées • Concevoir et développer des composants applicatifs en Java / Spring Boot • Réaliser les tests (unitaires, intégration, charge) et garantir la qualité du code • Participer aux phases d'intégration et de mise en production • Assurer la maintenance corrective et évolutive des applications • Maintenir les solutions en conditions opérationnelles • Rédiger et maintenir la documentation technique • Contribuer au respect des standards qualité et des bonnes pratiques • Assurer le support utilisateur et le reporting auprès du chef de projet • Rapporter au chef de projet son activité quotidienne et remonter les alertes sur son périmètre d'intervention L'environnement technique : Java, Spring Boot, framework JS, Broker (RabbitMQ, Kafka, JMS), base de données (SQL Server, MongoDB), jUnit, Git, IntelliJ, Maven, Sonar, Jenkins, Ansible, JIRA, Confluence. Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte sur Strasbourg Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : v7cxqrnly2
CDI

Offre d'emploi
Technicien Réfèrent Senior H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

40k-48k €
Corbeil-Essonnes, Île-de-France
Pilotage & Coordination • Encadrer et accompagner les techniciens juniors référents. • Assurer la coordination des activités quotidiennes du support IT. • Maintenir un lien constant avec les responsables métiers et les équipes internes. • Garantir une communication claire, un reporting structuré et une circulation fluide des informations. Support IT de proximité – Niveaux 1 et 2 • Identifier, diagnostiquer et résoudre les incidents courants liés aux postes de travail et périphériques bureautiques. • Intervenir sur site en adaptant les bonnes pratiques aux contraintes d'un environnement industriel. • Assister les utilisateurs dans des délais réactifs. Administration & Environnements de travail • Installation, configuration, mise à jour et dépannage sous Windows 10/11. • Prise en charge des périphériques : imprimantes, scanners, écrans, claviers, souris, téléphonie, stations d'accueil, accessoires USB. Support réseau local • Dépannage de premier niveau : prises RJ45, vérification de liaison, diagnostic de connectivité. • Réalisation de manipulations simples de câblage selon les procédures en vigueur. Gestion des tickets • Création, suivi, enrichissement et clôture des tickets dans un outil ITSM (type ServiceNow ou équivalent). • Documentation précise afin d'assurer la traçabilité et la qualité du support. Escalade & suivi des incidents • Détecter rapidement les demandes hors périmètre N1/N2. • Transmettre les incidents aux équipes de support avancé (N2/N3) avec un niveau d'information complet. • Garantir le respect des priorités opérationnelles. Environnements applicatifs Maîtrise des suites bureautiques et collaboratives : Microsoft 365 (Teams, Outlook, SharePoint...), logiciels bureautiques, et applications métiers de base (sur documentation fournie). Sécurité & conformité • Respect des politiques de sécurité informatique et des règles de gestion des accès utilisateurs. • Application des bonnes pratiques liées aux mots de passe, aux droits d'accès et à la protection des données (RGPD). • Manipulation et circulation des données de manière sécurisée. Référence de l'offre : 9mjrsmpaku
CDI

Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR / PROXIMITE H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

24k-28k €
Toulouse, Occitanie
Missions principales : En tant que technicien Support Utilisateurs vous auriez comme missions : • Assurer le support de proximité auprès des utilisateurs, en identifiant leurs besoins et en garantissant un traitement rapide et efficace des incidents matériels et logiciels. • Gérer et résoudre les incidents liés aux postes de travail, à la téléphonie fixe et mobile, aux imprimantes et aux équipements réseau. • Participer à la maintenance préventive et corrective du parc informatique (Windows 10/11), en veillant à la disponibilité des postes et des outils. • Réaliser les opérations de câblage réseau et de diagnostic de connectivité, en collaboration avec les équipes techniques. • Renseigner et suivre les tickets d'incidents dans les outils ITSM conformément aux procédures internes. • Contribuer aux déploiements et renouvellements de matériel informatique • Effectuer des contrôles réguliers des équipements de visioconférence afin d'assurer leur bon fonctionnement avant les réunions. Référence de l'offre : 1udugorstf
Freelance
CDI

Offre d'emploi
Consultant N3 Réseaux & Sécurité (H/F)

QODEXIA
Publiée le
DNS
Netskope
Proxy

10 jours
Nord, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre d’un projet de transformation sécurité d’envergure pour l’un de nos clients grands comptes, nous recherchons un profil N3 Réseaux & Sécurité afin d’accompagner le déploiement et l’exploitation d’une solution de type SASE.
CDI

Offre d'emploi
Développeur Python, C++, Java et Big Data

CELAD
Publiée le

36k-42k €
Bordeaux, Nouvelle-Aquitaine
CDI / Freelance / Portage Salarial - Pas de télétravail - Bordeaux - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur python pour intervenir chez un de nos clients. Vos missions Vous interviendrez sur plusieurs volets : Data & exploitation Gestion des données d’essais dans les outils internes Correction des anomalies de chargement Gestion et suivi de la documentation associée Réalisation de tests sur les évolutions des outils et des formats de chargement Développement & scripting Développement de scripts en Python (obligatoire) Correction de bugs et maintenance des applications existantes Contributions en C++ et/ou Java API & interconnexions Développement et maintien en conditions opérationnelles des API Interconnexion des applications métiers (ex : outils internes, PLM) Participation à l’industrialisation pour limiter le Shadow IT Rationalisation et amélioration des outils existants Innovation & Data avancée Participation à des sujets Big Data Intégration et connexion de LLMs aux outils existants Collaboration avec les équipes client sur les problématiques data
Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
DATA Analyst SAP BO

ARGANA CONSULTING CORP LLP
Publiée le
Business Object
IDT
Microsoft Power BI

12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
CDI
Freelance

Offre d'emploi
Builder Azure / DevSecOps Data

VISIAN
Publiée le
Azure
Azure DevOps
CI/CD

1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance
CDI

Offre d'emploi
Data Analyst (H/F) – Big Data / Lutte contre la fraude

QODEXIA
Publiée le
Hadoop
PowerBI
PySpark

10 jours
Aix-en-Provence, Provence-Alpes-Côte d'Azur
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Data Analyst (H/F) – Big Data / Lutte contre la fraude Localisation : Aix-en-Provence Démarrage : ASAP Type de mission : Mission longue durée Contexte Dans le cadre d’un projet stratégique autour de la lutte contre la fraude , nous recherchons un Data Analyst capable d’exploiter et d’analyser les données du système d’information afin d’identifier des incohérences, détecter des comportements suspects et proposer des analyses à forte valeur ajoutée pour les équipes métiers. Le consultant interviendra dans un environnement Big Data et contribuera à la mise en place de cas d’usage analytiques et prédictifs.
Freelance
CDI

Offre d'emploi
Data Architecte - LLMOPS

VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning

1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Freelance

Mission freelance
Data Migration SAP Expert 550 e par j

BI SOLUTIONS
Publiée le
Data analysis
SAP

2 ans
400-550 €
Île-de-France, France
Data Migration SAP Expert 550 e par j (x7) avec expérience confirmée (5–8 ans), capable de gérer des migrations de bout en bout dans un environnement SAP. +5 ans d'xp Principales missions : Définir et piloter la stratégie de migration des données (DTM) SAP Gérer le nettoyage des données, les KPIs et le suivi qualité Construire et maintenir les templates de migration (mapping, règles, outils…) Piloter les différentes phases : MOCK1, MOCK UAT, Production Load Analyser les défauts et gérer les écarts de méthodologie Accompagner et former les équipes locales (DMEs) Assurer la cohérence globale entre régions et contribuer à l’amélioration continue 550 e par j
CDI

Offre d'emploi
Expert Mobilité (Unified Endpoint Management) Workspace One H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

50k-60k €
Guyancourt, Île-de-France
Nous recherchons un expert / architecte mobilité spécialisé dans la gestion du MDM Omnissa Workspace One. Vous interviendrez dans le pilotage et la sécurisation de l'environnement mobile du client. Gestion du Mobile Device Management (MDM) - Workspace ONE • Mise en place, configuration et administration de la solution Workspace ONE. • Enrôlement (enrollment) des terminaux mobiles (iOS, Android, Windows, macOS) dans la solution. • Définition et application des politiques de sécurité (chiffrement, mot de passe, verrouillage, etc.). • Gestion du cycle de vie des devices (approvisionnement, supervision, retrait). Déploiement d'applications mobiles • Intégration et gestion des releases applicatives mobiles via Apple Developer et Google Developer dans Workspace ONE. • Intégration de stores d'entreprise (Enterprise App Store). • Gestion des applications publiques et privées, y compris les applications internes spécifiques à l'entreprise. Intégration d'entités à l'infrastructure existante • Accompagnement de nouvelles entités (filiales, départements, etc.) dans l'intégration à l'infrastructure MDM globale. • Adaptation des configurations et politiques aux spécificités de chaque entité. • Intégration avec Active Directory, Azure AD, certificats, SSO, proxies, etc. Sécurité • Implémentation de politiques de sécurité mobile (chiffrement, gestion des accès, effacement à distance). • Surveillance de la conformité (compliance) et réponse aux alertes de sécurité. • Intégration avec les solutions de sécurité globale. • Intégration de Workspace One avec l'infrastructure de PKI et gestion du cycle de vie des certificats pour l'authentification sécurisée des terminaux Résolution d'incidents • Support de niveau 4 sur les problématiques liées aux devices, à Workspace ONE, à la connectivité, aux apps. • Analyse des logs, diagnostics, escalades si nécessaire vers Omnissa ou d'autres éditeurs. • Documentation des incidents et capitalisation. Projets d'évolution de l'infrastructure • Participation à la conception et à la mise en œuvre de projets d'évolution (nouveaux OS, nouvelles versions de Workspace ONE, migration de plateformes). • Études d'impact, POC, documentation, déploiement en production. • Mise en conformité avec les standards ITIL, ISO, RGPD, etc. Compétences transverses • Bonne maîtrise des systèmes d'exploitation mobiles. • Connaissances en réseau (Per-App VPN, proxy, DNS, etc.). • Capacité de gestion de projet (planning, coordination, reporting). • Veille technologique sur la mobilité et les tendances sécurité (Zero Trust, BYOD, etc.). Référence de l'offre : wj2qc6wt3b
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6112 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous