Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 708 résultats.
Freelance
CDI

Offre d'emploi
Senior IT Production Data Analyst / Incident Manager

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
CDI

Offre d'emploi
Développeur(se) FullStack H/F

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
CI/CD

Chambéry, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner - Data H/F

CONSORT GROUP
Publiée le
JIRA

40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
PostgreSQL
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Analyste (H-F) à Niort

K-Lagan
Publiée le
Big Data

1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Freelance

Mission freelance
Data analyst / Support analyst

UCASE CONSULTING
Publiée le
Microsoft Excel

3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
CDI

Offre d'emploi
Ingénieur DevOps

NEWRAMA
Publiée le
Artifactory
DevOps
Gitlab

Guyancourt, Île-de-France
Le titulaire du poste assure la gestion complète des changements et des requêtes via l'outil ServiceNow, de l'évaluation des impacts jusqu'à la clôture des dossiers. Il est responsable de la résolution des incidents sur son périmètre, de la coordination des compétences techniques pour restaurer le service et de la communication client dans le respect des délais contractuels. Dans le cadre des projets, il intervient sur l'ensemble des environnements, de l'intégration à la production, tout en étant garant des normes d'exploitabilité. La mission implique également une gestion proactive des problèmes pour identifier les causes racines et proposer des solutions pérennes. Enfin, la rédaction de documents d'exploitation, de procédures techniques et de rapports post-mortem constitue une part essentielle de l'activité.
Freelance

Mission freelance
Senior Application Manager (Run applicatif & Intégration) - 92 - ASAP

Montreal Associates
Publiée le
.NET
API
Azure

11 mois
700-800 €
Nanterre, Île-de-France
𝗔𝗽𝗽𝗹𝗶𝗰𝗮𝘁𝗶𝗼𝗻 𝗠𝗮𝗻𝗮𝗴𝗲𝗿 (𝗥𝘂𝗻 𝗔𝗽𝗽𝗹𝗶𝗰𝗮𝘁𝗶𝗳 & 𝗜𝗻𝘁𝗲́𝗴𝗿𝗮𝘁𝗶𝗼𝗻 .𝗡𝗲𝘁/𝗝𝗦) - 𝟵𝟮 📍 𝟵𝟮 - 𝟯 𝗷𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 ⏳ 𝗔𝗦𝗔𝗣 - 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗹𝗼𝗻𝗴𝘂𝗲 𝗲𝗻 𝘁𝗲𝗺𝗽𝘀 𝗽𝗹𝗲𝗶𝗻 𝗔𝗻𝗴𝗹𝗮𝗶𝘀 𝗳𝗹𝘂𝗶𝗱𝗲 𝗼𝗯𝗹𝗶𝗴𝗮𝘁𝗼𝗶𝗿𝗲 Nous recherchons un Application Manager senior freelance pour piloter le run applicatif d’un périmètre critique (applications in-house & SaaS). – Pilotage MCO / support / SLA – Coordination de plusieurs fournisseurs – Référent technique (NodeJS / .NET, APIs, intégration) – Interface avec les métiers (Call Centers) #Freelance #RunApplicatif #ApplicationManager #NodeJS #DotNet #API
Freelance

Mission freelance
245891/Data engineer Spark Nantes

WorldWide People
Publiée le
Apache Spark

12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
CDI
Freelance

Offre d'emploi
Expert Active Directory Lille (H/F)

AVA2I
Publiée le
Active Directory
Azure Active Directory
Windows Server

3 ans
Lille, Hauts-de-France
Dans le cadre du renforcement de son équipe Infrastructure, un acteur majeur du secteur des paiements recherche un Ingénieur Systèmes Microsoft spécialisé Active Directory pour intervenir sur des environnements critiques à forte exigence de disponibilité et de sécurité. Vous intégrerez une équipe en charge de l’administration, de l’évolution et de la sécurisation des infrastructures Microsoft au sein d’un grand compte international. 🛠 Vos missions🔹 Administration & Exploitation Administration avancée de l’environnement Active Directory Gestion des contrôleurs de domaine (installation, maintenance, supervision) Administration des services DNS / DHCP Gestion des GPO , comptes, groupes et stratégies de sécurité Administration et gestion des certificats / PKI 🔐 Sécurité & Conformité Durcissement des serveurs Windows Gestion des accès et habilitations Mise en œuvre des bonnes pratiques de sécurité Microsoft Audit des droits et contrôle de conformité 🔄 Projets & Évolutions Participation aux projets de migration Active Directory Intégration Azure AD / Entra ID dans des environnements hybrides Automatisation des tâches via PowerShell Rédaction de la documentation technique 🧩 Support & Expertise Support N2/N3 Résolution d’incidents complexes Analyse de performance et optimisation Accompagnement des équipes techniques 🖥 Environnement technique Windows Server 2016 / 2019 / 2022 Active Directory GPO DNS / DHCP PowerShell Azure AD / Entra ID (apprécié) Outils de supervision VMware ou Hyper-V
Freelance

Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.

WorldWide People
Publiée le
PySpark
Python

12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Freelance
CDI

Offre d'emploi
Consultant DevOps IaC

KLETA
Publiée le
Ansible
Terraform

3 ans
Paris, France
Dans le cadre d’un programme de transformation DevOps, nous recherchons un Consultant DevOps Automation pour structurer et automatiser l’ensemble du cycle de delivery des infrastructures et applications. Vous analyserez les pratiques existantes et proposerez une trajectoire cible basée sur l’Infrastructure as Code, l’automatisation des configurations et l’orchestration des déploiements. Vous guiderez la mise en place de solutions utilisant Terraform, Ansible, Helm ou équivalent, et travaillerez à la standardisation des environnements (dev, staging, prod). Vous serez responsable de la fiabilisation des pipelines CI/CD, de l’intégration de contrôles automatisés (tests, scans de sécurité, validation de conformité) et de la mise en place de mécanismes de rollback. Vous collaborerez étroitement avec les équipes Cloud, DevOps et SRE pour améliorer la résilience, la traçabilité et la reproductibilité des déploiements. Vous aurez également un rôle clé dans l’accompagnement des équipes techniques, l’animation d’ateliers et la diffusion des bonnes pratiques d’automatisation et de delivery continu.
Freelance
CDI

Offre d'emploi
Chef de Projet WMS/Data

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
Freelance

Mission freelance
Consultant SAP Data Migration

CRYSTAL PLACEMENT
Publiée le
SAP

12 mois
Paris, France
Nous recherchons des consultants SAP confirmés / Data Migration Experts pour un projet stratégique de migration S/4HANA . Profil recherché : BA confirmé ou Data Migration Expert Expérience sur projets Core Model ou roll-out SAP Compréhension des processus industriels / manufacturiers (PP / QM / MM / APO) Capacité à structurer méthodologie, templates et règles de migration Forte posture coordination, animation et arbitrage Mission : Pilotage complet de la migration de données : préparation, cycles MOCK / UAT et production Définition et suivi des templates, mapping rules et séquences de chargement Support aux équipes métier et animation de la communauté Data Migration Experts Durée : 1 an minimum Séniorité : 4 à 7 ans d’expérience Intéressé(e) ou à recommander ? Envoyez votre CV directement pour être contacté.
Freelance

Mission freelance
Devops Sophia Antipolis BAC+5 Obligatoire Anglais Obligatoire

WorldWide People
Publiée le
DevOps

6 mois
330 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Devops Sophia Antipolis BAC+5 Obligatoire Anglais Obligatoire Environnement anglophone Docker, OpenShift, Kubernetes, Azure, AWS • Helm, Jenkins, Nexus, Artifactory, Bitbucket, Git, CI/CD • Administration système Linux • Apache, JBoss • Python, Bash, Jenkins, PowerShell • JavaScript, Django, HTML, XML, JSON • Qlik, Splunk, Argo CD • Réseau (TCP/IP, services web, équilibreurs de charge, pare-feu, SFTP, VPN, etc.) • Oracle / requêtes de base de données Responsabilités principales • Fournir les plates-formes requises pour les équipes Dev/QA ainsi que pour les environnements client UAT et de production. • Mettre en œuvre, maintenir et améliorer les processus opérationnels (automatisation, script, normalisation, etc.). • Prototyper et déployer de nouvelles techniques de déploiement pour les plates-formes locales et basées sur le cloud. • Intégrer de nouvelles technologies logicielles et architectures pour les produits informatiques aéroportuaires. • Enquêter, diagnostiquer et résoudre les problèmes techniques rencontrés sur les plates-formes. • Ordonnancer la construction et la promotion des versions logicielles vers les environnements de production. • Documenter les flux de travail, les processus de construction/déploiement et les architectures d'infrastructure. • Coordonner les projets d'infrastructure technique et les versions logicielles de la plate-forme. Exigences • Diplôme universitaire en informatique ou dans un domaine connexe, ou expérience équivalente. • 5 ans d'expérience en tant qu'ingénieur système, développeur ou spécialiste du support technologique. • Expérience de la mise en œuvre et du support de plates-formes de serveur d'application. • Capacité à travailler sous pression, y compris en production. • Expérience de la programmation dans des langages de script (Bash, PowerShell, Python, etc.). • Capacité à prioriser, à effectuer plusieurs tâches et à se concentrer sur l'achèvement des tâches dans un environnement de travail dynamique. • Capacité à prendre des initiatives individuelles pour résoudre des problèmes récurrents et optimiser les flux de travail via l'automatisation ou les outils. • Capacité à analyser l'infrastructure pour comprendre pleinement les flux d'application, les dépendances des produits et les contraintes de la base de données. • Expérience de travail dans des environnements multiculturels et internationaux. • Maîtrise de l'anglais écrit et parlé. Technologies • Docker, OpenShift, Kubernetes, Azure, AWS • Helm, Jenkins, Nexus, Artifactory, Bitbucket, Git, CI/CD • Administration système Linux • Apache, JBoss • Python, Bash, Jenkins, PowerShell • JavaScript, Django, HTML, XML, JSON • Qlik, Splunk, Argo CD • Réseau (TCP/IP, services web, équilibreurs de charge, pare-feu, SFTP, VPN, etc.) • Oracle / requêtes de base de données Profil bac + 5 ou école d'ingénieur
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
5708 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous