L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 846 résultats.
Mission freelance
[SCH] Ingénieur CloudOps / SysOps AWS ou Azure - 1034
Publiée le
5 mois
300-390 €
Paris, France
Contexte de la mission : Au sein de la direction Cloud du groupe, vous interviendrez sur la mise en œuvre, l’industrialisation et le maintien en conditions opérationnelles (MCO) des infrastructures Cloud, dans un environnement critique à forte disponibilité. Vous contribuerez activement à l’automatisation, au FinOps et à la sécurisation des services Cloud tout en assurant le support technique de niveau 2/3. Missions principales : -Concevoir, intégrer et faire évoluer les infrastructures Cloud (AWS / Azure) et les services associés. -Participer à l’industrialisation des environnements en lien avec les équipes DevOps / R&D. -Gérer les incidents, changements et problèmes (ITIL) sur des plateformes de production critiques. -Automatiser les déploiements et configurations via Terraform / Ansible / GitHub / Azure DevOps. -Assurer le MCO, le monitoring et l’optimisation continue (Dynatrace, Splunk, Prometheus…). -Contribuer à la sécurité opérationnelle (ISO 27001) et à la conformité. -Documenter les architectures, procédures et livrables techniques. -Assurer le transfert de compétences vers les équipes N1 et opérationnelles. Livrables attendus : -Documentation technique et d’exploitation à jour. -Rapports de performance et recommandations d’optimisation (FinOps, sécurité, SLA). -Scripts et pipelines d’automatisation. -Tableaux de bord de supervision / monitoring. Profil recherché : - +7 ans d’expérience en CloudOps / SysOps dans des environnements critiques (IaaS/PaaS). -Maîtrise des plateformes AWS et/ou Azure. -Solides compétences en scripting (Python / PowerShell), Linux / Windows, et CI/CD. -Expérience confirmée en Terraform, Ansible, monitoring APM (Dynatrace, Splunk). -Connaissances des bases de données (SQL Server, Oracle, MySQL, Cosmos DB). -Anglais professionnel courant. -Esprit analytique, rigueur, sens de l’anticipation et excellence opérationnelle.
Mission freelance
PRODUCT OWNER TECHNICO-FONCTIONNEL WEB(H/F)
Publiée le
Azure
1 an
La Défense, Île-de-France
Télétravail partiel
1 jour sur site par semaine obligatoire Anglais professionnel obligatoire FICHE MISSION – PRODUCT OWNER TECHNICO-FONCTIONNEL WEB (Plateforme Digitale) (Version anonyme – Consolidée) Objectif global de la mission Concevoir, piloter et faire évoluer une plateforme Web à fort trafic, en développant de nouveaux services digitaux, en améliorant les parcours existants et en garantissant une expérience utilisateur optimale. Contrainte forte du projet Environnement technique Web complet : • Symfony / PHP • React • APIs REST Livrables attendus • Application stricte de la méthode Agile • Gestion complète du Product Backlog • Recette fonctionnelle & suivi de la qualité • Organisation des tests utilisateurs • Spécifications fonctionnelles détaillées • Documentation fonctionnelle consolidée Compétences techniques requises Compétence Niveau Importance Méthodes Agile Confirmé Impératif General Compétence Niveau Importance Symfony / PHP – React – APIs REST Confirmé Impératif SQL Confirmé Important SEO Confirmé Important Connaissances linguistiques • Anglais courant (secondaire) Description détaillée de la mission La mission s’inscrit au sein d’un département digital orienté clients particuliers, entreprises et collectivités, avec une forte ambition : apporter des réponses concrètes aux enjeux environnementaux via des services numériques performants et utiles. Le/la Product Owner interviendra sur une plateforme Web stratégique, avec plus d’1,5 million de visites mensuelles, au sein d’une équipe digitale pluridisciplinaire. 1. Pilotage Produit & Vision • Challenger la solution sur les aspects techniques, fonctionnels et UX • Élaborer, structurer et maintenir la vision produit • Prioriser les besoins métier en intégrant valeur, faisabilité et contraintes techniques • Gérer, maintenir et arbitrer le Product Backlog • Définir les versions et suivre le planning de livraison 2. Développement & Spécifications • Rédiger les User Stories, critères d’acceptation et spécifications détaillées • Participer à la définition des architectures fonctionnelles et techniques de haut niveau • Travailler en étroite collaboration avec les équipes Front, Back, Infra, Support et Cybersécurité 3. Recette & Qualité • Organiser et exécuter la recette fonctionnelle • Valider les développements avant mise en production • Identifier, analyser, reproduire et qualifier les incidents • Organiser les tests utilisateurs et recueillir les feedbacks General • Piloter la maintenance corrective et évolutive en lien avec la TMA • Garantir le respect de la sécurité et du RGPD 4. Amélioration continue • Proposer des évolutions techniques et UX • Optimiser la performance, les parcours et les usages • Analyser les logs applicatifs et impacts fonctionnels • Participer à la croissance des usages digitaux et aux nouveaux service Profil recherché Formation Bac+5 en Informatique, Digital ou Ingénierie. Expérience Minimum 5 ans en tant que : • Product Owner, • AMOA digital, • ou profil hybride technico-fonctionnel Web. Soft Skills • Passion pour le digital & sensibilité environnementale • Forte orientation expérience utilisateur • Excellente communication • Autonomie, rigueur, organisation • Capacité d’arbitrage & de priorisation • Aisance dans un environnement Web complexe Compétences additionnelles • Très bonne compréhension des logs applicatifs • Connaissance SQL (modèles & requêtes simples) • Culture sécurité IT & conformité RGPD • Capacité à concevoir des architectures fonctionnelles cohérentes Outils utilisés Azure DevOps, Trello, Slack, New Relic, GitHub, Postman, SoapUI, O365.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Platform Reliability Engineer Bilingue sur le 78
Publiée le
Azure
Datadog
Kubernetes
3 mois
Yvelines, France
Je recherche pour un de mes clients un Platform Reliability Engineer sur le 78 Mission: La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps. • Vous maintenez et faites évoluer les Helm charts utilisés pour le déploiement sur Kubernetes (AKS). • Vous intégrez SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. • Vous collaborez avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. • Vous assurez le support de niveau 3 sur les services de la plateforme et contribuez aux analyses post-incident. Connaissances techniques • Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable. Démarrage : ASAP Mission: Longue
Mission freelance
Expert BDD AWS
Publiée le
AWS Cloud
AWS Cloudwatch
DevOps
6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Offre d'emploi
DevOps Engineer (H/F)
Publiée le
Azure
CI/CD
Confluence
3 ans
38k-43k €
300-370 €
Osny, Île-de-France
Télétravail partiel
Nous recherchons un(e) Ingénieur DevOps IT expérimenté(e) pour renforcer notre équipe Infrastructure. Avec un rôle transversal entre cloud Azure , middleware et outillage CI/CD , vous contribuerez directement à la performance, la sécurité et la scalabilité de nos environnements applicatifs. 🎯 Livrables attendus Automatisation & CI/CD Documentation technique Sécurité & conformité 🛠️ Vos missions Garantir la performance, la scalabilité et la sécurité des applications sur Azure et dans la landing zone. Déployer, configurer et maintenir les applications de développement logiciel : Jenkins, Docker, Confluence , etc. Automatiser et simplifier les déploiements pour améliorer la fiabilité des applications cloud. Gérer et superviser l’environnement Azure : Monitoring, Defender, Backup, Firewall… Réaliser les mises à jour, migrations et montées de version des middlewares avec un impact minimal. Surveiller la consommation des ressources cloud, la performance et la conformité sécurité. Soutenir l’équipe infrastructure dans l’exploitation on-premise : VMware, réseau Cisco, stockage/serveurs Dell, Veeam.
Offre d'emploi
Data Engineer Python/DBT
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Architecte Data
Publiée le
Architecture
Azure
4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Mission freelance
Data Analyst Informatica
Publiée le
Azure
ETL (Extract-transform-load)
Informatica
1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Offre d'emploi
DevOps Senior-UNIQUEMENT CDI
Publiée le
Argo CD
Automatisation
AWS Cloud
3 ans
40k-45k €
La Défense, Île-de-France
Télétravail partiel
PAS de SOUS TRAITANCE UNIQUEMENT CDI Notre client HCLTech renforce ses équipes et recherche un(e) Ingénieur DevOps Senior passionné(e) par les environnements CI/CD et les outils de déploiement à grande échelle. Vous interviendrez sur des plateformes critiques, au coeur d’environnements cloud complexes, avec un fort enjeu d’automatisation, de fiabilité et de performance. Vos missions : • Concevoir et faire évoluer des plateformes CI/CD • Administrer et supporter des outils de déploiement (XL Deploy, Argo CD) • Développer des scripts et automatisations • Gérer incidents, changements et problématiques techniques • Collaborer avec des équipes Dev, Infra et Cloud Environnement technique • Cloud : AWS, Microsoft Azure • CI/CD : Argo CD, XL Deploy • Conteneurisation : Docker • Scripting : Python, Shell Unix/Linux • Versioning : Git, GitHub
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Mission freelance
EXPERT IAM / CLOUD / DATA
Publiée le
Cloud
Cryptographie
IAM
6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
3846 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois