L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 839 résultats.
Mission freelance
Chef de Projet Technique Infrastructure AWS
Publiée le
AWS Cloud
Linux
1 an
100-500 €
Paris, France
Télétravail partiel
Dans un contexte de transformation et de modernisation de son système d’information, un groupe de taille intermédiaire recherche un Chef de Projet Technique Infrastructure AWS pour piloter des projets à forte dominante cloud. Vous intervenez sur plusieurs projets infrastructure en parallèle, depuis la phase de cadrage jusqu’à la mise en production. Le poste combine pilotage de projet et compréhension technique approfondie , afin de garantir l’avancement des sujets sans dépendre exclusivement des équipes de production. Le chef de projet n’a pas de responsabilité hiérarchique directe mais coordonne les différentes équipes techniques internes ainsi que les prestataires externes. Les projets peuvent être très variés : certains nécessitent uniquement du pilotage, d’autres démarrent d’une feuille blanche et demandent une forte implication technique et fonctionnelle.
Offre d'emploi
Ingénieur DevOps
Publiée le
AWS Cloud
Terraform
1 an
Roubaix, Hauts-de-France
Télétravail partiel
Projet stratégique : Migration vers AWS Vous êtes passionné par le Cloud et l’automatisation ? Rejoignez notre programme Move to Cloud et participez à la transformation digitale en industrialisant les déploiements AWS avec les meilleures pratiques DevOps. Vos missions Concevoir et faire évoluer des modules Terraform (priorité) et CloudFormation . Industrialiser les environnements AWS (VPC, EC2, RDS, Lambda, S3, IAM…). Garantir la conformité des stacks : sécurité, monitoring, logs, patching . Accompagner les équipes projets sur l’ intégration continue et le déploiement automatisé (CI/CD) . Documenter les composants et partager les bonnes pratiques.
Mission freelance
Architecte Cloud Senior AWS H/F
Publiée le
AWS Cloud
Docker
Kubernetes
6 mois
640-680 €
Guyancourt, Île-de-France
Télétravail partiel
Bonjour, Pour un de mes clients, je suis à la recherche d'un Architecte Cloud Senior H/F. Lieu : Guyancourt Date : ASAP Durée : 6 mois minimum TJM : 680€/J max Mission : Concevoir des architectures Cloud AWS sécurisées et évolutives pour répondre aux besoins des clients Implémenter et déployer des solutions Cloud AWS Conseiller les clients sur les meilleures pratiques en matière de Cloud AWS et les aider à optimiser leurs investissements Gérer et maintenir les infrastructures Cloud AWS, en assurant la disponibilité, la sécurité et les performances. Collaborer avec les équipes de développement et d'exploitation pour intégrer les solutions Cloud AWS dans les workflows existants. Une solide expérience dans la mise en place et la gestion d'infrastructures Cloud et Landing Zone AWS Une connaissance des outils de conteneurisation tels que Docker et Kubernetes Des compétences en Scripting et en développement (KCC/Terraform, Python, etc.) De bonnes connaissances en réseaux Une capacité à travailler en équipe et à collaborer efficacement avec les développeurs D'excellentes compétences en résolution de problèmes et en dépannage.
Mission freelance
Expert BDD AWS
Publiée le
AWS Cloud
AWS Cloudwatch
DevOps
6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Offre d'emploi
Architecte Système Cloud AWS
Publiée le
Architecture
AWS Cloud
Management
80k-85k €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Système Cloud AWS en CDI répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/ARCHI/4969 en objet du message Vos responsabilités Missions : Décliner la vision d’architecture système à l’échelle des produits et applicatifs de l'entité Intégrer les besoins métier dans la définition de la roadmap d’architecture de l'entité Assumer le rôle de Business Owner de l’entité plateforme et porter des besoins via le portfolio DSI Garantir la non-obsolescence du SI de l’entité, via une veille active et une stratégie de modernisation continue Collaborer étroitement avec les techs leads et leads dev pour s’assurer de la bonne mise en œuvre de la roadmap logicielle et technique Identifier et remonter les besoins en compétences nécessaires pour accompagner les évolutions d’architecture Participer à la définition, au cadrage et à l’évaluation des initiatives transverses (sécurité, observabilité, interopérabilité, etc.). Activités : Participer au cadrage des besoins portés par son entité, à travers des études d’architecture impliquant les parties prenantes clés (architectes d’entreprise, sécurité, PO/PM, leads tech /lead dev…) ; Contribuer à la construction du portfolio de son entité et représenter celui-ci dans les instances du portfolio DSI ; Porter des besoins techniques structurants (ex : monitoring, automatisation, outils de delivery), en assurant leur cadrage et leur priorisation ; Participer activement aux cérémonies agiles de l’entité (refinement, PI Planning, démonstrations…) ; Élaborer des dossiers d’architecture en lien avec les normes internes et le catalogue des composants homologués ; Être moteur dans les Communautés de Pratiques (CoPs) en partageant des retours d’expérience, bonnes pratiques et innovations ; Participer aux recrutements techniques. Gestion projets : Garantir la cohérence des infrastructures dans le cadre de l’urbanisation du SI Participer à la définition et à la mise en œuvre de la roadmap technique ; S’assurer de l’alignement avec la stratégie d’entreprise. Accompagner les équipes projets dès la phase de cadrage Participer aux comités d’architecture selon le sujet Apporter une expertise sur les choix d’infrastructure (on-prem, cloud, hybride) ; Valider les livrables techniques (dossiers d’architecture, plans d’exploitation…). Veille et amélioration continue : Suivre l’évolution des technologies (virtualisation, containerisation, cloud, sécurité…) Identifier des axes d’amélioration de l’existant (disponibilité, coût, performance) Participer à des communautés d’architectes (guildes, chapters, COPs…)
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Développeur Back-end Java AWS (H/F)
Publiée le
AWS Cloud
Gitlab
Java
12 mois
500-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Contexte Intégré à une Feature Team Agile , vous interviendrez sur des applications backend en production à forts enjeux de stabilité et de performance. La mission s’inscrit dans un contexte de maintien en haute performance des systèmes existants , avec un rôle clé dans la transmission de l’expertise métier vers les équipes en charge de la nouvelle plateforme. Missions Excellence opérationnelle & MCO Assurer le run et les évolutions des briques historiques Diagnostiquer et corriger des incidents de production complexes en environnement distribué Contribuer à un objectif de MTTR < 1h et à l’absence de régression critique Qualité & refactoring Appliquer des standards de qualité modernes (clean code, pyramide des tests) sur du code existant Augmenter la couverture de tests automatisés afin de sécuriser les livraisons fréquentes Transmission & knowledge management Documenter les règles de gestion complexes (tarification, billettique, spécificités régionales) Collaborer avec les équipes en charge de la nouvelle plateforme afin d’expliquer le fonctionnement actuel et faciliter la migration future Livrables Fonctionnalités backend conçues, développées et maintenues en environnement de production Corrections d’incidents et améliorations garantissant la stabilité applicative Code sécurisé et fiabilisé via des tests automatisés Documentation technique et fonctionnelle facilitant la transmission de connaissances Contributions continues à l’amélioration de la qualité et des pratiques de l’équipe Environnement technique Java : 11 / 17 (connaissance de Java 21 appréciée) Frameworks : Spring Boot, Spring Batch Architecture : services distribués, REST API, SOAP (legacy), MongoDB Cloud : AWS, Lambda CI/CD & outils : Git, GitLab CI, Jenkins, Sonar, Datadog Méthodologie : Agile (Scrum / Kanban), pratiques DevOps Compétences clés Obligatoires : Java, GitLab, AWS. Importantes : Spring Boot, Docker, API, connaissance des environnements de production. Intéressantes : Kotlin, NodeJS.
Mission freelance
Architecte AWS
Publiée le
AWS Cloud
1 an
500-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Architecte Architecte logiciel et applicatif / Cloud AWS. Secteur d'activité client final : énergie Contexte : Le consultant interviendra dans une équipe en tant qu’architecte applicatif et logiciel sur les technologies Cloud AWS. Son rôle d’Architecte Cloud consistera à assembler (Architecte ensemblier) de services applicatifs (souvent fournis par un service Platform sous forme de module Terraform) pour intégrer des frameworks logiciels, des services de stockage, des services d’IA, de l’outillage de IAC/CI/CD, d’outillage d’observabilité ou de résilience.
Offre premium
Mission freelance
Formateur IT - BTS SIO SISR
Publiée le
Administration systèmes et réseaux
AWS Cloud
Scripting
3 mois
260-300 €
Saint-Denis, Île-de-France
Bonjour, Dans le cadre de la recherche pour une de nos marques en interne. Nous avons besoin d'un Formateur Technique qui a déjà eu une expérience professionnelle significative en administration systèmes/réseaux ou sécurité informatique et une expérience en formation est obligatoire en BTS SIO SISR. C'est une mission à temps partiel tous les mercredis et les jeudis . Compétences techniques indispensables: Systèmes : Windows Server, Linux (Ubuntu/Debian), AD, GPO Réseaux : VLAN, routage, firewall, VPN, services réseaux Supervision : Centreon, Zabbix, Nagios Virtualisation : VMware, Hyper-V, Proxmox Cloud : Azure (idéal), AWS (apprécié) Cybersécurité : Hardening, pare-feu, IDS/IPS, analyse de logs Scripts : Bash, PowerShell Outils : Git, Docker (bonus), GLPI, OCS, Visio /
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Offre d'emploi
DevOps Engineer - CDI
Publiée le
Ansible
AWS Cloud
DevOps
55k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
🛠️ Missions principales Maintien opérationnel & fiabilité de la plateforme Superviser l’ensemble des environnements (préprod, staging, prod…) Mettre en place / améliorer le monitoring, les alertes et la supervision S’assurer de la bonne exécution des pipelines et des déploiements Garantir la disponibilité, la performance et la stabilité du SaaS CI/CD & automatisation Maintenir et améliorer une CI/CD mature sous GitLab Gérer la génération d’images Docker, pipelines multi-serveurs, tests automatisés Automatiser la création/destruction d’environnements à la volée Soutenir les équipes QA (tests fonctionnels automatisés) Infrastructure & IaC Maintenir l’infrastructure Kubernetes existante Maintenir et faire évoluer l’IaC complète en Terraform Améliorer les process d’automatisation avec Ansible Aider ponctuellement d’autres équipes à industrialiser leurs outils internes FinOps & optimisation des coûts Suivre l’usage de l’infrastructure au quotidien Participer au pilotage de la consommation cloud (alertes quotidiennes, revue hebdo) Analyser l’impact budgétaire des évolutions Terraform (plan vs apply) Proposer des optimisations pragmatiques Sécurité & bonnes pratiques Maintenir les niveaux de sécurité de la plateforme Garantir la conformité des environnements Appliquer les best practices DevOps / Cloud / Kubernetes Collaboration et participation aux rituels Participer activement aux points Kaizen avec les leads techniques Proposer des améliorations continues Fournir des outils fiables aux développeurs & aux équipes métier Travailler en étroite collaboration avec le manager technique (support constant) Stack technique Cloud AWS (maîtrise attendue) Connaissance Azure appréciée (migration prévue à moyen terme) IaC & orchestration Terraform (incontournable) Kubernetes Ansible CI/CD GitLab CI (self-hosted) Docker GitLab Registry Bonus Connaissance des langages de la plateforme : PHP Node.js / TypeScript / NestJS
Mission freelance
Tech Lead Full Stack .NET / React H/F - Cloud AWS - freelance - Le Havre
Publiée le
1 mois
76600, Le Havre, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : En tant que Tech Lead , vous interviendrez au cœur des projets et serez garant de la qualité technique des solutions développées : Piloter, encadrer et sécuriser les travaux des équipes de développement Participer à la définition des stratégies techniques lors des phases de discovery Concevoir et développer les fonctionnalités durant les phases de delivery Réaliser et animer les revues de code Mettre en place et améliorer les tests automatisés Contribuer aux processus CI/CD afin d’optimiser les déploiements et la qualité des livraisons Veiller au respect des standards de développement et des bonnes pratiques Participer activement aux rituels d’amélioration continue et aux démarches de résolution de problèmes L’environnement technique : Développement Full Stack : .NET Core React Architecture : Microservices API Gateway DevOps : CI/CD Containerisation (Docker, etc.) Cloud : AWS Vous, notre perle rare : 12 à 15 ans d’expérience minimum en développement logiciel Au moins 5 ans d’expérience en tant que Tech Lead Solide vision architecture et qualité logicielle Leadership technique, capacité à fédérer et accompagner les équipes Sens des responsabilités, rigueur et esprit d’amélioration continue Pourquoi rejoindre ce projet ? Projet à fort enjeu tehcnique Environnement moderne orienté bonnes pratiques Rôle clé avec une réelle influence sur les décisions techniques Collaboration étroite avec des équipes expertes et engagées Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : En fonction de votre expertise Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Offre d'emploi
Lead Developer Node.js / AWS
Publiée le
AWS Cloud
Node.js
52k-72k €
69009, Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Offre d'emploi
Release Train Engineer (IaaS/Cloud public) sur Nanterre
Publiée le
AWS Cloud
IaaS (Infrastructure-as-a-Service)
Terraform
3 mois
Nanterre, Île-de-France
Je recherche pour un de mes clients un Release Train Engineer (IaaS/Cloud public) sur Nanterre Mission: La prestation demandée vise à faciliter et aider au pilote de la performance au niveau de la chaine de services Cloud Public. Elle est désignée par le le rôle de « Release Train Engineer (RTE) » au sein de la chaine de service CLOUD PUBLIC. Les activités principales du TITULAIRE pour cette prestation seront donc : ? Planifier et animer la cadence de la chaine de services : établir et communiquer le calendrier annuel des sprints et des PI, planifier les ateliers System Demo et Inspect & Adapt. ? S’assurer de la préparation du PI Planning : vérifier que la vision et le backlog de Features soient complets, clairs et prêts pour la planification. ? Animer les cérémonies clés : PI Planning, ART Sync, System Demo, Inspect & Adapt. ? Coordonner les équipes via l’ART Sync : suivre l’avancement, lever les obstacles, piloter la performance collective et les risques systémiques. ? Diffuser la vision et les objectifs du domaine à travers les équipes : donner du sens et assurer la cohérence. ? Collaborer avec Responsables Chaine de Services, System Architects et Responsables de Domaine : maximiser la valeur générée. ? Soutenir l’adoption des pratiques agiles par les équipes et les parties prenantes ? conseiller et accompagner pour une mise en œuvre efficace et efficiente. COMPETENCES CLES : 1 - Primordial (redhibitoire si absent) - Connaissance de l’agilité et de l’agilité à l’échelle (méthode SAFe notamment) 2 - Principal - Management visuel (une première expérience ou une sensibilisation préalable aux outils est nécessaire) 3 - Principal - Capacité à anticiper les impacts techniques ou les risques associés et alerter 4 - Primordial (redhibitoire si absent) - Capacité à analyser une situation complexe et être force de propositions 5 - Primordial (redhibitoire si absent) - Capacité à communiquer (oral et écrit) et aptitude à animer des réunions (audio... ou réunions physiques) et des évènements de type présentation formation devant un public de personnes et tous les évènements SAFe 6 - Primordial (redhibitoire si absent) - Capacité à rédiger des documents 7 - Principal - Compréhension des clients internes et de leurs besoins 8 - Principal - Esprit de synthèse 9 - Primordial (redhibitoire si absent - Ecoute, communication et travail en équipe 10 - Primordial (redhibitoire si absent) - Rigueur et organisation 11 - Principal - Connaissances des normes et des règles de sécurité Informatique et Télécommunication 12 - Souhaitée - Connaissance de l’ENTREPRISE EDF, organisation, métiers, environnement) 13- Principal - Polyvalence et autonomie, bon relationnel, sens du service, force de proposition 14 - Principal - Capacité à synthétiser les informations pour assurer une documentation efficace TECHNIQUES : 1 - Primordial (redhibitoire si absent) - Capacité à réaliser des reporting (utilisation plus poussée d’Excel, voir sur la mise en place de macro) sur JIRA et EasyBI 2 - Principale - Pack Office et Messagerie Outlook et SHARE POINT 3 - Primordial (redhibitoire si absent) - Capacité à réaliser des reporting (utilisation plus poussée d’Excel, voire sur la mise en place de macro) 4 - Primordial (rédhibitoire si absent) - Connaissance des fonctionnalités des services Cloud Amazon Web Services (résesau, IAM, stockage, cyber, calcul, etc.) : savoir de quoi il s’agit, le fonctionnement global des services, les principes de facturation du cloud AWS, le principe de responsabilité partagée, les principes d’architectures AWS 5 - Souhaitée - Connaissance des fonctionnalités Terraform Démarrage: 19 janvier Localisation : Picasso - Nanterre
Mission freelance
Data Engineer Python / AWS (h/f)
Publiée le
1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
1839 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois