Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Architecte Cloud AWS
Missions principales Définir et mettre en œuvre l’ architecture AWS cible (multi-comptes, VPC, sécurité, services managés). Concevoir des architectures cloud sécurisées, scalables et résilientes pour les applications et la data. Piloter la mise en place des Landing Zones AWS et des standards d’infrastructure (IAM, policies, organisation multi-comptes). Accompagner les équipes DevOps sur les pipelines CI/CD, IaC et automatisation (Terraform, CloudFormation, Ansible). Définir les standards de sécurité et de gouvernance cloud (IAM, KMS, compliance, audit). Superviser le monitoring, le logging et l’optimisation des coûts (CloudWatch, CloudTrail, AWS Cost Explorer). Être force de proposition sur les choix technologiques et l’évolution de la plateforme AWS . Former et conseiller les équipes internes sur les bonnes pratiques cloud.

Offre d'emploi
DevOps AWS
Missions principales Concevoir, déployer et maintenir les infrastructures AWS (EC2, S3, RDS, Lambda, VPC, etc.). Mettre en place et gérer les pipelines CI/CD (GitHub Actions, Jenkins, GitLab CI, etc.). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, CloudFormation, Ansible). Assurer la monitoring, le logging et l’alerte pour garantir la disponibilité et la performance des systèmes. Implémenter les meilleures pratiques de sécurité AWS (IAM, KMS, Security Groups, compliance). Collaborer avec les équipes de développement pour optimiser les processus de déploiement et l’architecture cloud. Participer à la résolution d’incidents , à la gestion des changements et à l’amélioration continue.

Mission freelance
Data Engineer +7 ans d’exp Spark Python AWS (H/F) – IDF
REF : EFP/QMDZN/ODVB Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer +7 ans d’exp Spark Python AWS (H/F) – IDF Mission à pourvoir en régie sur la région IDF Présence sur site : 3 jours / semaine Compétences obligatoires : Spark, Python, SQL, AWS, CI/CD, ETL, Docker, Terraform, PowerBI Mission : · Contribuer à la conception technique et à l’architecture des produits logiciels. · Identifier et proposer des solutions techniques adaptées aux besoins des projets. · Développer certaines fonctionnalités clés et assurer leur intégration dans le produit. · Accompagner et coacher les autres développeurs pour optimiser leur code et partager les bonnes pratiques. · Collaborer étroitement avec l’architecte data pour garantir une intégration fluide des produits dans le SI. · Veiller à la qualité, la performance et la maintenabilité des logiciels livrés. · Soutenir les directions métiers dans la mise en œuvre de leurs cas d’usage data et leur exploitation.

Mission freelance
DATAIKU : Data engineer (Python & Spark & Scala & AWS & NoSQL )
un consultant avec une bonne expérience technique avancée sur Dataiku et son écosystème, afin : • d’améliorer la performance des flows, • d’optimiser l’industrialisation des projets, • d’assurer un rôle de pilotage responsable de la performance et des coûts, et de fluidifier la mise à disposition des données vers les outils d’activation marketing (Salesforce, Adobe Campaign, Weborama…). Depuis 2022, la direction Perf & Data s’appuie sur Dataiku pour accélérer ses études, modélisations statistiques et reportings sur les clients/utilisateurs. L’infrastructure sous-jacente est intégralement hébergée dans le cloud AWS (stockage parquet sur bucket S3 et compute Spark via cluster Kubernetes). Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques. Langage de programmation (PYTHON, SCALA et/ou JAVA) Maîtrise de technologies Big Data: développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL). • Agilité. • Force de proposition. • Autonomie. • Bonne capacité à travailler en équipe. • Esprit d’analyse et de synthèse.
Mission freelance
Data Engineer (AWS, Snowflake & Terraform)
Notre client souhaite renforcer son équipe DataPlatform. Vous rejoindrez une équipe composée de 3 Data Engineer, 1 DB Admin, 1 Responsbale BI, 1 Product Owner appuyé par des DevOps mettant à disposition les infrastructures de gestion de la donnée. Vous aurez la charge de 3 principales missions : 1° Implémentation de nouveaux flux de données sur AWS & Terraform avec Python/Airflow (COLD et STREAMING) · Implémentation des flux de données de l’extraction à l’exposition des données via Python/Airflow Managé ou avec Nifi pour les données « cold » et « streaming » 2° On vous demandera pour chacun des projets : · Code Review entre les data engineers · Réalisation des tests unitaire, de non-régression et d’intégration · Mise à jour de la documentation sous Confluence · Mettre à jour la documentation dans confluence. · Réaliser les tests unitaires et d’intégration. · Respecter les bonnes pratiques de développements 3° Maintenance corrective des flux de données 1 à 2 jrs de remote Localisé Paris 12e
Mission freelance
expert(e) AWS CLOUD
Bonjour, je recherche pour l'un de mes clients un(e) expert(e) AWS CLOUD . Mission : -réaliser un état des lieux de l’existant sur les chantiers applicatifs et techniques liés au DevSecOps -élaborer des spécifications fonctionnelles et techniques -concevoir, développer et documenter des services cloud automatisés, fiables et sécurisés -déployer les services dans le respect des jalons projet -assurer un support technique et fonctionnel pendant toute la durée de la mission -mettre en œuvre la réversibilité des infrastructures dans une logique multiclouds maîtrisée N'hésitez pas à revenir vers moi pour des informations complémentaires.

Mission freelance
Architecte Cloud AWS et GCP (H/F) - Freelance
Lieu : Lyon Part-Dieu (hybride possible) Démarrage : 01 novembre Durée : Longue mission (renouvelable) TJ : 650€ (senior) – 800€ (expert) 🎯 Contexte & Mission Nous recherchons un Architecte Cloud spécialisé AWS et GCP pour accompagner un acteur majeur dans sa transformation numérique. Votre rôle consistera à concevoir, déployer et optimiser des solutions cloud sécurisées et performantes, en garantissant leur scalabilité et leur intégration au SI existant, dans un contexte multicloud (AWS, GCP, Azure, cloud de confiance). 🔑 Responsabilités En tant qu’Architecte Cloud, vos principales missions seront : Conception & Développement Concevoir et développer des solutions de platform engineering cloud (AWS, GCP, Azure, clouds de confiance). Participer à la mise en place des futures zones d’hébergement de confiance. Développer/configurer le socle des produits de sécurité cloud. Optimiser la performance et les coûts des services plateformes. Infrastructure as Code, CI/CD & SRE (Lot A) Encadrer la conception et la mise en œuvre des modules Terraform à l’état de l’art. Définir et déployer des pipelines CI/CD en contexte multicloud. Intégrer et configurer les solutions de monitoring & observabilité . Proposer des innovations (ex : prompt-driven development ). Apporter une expertise en stratégie de migration cloud . Sécurisation des pipelines de déploiement (Lot B) Garantir l’intégration des chantiers sécurité dans les cycles agiles (daily, sprint review, etc.). Assurer la surveillance quotidienne des vulnérabilités ( Security Hub, AWS Config, GuardDuty, Inspector… ). Intégrer systématiquement les contrôles sécurité dans les pipelines ( SAST, DAST, revues de code ). Analyser les retours des outils de sécurité et coordonner les remédiations avec les experts cyber. 🛠️ Environnement technique Clouds : AWS, GCP, Azure, clouds de confiance Outils : Terraform, GitLab, GitLab CI, JIRA, Confluence, ServiceNow, Artifactory, Sonar, Harbor, WSL 👤 Profil recherché Expérience confirmée ou expertise en architecture cloud (AWS, GCP, Azure). Maîtrise des pratiques IaC, CI/CD, SRE, DevSecOps . Capacité à travailler en équipe et à collaborer avec les parties prenantes (IT, sécurité, métiers). Anglais technique requis. Une certification est un plus apprécié : AWS Certified Solutions Architect Google Cloud Associate Cloud Engineer Azure Solutions Architect Expert 🎁 Avantages (via le client final / ESN) Prime de Noël, vacances, mariage et naissance Prime de cooptation attractive Aides à la mobilité verte (engagement écologique) Formation continue : 1 formation/an (technique ou fonctionnelle) 👉 Une mission d’envergure pour un expert Cloud souhaitant évoluer dans un environnement multicloud exigeant et innovant , au cœur de la transformation numérique d’un grand compte.

Offre d'emploi
Chef de projet Data / IA
1/ immédiatement après recrutement : support au suivi du périmètre historique de la squad usage Data & IA 2/ Suivi des chantiers sur les usages (livraisons, jalons clés, suivi proactif avec les parties prenantes internes) avec un focus sur l’IA pour le Marketing (proposition de cas d’usages, étude de faisabilité, matrice valeur x effort, anticipation des renforts…) 3/ en lien avec le 2/ capacité à rentrer dans les sujets et apporter une expertise permettant d'être au rendez-vous de chaque jalon prévisionnel de livraison 4/ Préparation et animation des réunions avec les responsables métiers du Pôle Utilisateurs Data : avancement des différents sujets et priorisation des cas d'usages 5 / Echange / Reporting auprès des PO et du leader de la tribu Data Factory

Offre d'emploi
LYON - Architecte / Expert AWS
Missions principales Définir la vision et les orientations stratégiques des architectures Cloud AWS. Concevoir, mettre en place et faire évoluer les Landing Zones AWS et environnements multi-comptes. Accompagner les équipes projets et métiers dans l’adoption des bonnes pratiques Cloud. Piloter la conception d’architectures sécurisées, résilientes et scalables en intégrant les dimensions DevOps, FinOps et SecOps . Définir et promouvoir les standards techniques, patterns d’architecture et référentiels. Participer à la gouvernance Cloud et à l’industrialisation des déploiements via Infrastructure as Code (Terraform, CloudFormation, CDK). Assurer un rôle d'expertise auprès des équipes internes. Suivre les évolutions de l’écosystème AWS et recommander de nouvelles approches/outils pertinents.
Mission freelance
DevOps Cloud / DevEx (H/F)
Contrainte forte du projet : Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. Les livrables : Étude et mise en place des outils de productivité à destination des développeurs Veille technologique dans le domaine du DevOps Sensibilisation des développeurs aux problématiques opérationnelles Compétences techniques : Services Cloud AWS - Confirmé - Impératif Ecosystème Kubernetes (k8s) - Confirmé - Impératif Outils IAC - Expert - Impératif Bonnes connaissance des processus CI/CD - Expert - Impératif Connaissances linguistiques : Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée : Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : Stratégie & Communication - Démontrer l'impact et la valeur : Mettre en évidence les gains de productivité, les améliorations continues et la standardisation de l'outillage auprès de la direction. - Garantir l'alignement stratégique : Être le garant de l'atteinte des objectifs de l'équipe DevEx, en adéquation avec la stratégie et les besoins de la direction technique. Gestion de Projet & Équipe - Planification et Priorisation : Collaborer étroitement avec le Scrum Master pour planifier les projets et définir les priorités de développement. Innovation & Architecture - Optimisation de l'outillage développeur : Piloter l'étude, la sélection et la mise en place d'outils de productivité dédiés aux développeurs (ex: portail développeur, catalogue de services, infrastructure self-service, outils de CI/CD, etc.). - Expertise en déploiement continu : Être force de proposition sur l'amélioration des méthodologies et l'adoption des meilleures pratiques en matière de déploiement continu. - Collaboration transverse : Travailler en étroite collaboration avec l'équipe d'infrastructure pour assurer une cohérence et une synergie optimales entre les environnements. Veille & Sensibilisation - Veille technologique proactive : Mener une veille technologique constante dans le domaine du DevOps, en analysant les tendances du marché et les perspectives d'évolution potentielles spécifiquement pour eTF1. - Culture Ops : Sensibiliser activement les développeurs aux enjeux opérationnels majeurs, tels que les performances, la haute disponibilité, la supervision et la sécurité. Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, VictoriaMetrics, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Les compétences nécessaires pour réussir à ce poste : - Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. - Bonnes connaissance des processus CI/CD - Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production - Une expérience significative dans l’environnement et la mise en place de solutions AWS - Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) - Être familier avec les problématiques de HA et les architectures distribuées à forte charge. - Expérience significative sur au moins un des langages suivant : Bash, Python, Golang Niveau d'étude désiré : Ingénieur Définition du profil : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées IaC (Infrastructure as Code)

Mission freelance
Machine Learning Engineer Lead Expert
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code

Offre d'emploi
DATA ENGINEER AWS / TALEND
🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.

Mission freelance
Senior AWS Data Developer
Contexte: Recherche Développeur(se) Senior Data compétent(e) et proactif(ve) pour un très grand projet de transformation IT en Espagne, dans le secteur manufacturier. Ce rôle est essentiel pour construire et optimiser le nouveau hub de données basé sur AWS, permettant un accès plus rapide aux données, une meilleure qualité et une livraison évolutive. Collaboration étroite avec l’Architecte Data, le Chef de Projet et les équipes de développement mondiales pour concevoir, mettre en œuvre et maintenir des pipelines de données robustes ainsi que des cadres de qualité. Responsabilités : • Développer et optimiser des pipelines de données évolutifs en utilisant les services AWS et des technologies open source. • Mettre en œuvre des modèles de traitement de données en temps réel et en batch . • Garantir la qualité des données via des tests automatisés et des cadres de surveillance. • Collaborer avec les architectes et les équipes métier pour traduire les besoins en solutions techniques . • Soutenir les pratiques CI/CD et l’ automatisation de l’infrastructure .

Mission freelance
Ingénieur DevOps CI/CD – Téléphonie Cloud & Applications Java
CONTEXTE Besoin d'un ingénieur DevOps CI/CD – Téléphonie Cloud & Applications Java sénior pour faire évoluer nos solutions de centre d’appels t Dans le cadre de l'équipe OPS Téléphonie et Flux pour gérer les opérations et l'architecture de gestion des Flux . MISSIONS -améliorer en continu notre vision du service fourni et de la disponibilité de nos systèmes quel que soit le mode d’hébergement CCaaS ou OnPrem. connaissant très bien le dev sous terraform pour mettre en place l'automatisation des livraisons dans le cadre du projet NEOFlux Bonne connaissance de développement et notamment sur Terraform. Connaissance des environ d'hébergement sur AWS.

Offre d'emploi
Ops Engineer (H/F)
Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce qui t’attend chez nous.. Contexte : dans le cadre d'un renforcement d'équipe, nous recherchons un profil Ops Engineer expérimenté sur AWS pour accompagner la gestion et l’évolution d'une infrastructure cloud. Tes missions … En tant qu’ Ops Engineer (H/F) , tu seras amené(e) à : Concevoir, déployer et maintenir l’infrastructure cloud via Terraform sur AWS . Automatiser les déploiements et le scaling d’infrastructures Kubernetes (EKS) . Garantir la haute disponibilité des services en production. Mettre en place la supervision et le monitoring via Datadog . Implémenter des stratégies de sécurité et conformité dans les pipelines IaC. Gérer le trafic et la sécurité applicative via Cloudflare . Collaborer avec les équipes de développement pour optimiser les CI/CD (GitLab CI) . Participer à la gestion des incidents , au maintien en condition opérationnelle et aux actions d’amélioration continue . Contribuer activement à la vie de l’équipe : cérémonies agiles, backlog, propositions d’amélioration. Démarrage : immédiat Durée de la mission : 1 an Télétravail : 3 jours en distanciel Et toi dans tout ça, tu as : Minimum 3-5 ans d’expérience sur un poste similaire (hors stage et alternance). Une maîtrise avancée de Terraform (modules, expressions, gestion du state). Une expérience confirmée sur AWS . Une bonne connaissance de Linux , GitLab , Python . Une expérience avec Ansible , SSM , LDAP , SMTP , Cloudflare , Datadog , Athena , RPM , CloudFormation . Une connaissance opérationnelle de Kubernetes (EKS) . Une capacité à travailler en équipe, à documenter et à interagir avec des interlocuteurs techniques et métiers. Un anglais professionnel, indispensable dans les contextes internationaux. Ce que tu trouveras chez Winside … 🔥 Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide Un premier échange pour faire connaissance. Un entretien avec notre équipe RH (Perrine ou Malika). Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche

Offre d'emploi
Product Owner Data technico-fonctionnel (PO Snowflake / AWS)
Mission principale En tant que Product Owner Data Technico-Fonctionnel, vous serez le point de convergence entre les équipes métiers et techniques, et vous piloterez la conception et l’évolution d’architectures data basées sur Snowflake et AWS. Vous assurerez également la gestion d’un sujet spécifique dans le domaine Manufacturing. Missions principales : o Faire le lien entre les métiers et l’équipe technique. o Traduire les besoins fonctionnels en user stories techniques. o Animer et maîtriser les rituels agiles. o Assurer la communication, vulgarisation et restitution auprès du top management (reporting de l’état d’avancement). o Suivi d’un sujet Manufacturing au sein de l’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.