Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Votre recherche renvoie 109 résultats.
Mission freelance
Ingénieur DevOps - Confirmé - FREELANCE - Le Havre H/F
GROUPE ARTEMYS
Publiée le
IAM
1 mois
76600, Le Havre, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans le cadre d’une mission chez l’un de nos clients grand compte situé au Havre, nous recherchons un Ingénieur DevOps confirmé en freelance. Votre mission (si vous l’acceptez) : Administrer et maintenir l’infrastructure AWS (déploiement, configuration, sécurisation). Automatiser les déploiements via des pipelines CI/CD. Industrialiser l’environnement avec de l’Infrastructure as Code (Terraform, Ansible…). Gérer la conteneurisation des applications (Docker, éventuellement Kubernetes). Assurer le monitoring, le support technique et l’amélioration continue de la plateforme. L’environnement technique : Cloud AWS (EC2, VPC, IAM, S3, services associés). Outils CI/CD (GitLab CI, Jenkins ou équivalent). Infrastructure as Code : Terraform, Ansible. Conteneurisation : Docker, avec notions Kubernetes appréciées. .NET. Vous, notre perle rare : Vous êtes Ingénieur DevOps avec une solide expérience d'au moins 5 ans incluant des environnements AWS, capable d’intervenir de manière autonome sur l’automatisation, le déploiement et l’exploitation d’infrastructures cloud. Vous devez également avec une maitrise de .NET. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : A définir selon votre expérience Durée de mission : 3 à 6 mois Rythme de télétravail : 3 jours de télétravail possibles Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Developpeur GO Sophia Antipolis
WorldWide People
Publiée le
Go (langage)
6 mois
360-370 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Developpeur GO Sophia Antipolis Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip Dans le cadre d’un projet stratégique autour d’une plateforme de stockage interne basée sur des technologies de type objet (S3), nous recherchons un Développeur Back-End Go expérimenté pour intervenir au sein d’une équipe agile. Missions principales - Analyse et développement des user stories en Go - Participation aux cérémonies agiles (Scrum) - Mise en place de tests unitaires et d’intégration - Automatisation CI/CD - Suivi de la qualité de service (logs, métriques, dashboards) - Support technique et résolution d’incidents en production Environnement technique - Langage : Go - OS : Linux - CI/CD : GitLab - DevOps : Ansible, Bash - Observabilité : ELK, Grafana, InfluxDB, VictoriaMetrics - Méthodologie : Agile / Scrum Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip
Offre d'emploi
Ingénieur Sauvegarde Confirmé – NetBackup / Commvault
Lùkla
Publiée le
Commvault
NetBackup
Sauvegarde
3 mois
Nantes, Pays de la Loire
Notre client, acteur stratégique dans son domaine, recherche un Ingénieur Sauvegarde confirmé pour renforcer les projets liés aux infrastructures de sauvegarde au sein de sa ligne de produit. Contexte : Renforcement des projets stratégiques liés aux infrastructures de sauvegarde. Missions principales : Assister au déploiement de la solution Commvault Mettre en œuvre des media servers NetBackup Participer à l’implémentation d’infrastructures S3 / WORM Déployer et administrer des appliances de sauvegarde (DXi, Scalar i3) Contribuer aux phases de recette et validation des PV Appliquer les guides de durcissement sécurité Produire et maintenir la documentation technique
Offre d'emploi
Lead dev H/F
INFOTEL CONSEIL
Publiée le
Angular
API
Conception
2 ans
40k-50k €
500-600 €
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de plusieurs équipes projets, nous recherchons plusieurs Lead Développeur Java / Spring Boot afin d’accompagner le développement et l’évolution d’applications métiers stratégiques au sein d’un système d’information à forte volumétrie. Vous interviendrez au sein d’une squad composée de développeurs, d’un Product Owner, d’un Assistant Métier et d’équipes Ops, avec pour objectif de garantir la qualité technique des développements, la cohérence des choix d’architecture et la bonne progression des projets. Vos principales missions seront les suivantes : Définir les orientations techniques du projet et accompagner les équipes dans la mise en œuvre des bonnes pratiques de développement. Concevoir et décliner l’architecture logicielle des applications en veillant à leur robustesse, leur performance et leur maintenabilité. Accompagner les développeurs au quotidien dans la résolution des problématiques techniques et lever les points de blocage rencontrés lors des développements. Être le référent sur la qualité du code en mettant en place les standards de développement, les bonnes pratiques et les processus de contrôle associés. Participer activement au développement des applications, notamment sur les parties les plus critiques ou structurantes du programme. Contribuer à la conception et à l’évolution des services applicatifs, notamment via la mise en place et l’intégration d’API. Définir la stratégie de tests, concevoir les jeux de tests et participer aux phases de validation et de recettage. Collaborer étroitement avec les membres de la squad afin d’assurer la bonne coordination entre les équipes techniques, fonctionnelles et opérationnelles. L’environnement technique s’appuie notamment sur : Java (versions 11 à 21) Spring Boot MVC (versions 1.5 à 3) React ou Angular selon les projets Oracle ou PostgreSQL API REST et API SOAP Kafka NAS et S3 Hébergement sur VM (Tomcat) et Openshift
Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour
BI SOLUTIONS
Publiée le
API Platform
AWS Cloud
2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Offre d'emploi
Développeur Node.js F/H
ADDIXWARE
Publiée le
AWS Cloud
Front-end
JavaFX
1 an
Nice, Provence-Alpes-Côte d'Azur
Poste en télétravail intégral, axé sur le développement de modules applicatifs disposant d'interfaces utilisateurs avancées et d'une forte composante cloud. L'environnement technique repose sur des architectures déployées sur AWS, avec une infrastructure automatisée et isolée pour chaque client. Missions - Développement de fonctionnalités front-end et back-end sur une plateforme en Node.js / TypeScript - Création et amélioration d'interfaces utilisateurs permettant la génération et la gestion de contenus structurés - Participation à la conception et au maintien d'infrastructures cloud sur AWS - Mise en place et évolution d'infrastructure mono-tenant pour chaque client, avec mutualisation partielle des composants - Déploiement d'applications conteneurisées via Docker et orchestrées avec ECS - Automatisation des déploiements et de l'infrastructure via Terraform Environnement technique - Langages : Node.js, TypeScript, Angular - Cloud : AWS (ECS, Lambda, S3, etc.) - Conteneurisation : Docker - Infrastructure as Code : Terraform - Architecture : mono-tenant, multi-infra client - Méthodologie : Agile / CI-CD
Mission freelance
Administrateur Systèmes & Réseaux Senior (H/F)
Lùkla
Publiée le
Kubernetes
6 mois
Rouen, Normandie
Dans le cadre de la refonte de l'infrastructure IT industrielle multi-sites d'un de nos clients, nous recherchons un Administrateur Systèmes & Réseaux Senior pour accompagner un projet stratégique de modernisation. L’environnement actuel (HPE SimpliVity) est saturé et fortement centralisé. Le projet vise à : Déployer une nouvelle infrastructure virtualisée, scalable et hautement disponible Mettre en place une architecture résiliente inter-sites (AD, DNS, DHCP, PRA) Moderniser la stratégie de sauvegarde (Veeam, immutabilité, S3) Intégrer progressivement Kubernetes dans un environnement hybride (VM + conteneurs) Renforcer la supervision, la sécurité et l’automatisation Votre rôle sera avant tout structurant : Participer aux choix d’architecture Sécuriser et fiabiliser les services critiques Encadrer techniquement les profils juniors Faire monter l’équipe en compétence et en maturité Vous ne serez pas seul exécutant, mais référent technique et moteur de transformation.
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Mission freelance
IT Support Engineer - £300PD – Hybrid
INVESTIGO
Publiée le
300 £GB
Angleterre, Royaume-Uni
IT Support Engineer - £300PD – Hybrid A global financial technology organisation is looking for a Senior Support Engineer to take ownership of its Microsoft 365 environment, network infrastructure and cloud services. This is a senior hands-on role combining business-as-usual operations with transformation projects, ideal for an engineer who enjoys working across Microsoft 365, networking and cloud platforms while acting as a technical escalation point within the team. Key Responsibilities: Manage and support the Microsoft 365 estate (Exchange Online, Teams, SharePoint, OneDrive, Outlook) Administer Entra ID (Azure AD), conditional access, MFA and Intune device management Support network infrastructure including VPN, routing, VLANs, DNS and DHCP Maintain and optimise AWS cloud services (EC2, S3, VPC, IAM) or Azure equivalents Manage identity and access management, SSO integrations and authentication policies Automate tasks using PowerShell scripting Act as a technical escalation point, mentoring junior engineers and supporting infrastructure projects Requirements: 5+ years supporting Microsoft 365 in an enterprise environment Strong experience with Exchange Online, Teams, SharePoint, Entra ID and Intune Solid networking knowledge (subnets, routing, VLANs, DNS, DHCP) Experience supporting AWS or Azure cloud infrastructure PowerShell automation skills Strong troubleshooting ability and clear communication skills Please make an application if you feel this position may be relevant
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Ingénieur Systèmes Linux / Migration Datacenter (H/F)
SYAGE
Publiée le
Linux
12 mois
Valbonne, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre de l’intégration d’une filiale, vous interviendrez sur un projet stratégique de migration de production de deux datacenters distants (on-premise / cloud) vers le datacenter principal du groupe. L’environnement est 100 % Linux, orienté production SaaS, avec des enjeux forts de disponibilité, sécurité, performance et continuité de service, dans un contexte sensible ISO 27001. Le poste est orienté ingénierie infrastructure, avec une forte dimension projet, nécessitant une vision globale d’architecture, sans management d’équipe. Objectif : Votre rôle est de concevoir, organiser et réaliser la migration complète des infrastructures de production d’une filiale vers le datacenter principal, tout en garantissant la continuité de service et la sécurité des systèmes. Vous interviendrez sur l’analyse des dépendances, la compréhension des flux, la stratégie de migration et l’implémentation technique, avec un rôle central dans la coordination, la communication et le reporting projet. Poste Poste 1. Migration & gestion de projet technique Piloter et exécuter la migration des datacenters dans le cadre de l’intégration de la filiale. Analyser les environnements existants, dépendances applicatives et contraintes techniques. Définir les stratégies de migration (phases, risques, rollback, validation). Assurer le suivi d’avancement, le reporting et la communication avec les parties prenantes. Garantir la stabilité des environnements en production pendant les phases critiques. 2. Systèmes & infrastructures Linux Administrer et maintenir des environnements Linux (Ubuntu, CentOS). Gérer des serveurs physiques et virtualisés (VMware). Assurer la fiabilité et l’optimisation des plateformes systèmes de production. Contribuer aux évolutions d’architecture avec une vision d’ingénieur orientée archi. 3. Containerisation, CI/CD & automatisation Intervenir sur des environnements Docker et Kubernetes (optionnel). Utiliser et intégrer les pipelines GitLab CI/CD dans les processus de déploiement. Participer à l’industrialisation des déploiements et des migrations. 4. Données, stockage et plateformes Accompagner la migration des bases de données MariaDB et Manticore Search. Gérer les environnements de stockage centralisé NAS / SAN / S3. Garantir l’intégrité, la disponibilité et la performance des données. 5. Réseaux, sécurité et conformité Intervenir sur les architectures réseau (VPN, firewalling). Participer à la sécurisation des flux inter-datacenters. Respecter les exigences de sécurité dans un environnement ISO 27001.
Offre d'emploi
Ingénieur Devops Senior
Lùkla
Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Kafka
Apache Maven
2 ans
45k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Ingénieur DevOps Senior. Véritable pivot technique, vous serez le point de contact privilégié pour les sujets opérationnels de déploiement, de gestion d'infrastructure et d'automatisation. Vous évoluerez dans un écosystème complexe (grands comptes) et collaborerez étroitement avec les Product Owners, les Architectes, les Tech Leads et les équipes d'exploitation pour garantir la stabilité et la performance de nos plateformes Pilotage de l’Infrastructure & Déploiement Gestion Cloud (AWS) : commissionnement et décommissionnement des ressources (EC2, RDS, ELB/ALB, S3). CI/CD & automatisation : maintenir et faire évoluer la chaîne Jenkins (jobs, pipelines). Piloter la migration vers GitLab CI. Gestion applicative : installation des composants (JRE, PHP, Apache, PostgreSQL) et déploiement des applications (configuration Zuul). Infrastructure as Code (IaC) : préparation des playbooks Ansible et des Helm Charts pour l'orchestration Kubernetes. Maintien en Condition Opérationnelle (MCO) Analyse & résolution : diagnostic d'incidents de production et optimisation des performances (RAM, CPU, FS, transactions). Garant des process : veiller au respect des bonnes pratiques (Git flow, Nexus) et gérer les ouvertures de flux inter-plateformes. Sécurité & documentation : maintenir à jour les dossiers de configuration, d’exploitation et les images Docker. Collaboration & Conseil Alerter les équipes projets sur les risques de configuration ou de performance. Assurer l'interface avec les équipes d'infrastructure centrales lors des phases critiques de mise en production. Environnement Technique Cloud & Orchestration : AWS (S3, RDS, API Gateway), Docker, Kubernetes (EKS). CI/CD & Qualité : Jenkins, GitLab CI, Maven/NPM, Git, Sonar, Nexus. Observabilité : ELK Stack. Data & Middleware : Kafka (Event-Driven), PostgreSQL 16, Apache, Nginx, Tomcat. Langages & Scripts : Groovy (pipelines), Java (8/17), Helm, Liquibase, Flyway, REST. Sécurité : SSL, OAuth2, SSO, PingID/PingAM.
Mission freelance
AWS Connect SME (Example)
INVESTIGO
Publiée le
700-800 £GB
Royaume-Uni
AWS Connect SME - Amazon Connect - AWS Lambda - Contract - Outside IR35 My client are looking for a Senior AWS Connect Engineer who can take the lead on their Amazon Connect platform. You’ll be the go‑to person for designing, building, and improving their cloud contact center, working closely with teams across the business to make sure everything is scalable, secure, and runs smoothly. Responsibilities Design, build, and maintain Amazon Connect contact center solutions Integrate Amazon Connect with CRM, ticketing, and other internal systems Develop and maintain contact flows, IVRs, routing logic, and call recording policies Implement automation, monitoring, and alerting for contact center services Lead troubleshooting and performance tuning for voice and chat workflows Collaborate with stakeholders to gather requirements and translate them into technical designs Provide technical guidance, best practices, and mentorship to junior team members Ensure security, compliance, and reliability of the contact center platform Requirements 5+ years in cloud engineering, including 3+ years hands‑on with Amazon Connect Strong practical experience with: Amazon Connect (contact flows, queues, routing profiles, hours of operation) AWS Lambda, API Gateway, IAM, CloudWatch, S3, DynamoDB (or similar) Solid track record integrating Amazon Connect with internal and third‑party systems (CRM, ticketing, identity, etc.) Good understanding of telephony concepts (SIP, call routing, IVR, ACD, CTI) Comfortable with at least one programming language (Python, Node.js, or JavaScript) Experience using Infrastructure as Code (CloudFormation, CDK, or Terraform) Strong grasp of AWS security, networking, and identity Able to communicate clearly with both technical and non‑technical stakeholder
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
109 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois