Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 111 résultats.
Freelance

Mission freelance
Expert technique DEVOPS Senior

PROPULSE IT
Publiée le
DevOps

24 mois
325-650 €
Paris, France
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Freelance

Mission freelance
Platform Engineer — Disaster Recovery AWS (remote)

CONCRETIO SERVICES
Publiée le
AWS Cloud
IAC
IAM

6 mois
Paris, France
MISSIONS PRINCIPALES Review & Challenge de l'Architecture DR Analyser et challenger l'architecture Warm Pilot existante : robustesse, faisabilité, angles morts, SPOFs non-évidents Identifier les dépendances cachées entre services AWS non visibles dans les schémas Évaluer les choix de services AWS DR (Route 53 failover, Aurora Global Database, RDS cross-region, S3 Cross-Region Replication, EKS multi-cluster) et proposer des alternatives argumentées Défendre les recommandations en arbitrant entre coût, délai et complexité opérationnelle Implémentation IaC & GitOps Implémenter en Terragrunt : configurations multi-comptes, multi-régions, modules DRY, orchestration des dépendances entre stacks Configurer ArgoCD pour les environnements DR : ApplicationSets multi-cluster, stratégies de sync, gestion des secrets Mettre en place les pipelines GitLab CI/CD pour la validation IaC et les tests automatisés Garantir la cohérence GitOps end-to-end : aucun changement d'infrastructure hors du pipeline Résilience, Réplication & Failover Implémenter les mécanismes de réplication selon les services (synchrone/asynchrone) : données, configurations, secrets Concevoir et implémenter les procédures de failover et de failback orchestrées Définir et implémenter les critères de déclenchement du basculement (health checks, alerting, seuils) Assurer la cohérence des RPO/RTO par application avec les équipes applicatives Sécurité Cross-Region & Conformité IAM cross-account, KMS cross-region, VPC peering / Transit Gateway dans le contexte DR Garantir la conformité des données répliquées : souveraineté, chiffrement, audit trail Collaborer avec les équipes sécurité sur les contraintes spécifiques au contexte DR Testabilité & Documentation Automatiser les tests de DR : scénarios de failover répétables et non-destructifs, validation des RTO/RPO atteints Chaos engineering basique pour valider la résilience en conditions contrôlées Runbooks de failover/failback exploitables par des équipes ops à 3h du matin en conditions de stress Architecture Decision Records (ADR) documentant les choix techniques et leurs justifications
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Freelance

Mission freelance
Developpeur GO Sophia Antipolis/0

WorldWide People
Publiée le
Go (langage)

6 mois
360-370 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Developpeur GO Sophia Antipolis Profil recherché. - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip Dans le cadre d’un projet stratégique autour d’une plateforme de stockage interne basée sur des technologies de type objet (S3), nous recherchons un Développeur Back-End Go expérimenté pour intervenir au sein d’une équipe agile. Missions principales - Analyse et développement des user stories en Go - Participation aux cérémonies agiles (Scrum) - Mise en place de tests unitaires et d’intégration - Automatisation CI/CD - Suivi de la qualité de service (logs, métriques, dashboards) - Support technique et résolution d’incidents en production Environnement technique - Langage : Go - OS : Linux - CI/CD : GitLab - DevOps : Ansible, Bash - Observabilité : ELK, Grafana, InfluxDB, VictoriaMetrics - Méthodologie : Agile / Scrum Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Développeur Java Senior

ASTRELYA
Publiée le
Apache Kafka
Argo CD
AWS Cloud

La Garenne-Colombes, Île-de-France
Vous rejoindrez un programme stratégique de refonte de la plateforme B2C dans le secteur de l'énergie à l’échelle mondiale, dans un environnement Agile Scrum et collaboratif avec des équipes réparties dans plusieurs pays. Ce projet vise à construire des solutions innovantes et scalables sur AWS Cloud, en s’appuyant sur les meilleures pratiques DevOps et CI/CD. Responsabilités principales : Développer et concevoir des applications Java robustes et performantes, basées sur des architectures microservices et orientées cloud AWS. Participer activement au développement (rôle de doer) : codage, revue de code, tests, optimisation. Définir et promouvoir les bonnes pratiques de développement, qualité et sécurité du code. Encadrer et guider les développeurs juniors, en jouant un rôle de mentor technique. Collaborer avec les équipes internationales (produit, architecture, data) pour garantir la cohérence et la performance des solutions. Stack technique : Langages & Frameworks : Java, Spring Boot Cloud & Infra : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & Services : Microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & Sécurité : Datadog, Prisma Cloud Collaboration : Jira, Confluence
CDI
Freelance

Offre d'emploi
Tech Lead Java F/H

AIS
Publiée le
Java

1 mois
45k-50k €
250-500 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes, vos missions seront les suivantes : Définition des spécificités techniques avec l'ensemble des parties prenantes Définition de l'architecture des applications Rédaction de la documentation technique Optimisation des applications existantes Développement de nouvelles fonctionnalités. Mise en place de la méthodologie de développement (TDD, BDD) et des processus d'intégration continue pour chaque projet : du développement jusqu'à la livraison Mise en place se l'environnement de développement et du socle technique Être le référent technique sur les projets de développement : suivi du projet, cohérence des technos et des méthodes utilisées, qualité du code,... Détecter, analyser et corriger les éventuels problèmes (sécurité, performances, etc.) Sensibiliser l'équipe aux bonnes pratiques de développement : transfert de compétences, méthodologie, sécurité,... Réaliser de la veille technologique pour améliorer en continue les pratiques Participation aux différentes instances de suivi de projet Technos : Java 11 à 21 Springboot (MVC) 1.5 à 3 Angular Oracle / Postgres Hébergement sur VM (Tomcat) / Openshift API REST, API SOAP, Kafka, NAS, S3
Freelance

Mission freelance
Prestation Front-end VueJs – IA (3-7 ans d'exp)

Codezys
Publiée le
Git
Gitlab
Jest

12 mois
450-500 €
Paris, France
Contexte de la mission Un test technique sera requis pour les candidats shortlistés. La prestation, rattachée au département IT, se déroulera au sein d’une équipe multidisciplinaire (développeurs frontend Vue.js, Ruby, Python en data science, QA). L’équipe développe des plateformes de gestion de patrimoine pour plus de 1300 conseillers, en collaboration avec les équipes produit, UX/UI, data science et experts métier. Méthodologie Agile Scrum (sprints de 2 semaines) avec processus CI/CD en amélioration continue. Le groupe financier recourt à trois prestations de développement front-end pour son extension. Objectifs et livrables Développer et maintenir des applications frontend Vue.js 2 et 3 en production. Intervenir sur des projets variés (legacy Vue.js 2, greenfield Vue.js 3) avec approche pragmatique. Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles. Intégrer des interfaces de chatbots et assistants IA utilisant des LLMs. Consommer et intégrer des APIs REST backend. Assurer la qualité du code via des tests et revues. Optimiser performances frontend et expérience utilisateur. Participer aux décisions techniques et challenger les spécifications si nécessaire. Assumer la responsabilité des features déployées ("you build it, you run it"). Contribuer à l'amélioration continue des pratiques de développement. Conditions techniques de la prestation Stack technique : Langages : JavaScript/TypeScript, HTML5, CSS3 Frameworks : Vue.js (2 & 3) Build tools : Vite Gestion d’état : Vuex CSS/UI : Tailwind CSS APIs REST (Ruby on Rails) Intégration IA : chatbots, assistants utilisateur, APIs LLM (Gemini, Claude) DevOps & Infrastructure : Versioning : Git/GitLab CI/CD : GitLab CI, Jenkins Cloud : Heroku, AWS (S3), OVH Conteneurisation : Docker, K8S Monitoring & Qualité : Monitoring : New Relic, Splunk, Gatus, Raygun Qualité : SonarCloud, Lighthouse Tests : Jest, Vitest, Cypress Outils collaboratifs & Méthodologie : Jira, Confluence, Slack, Figma Methodologies : Agile (Scrum/Kanban), GitLab Flow, Code reviews, Clean Code Résultats attendus / Livrables Code & documentation : Code versionné sur GitLab, respectant conventions Vue.js, tests unitaires et E2E, documentation technique. Features & intégrations : Déploiement en production de features fonctionnelles, interfaces IA opérationnelles, gestion proactive des incidents, suivi Jira. Participation active aux code reviews et rituels agiles.
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
Developpeur GO Sophia Antipolis/0c

WorldWide People
Publiée le
Go (langage)

6 mois
360-370 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Developpeur GO Sophia Antipolis Profil recherché. - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip Dans le cadre d’un projet stratégique autour d’une plateforme de stockage interne basée sur des technologies de type objet (S3), nous recherchons un Développeur Back-End Go expérimenté pour intervenir au sein d’une équipe agile. Missions principales - Analyse et développement des user stories en Go - Participation aux cérémonies agiles (Scrum) - Mise en place de tests unitaires et d’intégration - Automatisation CI/CD - Suivi de la qualité de service (logs, métriques, dashboards) - Support technique et résolution d’incidents en production Environnement technique - Langage : Go - OS : Linux - CI/CD : GitLab - DevOps : Ansible, Bash - Observabilité : ELK, Grafana, InfluxDB, VictoriaMetrics - Méthodologie : Agile / Scrum Profil recherché - 5 ans d’expérience minimum - Maîtrise du développement Go - Bonne connaissance Linux et environnements de production - Autonomie, rigueur, esprit d’équip
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance
CDI

Offre d'emploi
FinOps Cloud / Profil habilitable

ematiss
Publiée le
Cloud
FinOps

3 mois
Paris, France
CONTEXTE : Au sein de la Direction de la Transformation Numérique du client et sous la responsabilité du Chef du Bureau de l’Architecture et de la Cohérence des Infrastructures à la sous direction des architectures sécurisées, l’expert(e) technique en processus financiers du Cloud ou FinOps agit comme un levier de pilotage économique du Cloud grâce à sa maîtrise des outils de billing, garantissant la soutenabilité des dépenses pour la direction, la transparence des coûts et l’efficience de l’usage des ressources pour les entités clientes. ACTIVITES PRINCIPALES : Développer et maintenir des modèles de coûts du Cloud : Grâce à sa maîtrise des environnements Cloud et à sa compréhension fine des différentes offres (IaaS OpenStack, S3, GPU, OpenShift…), le FinOps identifie précisément les inducteurs de coûts (vCPU, RAM, Stockage Bloc et Objet etc.) et les traduit dans des modèles de facturation capables de s’adapter aux évolutions du catalogue de service. Il fait évoluer les normes de gestion budgétaires et les mécanismes de refacturation internes permettant de valoriser la consommation des ressources tout en s’assurant de leur alignement et de leur conformité avec les recommandations tarifaires. Réaliser des tableaux de bord et produire des reporting L’expérience requise avec les outils de collecte, d’automatisation et d’analyse de données (API, scripts, data lakes, Grist, Python, SQL etc.) doit permettre au FinOps d’agréger facilement l’ensemble des consommations en ressources des clients puis de les segmenter en fonction du projet ou de la ressource pour obtenir une allocation précise des coûts et des tableaux de bord et reporting ad hoc. Ces travaux enrichiront ceux de l’équipe chargée de mettre à disposition des clients des métriques de consommation dans la Console d’administration. Optimiser le capacity planning avec l’IA Le Finops consolide et fiabilise les outils existants de capacity planning en mettant en place des modèles prédictifs basés sur l’IA permettant d’anticiper les patterns d’usage des clients et donc les dépenses à engager. En outre, il anticipe les pics de charge et optimise les prévisions budgétaires. Diffuser les bonnes pratiques FinOps à l’échelle de la sous-direction Il travaille en étroite collaboration avec les différentes équipes en apportant une assistance concrète dans la définition et la mise en œuvre des actions de modernisation de la fonction financière. Il est force de proposition pour intégrer les contraintes financières dans les choix techniques et opérationnels des différents acteurs concernés. Il participe à une maîtrise des coûts conformes aux prévisions budgétaires et peut le cas échéant contribuer aux négociations avec les fournisseurs. CONTRAINTES 1-A minima une expérience précédente en tant que FinOps, de préférence dans un environnement Cloud. 2- Doit posséder des bases OpenStack. Durée : 3 mois renouvelables
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
111 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous