L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 747 résultats.
Mission freelance
Pilote Delivery AWS
Groupe Aptenia
Publiée le
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Définir et piloter l'architecture technique de la plateforme en lien avec les parties prenantes et les objectifs stratégiques Garantir la qualité, la cohérence et la performance des solutions déployées via des revues de code et l'application des bonnes pratiques Mettre en place et faire évoluer les chaînes CI/CD, les pratiques DevOps/DevSecOps, l'IaC et le GitOps pour industrialiser le delivery Suivre et améliorer les métriques de performance delivery (DORA Metrics) Piloter les démarches d'amélioration continue (Accelerate, DevEx) Comprendre et challenger les architectures applicatives et infrastructure du SI (cloud, conteneurisation, event-driven, contraintes sécurité) Utiliser l'IA pour accélérer la production de livrables Impulser une culture IA au sein des équipes produit
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Mission freelance
Ingénieur sécurité cloud AWS & DevSecOps
Cherry Pick
Publiée le
AWS Cloud
Cybersécurité
DevSecOps
12 mois
600-650 €
Paris, France
Intégrez la Direction des Technologies d'un grand groupe média leader pour sécuriser un écosystème 100% Cloud AWS à très haute visibilité. Dans un environnement de haute disponibilité , vous rejoignez une équipe où la sécurité est traitée comme du code. Votre mission : durcir l'infrastructure, automatiser la conformité et infuser la culture DevSecOps au cœur des cycles de développement. Vos Missions : Vous intervenez sur l'ensemble de la chaîne, de l'infrastructure aux pipelines applicatifs : Ingénierie de Défense AWS : Piloter la conformité native (IAM, KMS, SCP, VPC) et automatiser les remédiations via Terraform . Protection des Workloads (K8s) : Durcir les clusters (EKS) via des politiques de contrôle d'admission ( Kyverno , RBAC, Network Policies) et sécuriser le registre d'images ( ECR ). Industrialisation DevSecOps : Intégrer et administrer les outils de scan dans la chaîne CI/CD ( SonarQube , GitHub Advanced Security, Checkov) pour détecter les failles au plus tôt. Pilotage CNAPP : Exploiter les solutions de protection moderne (type Wiz ) pour identifier les chemins d'attaque et traduire les alertes en correctifs d'infrastructure. Gouvernance logicielle : Assurer la gestion des secrets (Vault), la sécurité des dépôts (GitHub Event Security) et le monitoring en lien avec le SOC (ELK).
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Mission freelance
Architecture Solution - Expert Cloud AWS
Codezys
Publiée le
Amazon S3
AWS CloudFormation
12 mois
Malakoff, Île-de-France
Accompagnement sur l’identification, la rédaction et l’adoption de patterns d’architecture : ce rôle vise à harmoniser les pratiques architecturales, améliorer la cohérence technique entre les différents projets, et assurer la conformité des solutions aux standards internes. Le périmètre couvre les environnements Cloud (notamment AWS) ainsi que les infrastructures on-premise. L’architecte pourra également être sollicité pour accompagner ponctuellement des projets clients, en apportant une expertise approfondie en architecture ou en participant à la mise en œuvre concrète des patterns définis. LOGISTIQUE : Localisation : Malakoff Date de début : 9 mars 2026 Date de fin prévue : 15 septembre 2026 (renouvelable) Niveau de séniorité : Expert Panel concerné : Transformation Type de prestation : Expertise – Intégration – Conseil Certifications requises : AWS Solutions Architect Objectifs et livrables : Environnement technique de la prestation : Cloud public (AWS) et solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps et CI/CD Environnement industriel Prestation attendue : Rédaction et évolution des patterns : Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, infrastructures on-premise, solutions hybrides, réseaux, sécurité, data…) Garantir la cohérence des patterns avec les standards de l’entreprise et les contraintes opérationnelles Collaborer avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des patterns Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Travailler en étroite collaboration avec les équipes d’infrastructure, réseau, sécurité et DevOps Support et accompagnement des projets : Fournir un soutien architectural lors de certains projets clients Aider à l’adoption des patterns définis Participer à des revues d’architecture (design reviews, comités d’architecture…) Conseiller les équipes projets pour garantir le respect des bonnes pratiques et des standards architecturaux
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Ingénieur devops AWS
OBJECTWARE
Publiée le
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur devops AWS. Vos missions seront : Conception, développement et maintenance de l'automatisation de l'infrastructure à l'aide d'outils d’Infrastructure as Code. Encadrement d'une équipe d'ingénieurs SRE afin de garantir la fiabilité, la sécurité et la scalabilité de la plateforme. Pilotage des processus d'automatisation et de gestion des incidents, conformément aux principes SRE. Contribution à l'évolution du cycle de vie du développement logiciel (SDLC) afin de répondre aux exigences métier, de gouvernance et opérationnelles. Collaboration avec les parties prenantes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle : Expérience confirmée dans le développement de fonctionnalités, d'API ou d'outils d'automatisation en environnement cloud ou d'entreprise. Infrastructure as Code (IaC) : Expertise approfondie d’outils de déploiement et de gestion de configuration. Supervision et incidents : Bonne maîtrise des systèmes de supervision, alertes et gestion des incidents. Architecture système : Conception d’architectures scalables, sécurisées et résilientes. DevSecOps et CI/CD : Maîtrise des pipelines CI/CD et des stratégies de déploiement. Expertise technique : Plateforme de gestion de code source d’entreprise : Expérience de son administration et de son exploitation. Cloud : Connaissance des principaux fournisseurs cloud (environnements hybrides, contraintes de résidence des données). Sécurité et conformité : Maîtrise des enjeux de gouvernance et de conformité. Langages et outils : Scripts (ex. : Bash, PowerShell) et outils d’automatisation. Outils collaboratifs : Outils de gestion de projet et de documentation. Compétences supplémentaires : Collaboration avec des équipes pluridisciplinaires et parties prenantes. Excellentes capacités d’analyse et de résolution de problèmes.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Offre d'emploi
Data Scientist, expert python , pyspark, Azur (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
Data management
45k-50k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Offre d'emploi
Responsable MOA DATA URBANISATION SI
infotem
Publiée le
AMOA
Data management
SQL
6 mois
55k-60k €
550-600 €
Île-de-France, France
Au sein de la Direction des Systèmes d’Information Interne, vous pilotez l’équipe « AMOA et gouvernance SI/DATA», dont la mission est : - d’accompagner en transverse les directions métiers dans la définition et la mise en œuvre de leurs projets SI, - d’assurer la cohérence et la pertinence de l’architecture fonctionnelle du SI Interne (Finance, RH, Commerce, Service client, DSI, BUs…), - de garantir la qualité, la sécurité et la valorisation des données traitées dans les environnements Data et BI de l’entreprise. - d’animer et de déployer la gouvernance de la donnée, et de favoriser l’acculturation des métiers à son usage, afin de renforcer la valeur créée par la donnée dans les activités de l’entreprise. À ce titre, vous êtes l’interlocuteur privilégié des directions métiers, garant(e) de l’alignement des solutions SI avec les orientations stratégiques du groupe. Les fonctions principales du poste sont les suivantes : Management d’équipe - Encadrer, animer et développer les compétences de l’équipe AMOA et gouvernance SI/DATA. - Organiser la charge et prioriser les sujets en lien avec la feuille de route SI interne. - Favoriser la collaboration transverse avec les autres équipes de la DSI et les métiers. Conduite de projets et transformation AMOA SI/DATA - Accompagner les directions métiers dans l’expression de besoin, le cadrage et la mise en œuvre de solutions SI adaptées. - Piloter certains projets de bout en bout : cadrage, gouvernance, planification, suivi, reporting, tests, recettes, mise en production. - Rédiger les spécifications fonctionnelles, la documentation projet et coordonner les validations. - Organiser et animer les ateliers de travail et de conduite du changement. - Garantir le respect des coûts, délais, qualité et sécurité des projets confiés - Veiller à l’harmonisation et à la bonne traduction des processus dans les différentes briques du SI Interne Urbanisation SI et gouvernance des données - Animer et déployer la gouvernance de la donnée au sein de l’entreprise, et accompagner l’acculturation des métiers à ses enjeux. - Définir et mettre en œuvre la gestion des référentiels internes (clients, produits, projets…). - Maintenir et enrichir la documentation fonctionnelle, les dictionnaires de données et les KPIs. - Assurer la qualité et la conformité des données dans les projets SI. - Établir et maintenir la cartographie des SI métiers. - Réaliser des études d’opportunité et de faisabilité pour orienter les choix SI sur les périmètres prioritaires - Piloter la feuille de route des projets SI transverses et leurs instances de gouvernance dédiées
Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris
Net technologie
Publiée le
Architecture
AWS Cloud
Azure
3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2747 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois