L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 090 résultats.
Offre d'emploi
Développeur(se) FullStack H/F
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
CI/CD
Chambéry, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Offre d'emploi
DevOps (H-F)
Amiltone
Publiée le
DevOps
35k-40k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions : En tant que Ingénieur DevOps avec une expérience en développement C#, vous interviendrez à la fois sur des sujets d'industrialisation, d'automatisation et de développement, avec les responsabilités suivantes : Concevoir, mettre en place et maintenir les chaînes d'intégration et de déploiement continu (CI/CD) Automatiser les processus de build, de déploiement et de supervision Participer au développement et à l'amélioration d'applications en C# / .NET Collaborer avec les équipes de développement afin d'optimiser les environnements et les pratiques DevOps Contribuer à la fiabilité, la performance et la sécurité des environnements techniques Participer à l'amélioration continue des outils et des pratiques dans un cadre agile Stack technique : C# PowerShell / Bash Technologies et outils : .NET / .NET Core Docker Kubernetes CI/CD (Azure DevOps, GitLab CI, Jenkins) Git Cloud (Azure, AWS ou GCP)
Offre d'emploi
Cloud Security Engineer – Azure (Cryptography & Key Management)
LEVUP
Publiée le
Azure
12 mois
Paris, France
Cloud Security Engineer – Azure (Cryptography & Key Management) Contexte Dans un environnement cloud Azure hautement sécurisé et régulé, vous rejoignez l’équipe Cloud Security en charge de la conception, de l’implémentation et de l’industrialisation des mécanismes cryptographiques protégeant les données, identités et services critiques de l’entreprise. Le rôle se situe à l’intersection de la sécurité cloud , de la cryptographie appliquée et de l’ automatisation . Responsabilités principalesCryptographie & Key Management Concevoir et maintenir des architectures de gestion des clés (Key Management) dans Azure Implémenter et opérer Azure Key Vault , Managed HSM, certificats et secrets Définir et automatiser le cycle de vie des clés et certificats (création, rotation, révocation, destruction) Garantir l’utilisation correcte des primitives cryptographiques (TLS, signatures, chiffrement) Sécurité Cloud Azure Sécuriser les services Azure (compute, storage, networking) selon les bonnes pratiques Travailler sur les contrôles d’accès (IAM) , identités managées, RBAC Contribuer à des architectures Zero Trust et cloud-native Supporter les équipes applicatives sur les sujets sécurité & crypto Automatisation & Industrialisation Automatiser les services de sécurité via Infrastructure as Code (Terraform, Bicep, ARM) Intégrer la sécurité cryptographique dans les pipelines CI/CD Développer des outils ou scripts (Python, Go, PowerShell) pour fiabiliser et scaler la sécurité Gouvernance & conformité Participer à la définition des standards cryptographiques internes Contribuer aux exigences réglementaires (ISO 27001, SOC2, PCI-DSS, etc.) Être un point de référence technique sur les sujets crypto dans le cloud Compétences techniques requisesCloud & Sécurité Azure (Key Vault, Managed HSM, IAM, networking) Cloud security principles Infrastructure as Code (Terraform / Bicep) CI/CD (Azure DevOps, GitHub Actions) Cryptographie appliquée PKI, certificats X.509 TLS, signatures, chiffrement symétrique/asymétrique Gestion des clés, HSM Bonne compréhension des bonnes pratiques cryptographiques (sans inventer d’algorithmes) Langages & outils Python, Go ou PowerShell Git APIs REST Profil recherché Formation en informatique, sécurité ou systèmes Expérience en sécurité cloud Azure Forte appétence pour la cryptographie appliquée À l’aise dans des environnements critiques et régulés Capacité à travailler avec des équipes infra, dev et compliance
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
Responsable DevOps Engineer (+ FinOps)
ESENCA
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
AWS Glue
3 mois
Longpont-sur-Orge, Île-de-France
📍 Localisation : Essonne (91) – 3 jours sur site / 2 jours en télétravail 🕒 Démarrage : Dès que possible 🎯 Contexte de la mission Dans le cadre d’un programme stratégique de mise en œuvre d’une Nouvelle Plateforme Digitale, avec un nouveau site ecommerce, de nouveaux flux, un nouvel ETL… au sein d’un acteur du Retail, nous recherchons un ingénieur Devops expérimenté pour encadrer une équipe de 4 Devops. 🧩 Missions principales Rattaché à la DOSI (Direction et organisation des systèmes d’information), le consultant animera, coordonnera son équipe. Leader, le consultant devra être un faiseur exemplaire qui réalise, qui challenge, qui documente… Objectifs équipe : Intégration et qualification CI/CD Création, maintien, amélioration et documentation des pipelines de déploiement automatique CI/CD. Mis en place et maintien des tests automatisés sur site et application web responsive en collaboration avec l’équipe QA Étude, préparation et budgétisation de l’utilisation des infrastructures et services cloud AWS et Azure Automatisation des tâches via scripting Apport d’un support technique aux équipes transverses (développeurs, QA, production, autres équipes). Debug, résolution d’incidents et optimisation Cloud (AWS) Monitoring & Observabilté (création de dashboards, ouverture automatique de tickets…) Environnement technique : Backend : Java / SprintBoot sur AWS Frontend : Alokai headless (Vue.js / Nuxt) / SenseFuel / Fasterize / API GraphQL BDD : MySQL, MongoDB ETL : AWS Glue Outils : Confluence / Jira / GitLab / DataDog
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
QA Auto Playwright Selenium Cypress
Byrongroup
Publiée le
AWS Cloud
Cypress
Docker
6 mois
400-600 €
Paris, France
• Créer, maintenir et optimiser les tests automatisés via le framework Playwright / TypeScript • Exploiter les assistants IA intégrés (génération de tests, assistance au code via IDE Cursor et serveur MCP) • Maintenir et enrichir les suites de tests en respectant l’architecture Page Object Model (POM) • Implémenter de nouveaux scénarios basés sur des patterns data-driven • Exécuter les tests sur environnements multiples (local, BrowserStack, runners AWS) • Améliorer continuellement les pipelines CI/CD (GitHub Actions, Docker, AWS) • Collaborer avec les Analystes QA et Développeurs pour étendre la couverture automatisée • Utiliser Jira et Xray pour la gestion, l’exécution et le reporting des tests • Garantir le respect des standards de code et participer aux revues de code
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt
Almatek
Publiée le
Data analysis
4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
Offre d'emploi
ingénieur IA / data scientist expérimenté
SKYLLIT
Publiée le
Agent IA
LangChain
LangGraph
1 an
Yvelines, France
Développeur d'agents GenAI – CCOE Data & AI Foundations Nous recherchons un ingénieur IA / data scientist expérimenté ayant conçu des agents de niveau production,avec sécurité, gestion des identités et observabilité. Ce poste est au cœur d'une initiative mondiale visant à accélérer l'industrialisation et la mise à l'échelle de l'IA générative au sein de l'organisation, et prenant en charge plus de 80 000 utilisateurs dans 65 pays. Au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations, vous participerez au développement du SDK au sein de l'équipe de la plateforme GenAI pour le développement d'agents, afin de garantir la cohérence, la mise à l'échelle et la mise en production de tous les agents développés. Vous travaillerez en collaboration avec différentes équipes pour définir et faire évoluer le SDK, afin de le rendre utile, utilisable et adopté par les ingénieurs IA / data scientists. Le SDK est un produit essentiel pour de multiples environnements, des infrastructures sur site sécurisées aux déploiements cloud mondiaux. Ce poste est idéal pour un ingénieur en IA maîtrisant le fonctionnement des agents, la gestion des identités et la sécurité, et possédant une approche pragmatique du déploiement de produits et services de niveau production. Il/Elle sera désireux(se) de contribuer à façonner la conception, l'exploitation et la maintenance des agents d'IA à l'échelle de l'entreprise.
Offre d'emploi
Expert /Administrateur Hadoop H/F
OCSI
Publiée le
Ansible
Apache Kafka
Big Data
40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
Offre d'emploi
Senior IT Production Data Analyst / Incident Manager
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Offre d'emploi
DevOps / SecOps Engineer (H/F)
BLOOMAYS
Publiée le
Architecture
AWS Cloud
CI/CD
70k-75k €
Arcueil, Île-de-France
🌍 À propos de l’entreprise Nous sommes une scale-up technologique internationale, acteur de référence dans les solutions d’automatisation et de robotique pour la logistique et l’industrie. Nos produits sont déployés à grande échelle dans des environnements critiques, avec de fortes exigences en matière de fiabilité, sécurité et performance. Dans un contexte de croissance et d’industrialisation de nos plateformes, nous renforçons notre socle cloud et recherchons un(e) DevOps / SecOps Engineer pour prendre une responsabilité transverse sur l’infrastructure et les plateformes de déploiement. 🎯 Votre mission En tant que DevOps / SecOps Engineer, vous serez responsable de la conception, de l’exploitation et de l’amélioration continue de notre infrastructure cloud et de nos pipelines de déploiement. Vous interviendrez sur l’ensemble du cycle de vie des plateformes, depuis les environnements de tooling et de développement jusqu’à la production, avec une approche security by design et une forte culture de la fiabilité. 🛠️ Vos responsabilités Cloud & Infrastructure Concevoir, déployer et maintenir l’architecture cloud (AWS) Être propriétaire de l’infrastructure de bout en bout (tooling, sandbox, production) Garantir la scalabilité, la résilience, la performance et la maîtrise des coûts Mettre en œuvre et maintenir l’Infrastructure as Code (Terraform) CI/CD & Platform Engineering Concevoir et standardiser les pipelines CI/CD Automatiser les processus de build, test, release et déploiement Accompagner les équipes de développement sur les stratégies de déploiement Fiabilité & Observabilité Superviser les environnements de production (monitoring, alerting, incidents) Améliorer l’observabilité (logs, métriques, alertes) Gérer les mises à jour régulières, correctifs de sécurité et remédiation des CVE Sécurité & SecOps Intégrer la sécurité par design dans l’infrastructure et les pipelines Gérer les accès, identités et secrets (IAM, Auth0, principes de moindre privilège) Contribuer aux audits de sécurité, à la gestion des risques et à la conformité Documentation & Structuration Produire et maintenir la documentation d’architecture cloud Formaliser les processus opérationnels et politiques de sécurité Contribuer aux plans de continuité et de reprise d’activité (PRA / DRP) Collaboration Travailler au quotidien avec des équipes pluridisciplinaires (web, data, embarqué/robotique) Intervenir ponctuellement sur du scripting ou de l’automatisation Être un référent technique DevOps / Cloud au sein de l’organisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5090 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois