Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 171 résultats.
CDD
CDI
Freelance

Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD

KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
RGPD

18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance

Mission freelance
Data Engineer Snowflake (H/F)

Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake

12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Freelance
CDI

Offre d'emploi
Senior Cloud Network Engineer AWS

Groupe Aptenia
Publiée le
AWS Cloud
CI/CD
Network

6 mois
Paris, France
Nous recherchons un(e) ingénieur(e) senior spécialisé(e) en network automation sur AWS . Vous concevez et industrialisez des infrastructures réseau cloud à grande échelle (VPC, VPN site-to-site, IPsec), en vous appuyant fortement sur l’ Infrastructure as Code (Terraform/CDK) et le développement Python . Vous construisez des plateformes automatisées (landing zones, network factories, CI/CD), intégrez la sécurité dès la conception et garantissez la scalabilité et la résilience des environnements. Le poste est orienté build & design , loin du RUN ou du réseau traditionnel.
Freelance

Mission freelance
DevSecOps AWS

Tenth Revolution Group
Publiée le
AWS Cloud

3 mois
160-650 €
Paris, France
Dans un contexte de forte accélération produit et de mise en conformité sécurité , notre client renforce son équipe plateforme avec un DevSecOps AWS senior pour sécuriser et industrialiser ses pipelines CI/CD et ses environnements cloud. Missions principales Concevoir et maintenir des pipelines CI/CD sécurisés (GitLab CI / GitHub Actions / Jenkins) Implémenter une approche Security by Design sur les environnements AWS Déployer et maintenir l’ Infrastructure as Code (Terraform principalement) Intégrer des outils de sécurité dans les pipelines : SAST / DAST Scan de dépendances Scan d’images Docker Renforcer la gestion des secrets & des identités (IAM, Secrets Manager, Vault) Participer à la mise en conformité ISO 27001 / SOC2 / RGPD Travailler en étroite collaboration avec équipes Dev, Sec & Platform Environnement technique Cloud : AWS (EKS, EC2, RDS, S3, IAM, CloudTrail, GuardDuty) CI/CD : GitLab CI ou GitHub Actions IaC : Terraform (mandatory) Conteneurs : Docker, Kubernetes (EKS) Sécurité : Trivy, SonarQube, Snyk, OWASP ZAP, AWS Security Hub Monitoring : Prometheus, Grafana, CloudWatch
Freelance
CDI

Offre d'emploi
Ingénieur de Production Devops Sénior (Kubernetes, Control M, GitLab, Scripting, Linux)

Taimpel
Publiée le
Ansible
Control-M
Dynatrace

3 ans
50k-57k €
440-500 €
Yvelines, France
FICHE DE POSTE – IP DEVOPS CONFIRMÉ Contexte de la mission Dans le cadre d’un renforcement d’équipe, un client bancaire ouvre un poste en prestation longue durée au sein d’une équipe production applicative intervenant sur des applications sensibles, quasi temps réel . L’environnement est décrit comme bienveillant , avec un responsable proche de son équipe (environ 20 personnes ), favorisant la collaboration, l’accompagnement technique et la montée en compétence collective. Objectifs de la mission Assurer la stabilité, la fiabilité et l’industrialisation des environnements de production applicative Accompagner les équipes de développement dans l’ intégration des contraintes production Contribuer activement à la démarche DevOps et à l’automatisation des processus Intervenir sur des applications critiques à forte exigence de disponibilité et de performance Missions principalesProduction & DevOps Intervenir en production applicative sur des applications sensibles et quasi temps réel Participer à la mise en œuvre et à l’amélioration des chaînes DevOps Automatiser les tâches récurrentes via Shell et Ansible Réaliser des projets d’automatisation (création de playbooks Ansible, industrialisation) Kubernetes Intervenir sur des environnements Kubernetes avec un rôle expert Accompagner les équipes de développement pour : l’intégration des applications en production la prise en compte des contraintes d’exploitation les bonnes pratiques de déploiement et d’exploitation Attendu : au-delà d’un simple usage , capacité à accompagner, conseiller et guider les développeurs CI/CD & Outillage Utiliser GitLab avec des connaissances approfondies (au-delà du simple usage) Participer à la conception, l’évolution et l’optimisation des pipelines Travailler avec Control-M : création de chaînes structuration et exploitation des traitements Utilisation de CFT (niveau utilisateur) Supervision & Exploitation Exploitation et suivi des environnements sous Linux (majoritairement) Supervision applicative et infrastructure via Dynatrace Diagnostic et résolution d’incidents de production Contribution à l’amélioration continue de la qualité de service Profil recherché IP DevOps confirmé Minimum 8 ans d’expérience en production applicative Expérience impérative sur des applications sensibles et à fortes contraintes de disponibilité Très bon niveau technique avec un mindset DevOps Capacité à : communiquer efficacement accompagner les équipes être force de proposition s’adapter rapidement Savoir-être attendu Ouvert Technique Motivé Adaptable Bon communicant Contraintes & modalités Démarrage : courant février Localisation : Saint-Quentin-en-Yvelines Télétravail : 2 jours par semaine Durée de mission : 3 ans RÉCAPITULATIF DES TECHNOLOGIES • ORCHESTRATION / CONTAINERS : Kubernetes • CI / CD & VERSIONING : GitLab • ORDONNANCEMENT & TRANSFERTS : Control-M, CFT • AUTOMATISATION & SCRIPTING : Ansible, Shell • SUPERVISION : Dynatrace • BASES DE DONNÉES (USAGE) : MySQL, MongoDB • SYSTÈMES D’EXPLOITATION : Linux • CONTEXTE : Applications sensibles, quasi temps réel, production applicative bancaire
Freelance

Mission freelance
Référent technique Dataiku / Braincube (H/F)

Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku

2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Grenoble, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-50k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par Data ingénieur ? Ce poste est fait pour vous. En tant que Data ingénieur, vous êtes responsable du développement et de la fiabilisation de notre écosystème : Côté build : Concevoir et développer les flux d’alimentation des KPIs sur les projets GENAI Construire les flux d’alimentation des KPIs Opérations Groupe (pilotage de l’activité des plateaux de gestion) Développer et maintenir les pipelines d’ingestion et de transformation de données Modéliser les données et structurer les couches de transformation (via dbt) Optimiser les performances des requêtes SQL et la qualité des données Participer aux choix d’architecture et aux bonnes pratiques Data Engineering Côté run : Superviser et maintenir les flux d’ingestion existants Garantir la qualité, la fiabilité et la disponibilité des données Corriger les incidents et assurer le support technique auprès des équipes métiers Mettre en place des contrôles et monitoring des pipelines Assurer l’évolution continue des flux en fonction des besoins projets Documenter les flux et les modèles de données C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez structurer, industrialiser et fiabiliser la donnée sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration transverse. C’est votre expertise : Excellente maîtrise de SQL (obligatoire) Expérience confirmée sur Talend (développement de flux d’ingestion) (obligatoire) Maîtrise de dbt pour la transformation et la modélisation des données Bonne compréhension des architectures data modernes (ELT, pipelines, data warehouse) Python serait un plus apprécié Expérience en environnement Agile / DevOps Connaissance des environnements Cloud appréciée C’est votre manière de faire équipe : Esprit analytique et rigueur Sens du service et orientation métier Capacité à travailler en transverse avec des équipes techniques et opérationnelles Autonomie et proactivité Goût pour l’amélioration continue Communication claire et structurée C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours Salaire : De 40 000€ à 50 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Scientist – Forecasting / Snowflake

CHOURAK CONSULTING
Publiée le
Data science
Machine Learning
Python

1 mois
400-500 €
Lille, Hauts-de-France
Nous recherchons un Data Scientist pour intervenir sur une mission autour d’un sujet R&D en prévision des ventes , au sein d’un acteur du secteur retail. L’objectif de la mission est d’améliorer les stocks cibles en magasin grâce à la mise en place d’un modèle de prévision performant. Contexte de la mission Dans un environnement data existant reposant notamment sur Snowflake , vous interviendrez sur la mise en place des bases data et d’un système d’algorithmes de prévision des ventes . La mission se fera en collaboration étroite avec les équipes métiers , avec une approche itérative orientée résultats. Missions principales Mettre en place les prérequis data nécessaires aux travaux de modélisation. Développer un modèle de prévision des ventes . Exploiter et analyser les données disponibles dans Snowflake . Construire et tester des algorithmes de forecasting . Travailler en interaction directe avec les équipes métiers. Adopter une démarche R&D / POC avec itérations rapides .
Freelance
CDI

Offre d'emploi
Architecte Technique Senior (H/F)

IA Soft
Publiée le
Angular
Azure Kubernetes Service (AKS)
Mongodb

12 mois
40k-50k €
400-550 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes Architecture, nous recherchons un Architecte Technique Senior pour garantir la cohérence technique des applications du périmètre, accompagner les projets dans leurs choix d’architecture et contribuer aux dossiers d’architecture technique (DAT) en lien étroit avec les équipes cybersécurité, infrastructure et exploitation. Objectifs : Garantir la cohérence technique des applications et leur alignement avec la stratégie d’entreprise. Collaborer avec l’ensemble des acteurs (projets, cybersécurité, infrastructure, exploitation, experts transverses). Piloter la réalisation des dossiers d’architecture technique (nouvelles applications et évolutions). Contribuer, sur sollicitation, à la gestion de crises (incidents / résolution). Identifier, mobiliser et animer les expertises techniques complémentaires . Gérer, compléter et suivre les demandes de services liées aux projets. Activités / Tâches : Planifier et animer les ateliers d’architecture avec les équipes projets et cybersécurité. Recueillir et analyser les besoins des équipes projet sollicitant les services d’architecture. Concevoir des architectures techniques et d’hébergement (Cloud / On-Premise) alignées avec la stratégie SI. Valider la faisabilité des architectures auprès de la cybersécurité, des experts infrastructure et des équipes d’exploitation. Rédiger et maintenir à jour les DAT / dossiers d’architecture technique & hébergement . Réaliser le dimensionnement initial des composants d’infrastructure. Présenter et défendre les dossiers en comités de validation . Proposer des axes d’amélioration (process, offres de service, templates, méthodes) aux architectes référents. Relire et valider les dossiers produits par d’autres architectes (autres divisions). Maintenir la cartographie applicative et suivre l’obsolescence du périmètre. Conseiller sur la stratégie d’évolution des applications. Apporter une expertise forte sur les socles Ubuntu / Apache / Tomcat . Livrables attendus : Production et suivi des Dossiers d’Architecture Technique (DAT) . Mise à jour d’un planner de suivi (versions, dossiers, jalons). Reporting hebdomadaire : planning, synthèse d’activité, points structurants, irritants, blocages. Centralisation et mise à jour des informations dans un référentiel/fichier centralisé . Compte-rendu hebdomadaire des activités (applications, temps passé, description macro). Connaissances techniques : Réseau, base de données, middleware, SQL OS : Ubuntu / Redhat (et connaissances Solaris/Windows appréciées) Cloud : AWS & Azure + On-Premise Virtualisation & conteneurs : VMWare, Docker, Kubernetes Bonne compréhension des logiciels/technos du schéma directeur Environnement technique : Cloud AWS / Azure / On-Premise Tomcat, Java, NodeJS, Kubernetes, Python, Angular Ubuntu, Solaris, Redhat, Windows PostgreSQL, Oracle, MongoDB
Freelance

Mission freelance
Intégrateur Technique /Gestionnaire Env. H/F

Insitoo Freelances
Publiée le
Administration linux
Azure Kubernetes Service (AKS)
Linux

2 ans
252-336 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Paris et Marseille et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Intégrateur Technique /Gestionnaire Env. H/F à Aix-en-Provence, France. Contexte : La prestation porte sur la gestion et l’industrialisation des environnements de recette Les missions attendues par le Intégrateur Technique /Gestionnaire Env. H/F : Déploiement des applications sur les différentes plateformes. Exécution et suivi des tests d’accrochage technique (tests automatisés). Validation de la conformité globale des environnements avant mise à disposition des équipes fonctionnelles. Prise en charge des incidents, analyse des causes racines, suivi et documentation. Collaboration étroite avec les équipes de développement et d’exploitation pour sécuriser les livraisons. Mise en place de procédures de surveillance, reporting, et industrialisation des gestes techniques (scripts, automatisation) Compétences indispensables Bases solides en Unix/Linux (commandes, gestion de services, logs). Compréhension des cycles de développement et environnements de recette. Déploiement d’applications sur différentes plateformes. Analyse d’incidents, qualification, escalade au niveau 2 si nécessaire. Bonne capacité de communication et travail avec équipes Dev / Exploit. Compétences souhaitées (idéal mais non obligatoires) Connaissances Kubernetes (K8s) et plateformes conteneurisées . Maitrise de ArgoCD ou d'un autre outil GitOps. Notions de pratiques DevOps . Scripting ( Shell , éventuellement Python). Idéalement : notions de développement (Java / Angular) — non exigé . Localisation : Aix-en-Provence (13) Télétravail : 2j/5
Freelance

Mission freelance
DBA Expert MongoDB – PaaS Azure (H/F)

AVA2I
Publiée le
Azure
Maintien en condition opérationnelle (MCO)
Mongodb

3 ans
550-670 €
La Défense, Île-de-France
🎯 Contexte Dans le cadre du renforcement de ses équipes IT et de l’évolution de plateformes data vers le cloud, un grand groupe international du secteur de l’énergie recherche un DBA expert MongoDB pour intervenir sur des environnements PaaS Azure à forte criticité . Le rôle est résolument opérationnel et technique : il s’agit d’un référent MongoDB , capable d’intervenir en profondeur sur la plateforme, et non d’un poste d’architecte . 🛠️ Missions En tant que DBA MongoDB expert, vous intervenez sur : Administration et exploitation de bases MongoDB en environnement PaaS Azure Maintien en Conditions Opérationnelles (MCO) : Performance Disponibilité Sécurité Optimisation des bases : Tuning Gestion des index Gestion des volumes Réplication Gestion des incidents complexes (N2 / N3) Montées de version et opérations de maintenance Support aux équipes applicatives Mise en place et suivi des bonnes pratiques : Sauvegardes Restauration Supervision ⚙️ Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting : PowerShell, Python ou équivalent Supervision, sécurité, haute disponibilité
Freelance

Mission freelance
ARCHITECTE INFRASTRUCTURE - habilitable- anglais courant H/F

Cheops Technology
Publiée le
AWS Cloud
Cloud
Microsoft SQL Server

9 mois
530-600 €
Massy, Île-de-France
Dans un contexte de cybersécurité accru, notre client a pour objectif de sécuriser davantage son Système d’Information. De plus, afin de rester leader, nous devons accompagner nos métiers dans la mise en place de nouvelles solutions. Pour ce faire, nous devons rédiger les dossiers d’architecture technique des solutions. Mission: Design de l’architecture technique des solutions demandées sur ses sites France et international, en fonction de nombreuses caractéristiques et contraintes, en garantissant une certaine cohérence technique et le maintien du système d'information tout au long de son évolution, en étudiant son impact sur l'architecture déjà existante ou future. •CLOUD •Stockage, Sauvegarde, •Virtualisation, Systèmes •Réseau •SQL Serveur •Systèmes d’exploitation Windows. •IIS
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
CDI

Offre d'emploi
Ingénieur DevSecOps

REDLAB
Publiée le
Ansible
Apache
GitLab CI

40k-46k €
Lyon, Auvergne-Rhône-Alpes
Pour notre client, nous recherchons un ingénieur DevSecOps. Au sein d'une équipe de 6 personnes, notre client recherche un Ingénieur DevSecOps orienté Sécurité/PKI * Projet de MCO / RUN sur un produit dans les zones sécurisées, une expérience en exploitation est indispensable. Projets : Mise à plat des gestes d’exploitations (MCO et le MCS du service) en vue de former un infogérant sur tout ou partie des gestes, Finaliser les outils d’exploitation (supervision, exploitation des logs ….), Mise à jour la documentation du service et insertion dans le catalogue de service du client Poursuivre l’automatisation des gestes d’exploitation…
Freelance

Mission freelance
DevOps AWS - Migration Cloud AWS

Codezys
Publiée le
Automatisation
Bash
CI/CD

6 mois
Bordes, Nouvelle-Aquitaine
Notre client entame une transformation de son Système d'Information (SI) basée sur une stratégie Cloud Hybride, combinant cloud privé et cloud public AWS. Un programme Move2Cloud lancé en 2025 vise une migration progressive des environnements legacy vers une landing zone AWS, avec une montée en puissance prévue en 2026. La mission consiste à opérer et accompagner les migrations IT vers AWS dans le cadre de Move2Cloud 2026, en respectant les standards techniques, de sécurité, de qualité et de gouvernance du Groupe. Objectifs et livrables Migration des environnements validés du legacy vers la landing zone AWS. Application prioritaire des stratégies de migration : Replatforming , Refactoring , Lift & Shift en dernier recours. Analyse de faisabilité technique selon les critères techniques et de sensibilité des données, avec rédaction de documentation technique en anglais. Compétences requises : 2 ressources DevOps avec expertise significative en environnement AWS. Maîtrise des services AWS : EC2, S3, VPC, IAM, RDS, Lambda, EBS, CloudWatch. Conception d’architectures cloud sécurisées, scalables, performantes, gestion des identités et accès (IAM). Infrastructure as Code (Terraform), automatisation, gestion de versions, tests et revues. Mise en place et gestion de pipelines CI/CD (Jenkins, GitLab CI, AWS CodePipeline), déploiements automatisés, scripts avancés en Python, Bash, PowerShell. Sécurité & conformité : chiffrement, gestion des secrets, sécurité réseau, MFA, surveillance (CloudTrail, logs), détection incidents. Supervision : CloudWatch, Prometheus, Grafana, ELK, centralisation et analyse des logs. Migration applicative : Lift & Shift, Replatforming, Refactoring, outils AWS (Database Migration Service, Server Migration Service), analyse des dépendances, sécurisation des flux réseau (NACL, Security Groups). Documentation, partage de connaissances et formation interne. Compétences soft skills et exigences Rigueur, autonomie, proactivité, bonne communication avec équipes IT et métiers, capacité d’analyse et troubleshooting. Niveau d’anglais minimum : B1 . Organisation et gouvernance Reporting hebdomadaire : activités, backlog, demandes, difficultés, axes d’amélioration. Comité de pilotage mensuel : revue des actions, difficultés, propositions, bilan financier. Gestion des incidents via ServiceNow .
5171 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous