L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 256 résultats.
Offre d'emploi
Ingénieur(e) DevOps Cloud expérimenté(e)
ANDEMA
Publiée le
AWS Cloud
Azure
Terraform
48k-54k €
Chambéry, Auvergne-Rhône-Alpes
Nous recherchons un(e) Ingénieur DevOps Cloud Senior pour renforcer l'équipe Cloud de l'un de nos clients. L’objectif est de poser la gouvernance des environnements Public Cloud , d’accompagner techniquement les collaborateurs et de contribuer à la mise en place de standards et bonnes pratiques pour les projets cloud sur Azure et AWS. Vous rejoindrez une équipe d'une vingtaine de personnes réparties sur trois périmètres Public Cloud, avec un rôle transversal et stratégique, garantissant la cohérence technique et opérationnelle des environnements cloud et hybrides. 🎯 Missions principales1️⃣ Gouvernance Cloud Définir et maintenir les standards et règles d’usage pour les Landing Zones Azure et AWS : RBAC, policies, tagging, compliance Sécurité et conformité (ISO, RGPD, SOC2) Mettre en place et administrer les mécanismes de contrôle (Azure Policy, AWS Config, Service Control Policies). Garantir la cohérence des environnements et la conformité aux bonnes pratiques cloud. 2️⃣ Intégration On-Prem & Hybrid Comprendre les contraintes des environnements existants (réseau, sécurité, containers, virtualisation). Assurer l’interopérabilité entre Cloud et On-Prem. Contribuer aux projets hybrides Cloud + Datacenter et à la gouvernance des workloads Kubernetes. Participer aux patterns de migration et à l’optimisation des architectures hybrides. 3️⃣ Automatisation & Infrastructure as Code Maintenir et faire évoluer les scripts Terraform pour la création et la configuration des Landing Zones. Automatiser les contrôles de conformité et les déploiements cloud. Optimiser les pipelines CI/CD et améliorer les processus DevOps. 4️⃣ FinOps & Optimisation Participer au suivi des coûts et à l’optimisation des ressources cloud. Mettre en place des alertes et reporting pour les usages cloud. Contribuer à la définition des budgets et à la rationalisation des services Cloud.
Mission freelance
Ingénieur Cloud plateforme AWS - Kubernetes
Cherry Pick
Publiée le
AWS Cloud
Github
Gitlab
12 mois
500-530 €
Paris, France
Au sein d'une équipe technique en pleine croissance, vous intervenez pour reprendre le flambeau suite à un départ interne. Notre client recherche un profil confirmé dynamique, motivé et rigoureux , capable de s'approprier rapidement un existant pour le faire évoluer. Vos missions sont équilibrées entre le Build (construction de nouvelles infrastructures) et le Run (maintien en condition opérationnelle et optimisation). Vos Missions Infrastructure as Code : Concevoir et déployer les infrastructures cloud via Terraform . Orchestration : Gérer et optimiser les clusters Kubernetes en environnement de production (déploiement, scaling, monitoring). Cloud Management : Build, Administrer et sécuriser les services sur l'environnement AWS . CI/CD : Améliorer les pipelines de déploiement pour fluidifier le travail des développeurs. (Github actions) Fiabilité (SRE) : Assurer la haute disponibilité des services et intervenir sur la résolution d'incidents (Run).
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
Testeur Sénior
DEVIK CONSULTING
Publiée le
Oracle ERP Cloud
Test fonctionnel
Test unitaire
1 an
400-600 €
Lille, Hauts-de-France
Description Pour le compte de notre client grand compte, nous recherchons un Testeur Sénior expérimenté sur les tests de déploiement ERP. Le consultant rejoindre l’équipe en charge de concevoir les campagnes tests et de valider les fonctionnalités nouvelles et existantes. Tâches principales Participer à l'élaboration de la stratégie de tests et chiffrage des tests sur base des exigences métiers. Rédiger les campagnes de test Réaliser les tests systèmes et fonctionnels Capitaliser les scripts de tests et données de test Compléter la documentation. Participer à l'automatisation des tests de non-régression Compétences demandées Conception de test : Expert Exécution des test : Confirmé Finance Comptabilité : Confirmé Bases de données Oracle : Souhaité Xray : Expert Langues Français : Courant Lieu : Lille
Offre d'emploi
Expert nouvelles technos (IA, Cloud...) - Secteur Industrie
OCTOGONE
Publiée le
BI
Preuve de concept (POC)
2 ans
Hauts-de-Seine, France
Objectif : Accélérer les projets et augmenter la valeur métier des solutions en explorant et en prototypant de nouvelles technologies (IA, Data/BI) et méthodes (Agilité). Attendus : Des prototypes et "Proof of Concepts" (PoC), des tableaux de bord décisionnels (Power BI), un accompagnement (coaching) des équipes à l'agilité, et des études de veille technologique. Évaluer la pertinence de nouvelles technologies pour le client et construire des environnements de démonstration pour les métiers. Accompagner les projets dans l'adoption de ces nouvelles technologies.
Mission freelance
Data Engineer SAP
Mon Consultant Indépendant
Publiée le
SAP
3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Offre d'emploi
Chef de Projet Recette - Plateforme Cloud Native
VISIAN
Publiée le
Infrastructure
Maintien en condition opérationnelle (MCO)
1 an
40k-45k €
400-520 €
Île-de-France, France
Détail de la prestation Ce Pôle est le centre d'expertise pour l'infrastructure, le cloud, la donnée, l'IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l'innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. Dans le cadre du pilotage du projet stratégique, nous recherchons un Chef de Projet Recette pour renforcer l'équipe projet et notamment le Directeur de programme. La mission consiste à piloter le stream Recette dans le cadre du déploiement et de l'industrialisation de la plateforme OpenShift. Le chef de projet sera responsable de piloter les activités de recette liées au déploiement de la plateforme OpenShift, en assurant la coordination entre les équipes techniques et métiers. Ce programme consiste à remplacer la plateforme OpenStack actuelle, devenue obsolète, par une plateforme cloud native plus moderne, performante et sécurisée. Périmètre Définition du périmètre de recette (technique et fonctionnel) Élaboration de la stratégie de recette et planification Mise en place des environnements de test Coordination avec les équipes MCO/MCS Pilotage des campagnes de recette (y compris celles avec les clients) Suivi des anomalies et coordination des correctifs Reporting projet Contribution à l'amélioration continue Activités attendues Rédaction des plans de test Animation des comités de suivi Suivi opérationnel des tests (exécution, automatisation, couverture) Reporting sur les risques et les plans d'action Coordination transverse avec les autres streams
Offre d'emploi
Expert IBM Infosphere Data Replication (IIDR)
VISIAN
Publiée le
IBM Cloud
1 an
40k-45k €
400-700 €
Paris, France
Descriptif du poste Dans le cadre du programme qui vise à construire une Data Platform intégrée, la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud). Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace.
Mission freelance
[LFR] Développeur Python et Django (Systèmes Linux - Sécurité) à Guyancourt - 1240
ISUPPLIER
Publiée le
10 mois
300-450 €
Guyancourt, Île-de-France
Nous recherchons un Développeur Python et Django pour rejoindre notre équipe dynamique. Ce poste implique le développement (Build) et la maintenance (Run) d'applications web sécurisées en utilisant Python et Django, tout en respectant les meilleures pratiques en matière de sécurité des systèmes Linux. Équipe Actuellement en place Run (Déploiement, MCO, MCS) Collecte (Récupération de Données) Web (IHM) Responsabilités Principales Développer (Build) et maintenir (Run) des applications web en utilisant Django, avec une majorité des tâches centrées sur le Build et le Run. Collaborer avec les membres de l'équipe pour assurer l'intégration des systèmes et le déploiement des applications. Participer activement à toutes les activités : Run (Déploiement, MCO, MCS) de Collecte (Récupération de Données) Web (IHM) Contribuer à la création d'interfaces utilisateur (IHM). Renforcer les mesures de sécurité des systèmes. Compétences Requises Langages de programmation : Python Technologies et Outils : Django MySQL et SQL GitLab pour la gestion de version Environnement de développement Eclipse VS Code Systèmes : Environnement Linux (RUN N2/N3 Autres : Connaissance des méthodes de développement agile et des outils d'automatisation. Qualifications : Expérience en développement web avec Python et Django. Capacité à travailler en équipe et à communiquer efficacement. Compréhension des principes de sécurité informatique.
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Mission freelance
Data Engineer IA & API (GCP & AWS)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker
6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Offre d'emploi
Expert Openstack/Cloud N3-N4
CONSORT GROUP
Publiée le
OpenStack
3 ans
Paris, France
Contexte Dans le cadre du design et de la gestion des plateformes IAAS Openstack nous recherchons un expert Openstack open source. Activités phares : Gérer du build (nouveaux designs, déploiements de nouvelles infrastructure Openstack) mais aussi du run (exploitation des infrastructures existantes, MCO…) Exploitation et Maintien en Condition Opérationnel • Gérer et administrer des plateformes Openstack et ses différents systèmes de stockage. • Gestion du Hardware et des urbanisations en Datacenter, vision sur le capacitaire des plateformes, gestion de l’obsolescence. • Captain Run : résolution d’incidents N3/N4 sur les plateformes au niveau Hardware, Openstack, Network, Stockage. • Identification et intégration des exigences de sécurité. • Application des process management sur la production. • Analyser les métriques et la supervision, capable de faire évoluer les systèmes de monitoring. Architecture et Devops : • Être capable de bâtir les infrastructures de demain • CI/CD : connaitre les principales technologies d’automatisation et de déploiement. Avoir une approche « infra as code ». • Garantir la cohérence des livrables et de la documentation.
Mission freelance
[FBO] Ingénierie Réseaux Sécurité Expérimenté - Guyancourt - 1343
ISUPPLIER
Publiée le
6 mois
350-425 €
Guyancourt, Île-de-France
Secteur bancaire. Description et localisation Au sein du Pôle Tech Fondation – SQUAD Infra Pôle Paiement Expérimenté. Fiche de mission : L’équipe Ingénierie Intégration Réseau est une des équipes réseau (Lead DE Réseau) du Pôle Tech Foundation. Ce domaine d'expertise opère sur les infrastructures réseau, sécurité & Internet du Groupe. Au sein de l’équipe IIR, les squads Métiers & Infrastructures Pôles / Paiement ont pour mission de : Répondre aux expressions de besoin des métiers de nos Entités ou des besoins d'infrastructures de nos Pôles ; D'accompagner et chiffrer des besoins clients ; Réaliser l'implémentation technique ; Contribuer au développement de l’offre de service ; Effectuer du support N3 sur l’ensemble des infrastructures et services du périmètre ; Etre référent sur l'architecture métiers des entités sur le périmètre réseau/sécurité. Chaque ingénieur projet technique gère plusieurs projets en parallèle et assure le support N3 sur un ensemble de projet. L’enjeu de l’équipe est de concilier la sécurité (impérative dans le monde bancaire), l’agilité, l’innovation et la qualité de service. Descriptif de la mission : Etude de faisabilité technique ; Réalisation de devis soumis à validation des clients ; Traitement opérationnel des demandes (configuration des équipements pour répondre au besoin) ; Livrable de document d’architecture et mise à jour ; Résolution d’incident lié à nos actions ; Assistance N3 sur les incidents Majeurs. Aptitudes : Bonne communication (orale et écrite), bonne posture client, esprit de synthèse, curiosité, rigueur, esprit d’équipe, autonomie, capacité à gérer le stress. Qualités relationnelles et travail en équipe. Compétences Techniques : Etude d'architecture. Réseau (LAN, WAN, MPLS, VPN) : Maitrise des protocoles et fonctionnement du réseau Switching, load balancer, routeurs … Exploitation de Fortinet (FW, VPN), F5 LTM/ASM/APM, FortiProxy, Netskope proxy, Checkpoint (FW, VPN), Palo Alto (FW, VPN), Forcepoint (FW,VPN) et routeurs Cisco. Sécurité (Reverse Proxy, Firewall, Proxy, WAF, etc.) Scripting et automatisation. Gestion Certificats. Process ITIL. Notions PCI/LPM. Modalités : Niveau anglais : professionnel Expérience du profil recherché : Expérimenté Localisation : SQY Modalités : 3jrs sur site / 2 jours hors site
Mission freelance
Data Engineer AWS / GenAI
Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Mission freelance
architecture technique infrastructure
QUALIS ESN
Publiée le
Cloud
VMware
Windows Client
8 mois
550 €
Massy, Île-de-France
l’architecture technique sur ses sites France et international, en fonction de nombreuses caractéristiques et contraintes, en garantissant une certaine cohérence technique et le maintien du système d'information tout au long de son évolution, en étudiant son impact sur l'architecture déjà existante ou future. Cette prestation nécessite une expertise sur les technologies vmware, windows, mssql, cloud, clustering… Une capacité de rédaction de documentations techniques détaillées est également nécessaire. Livrables Dossier d’architecture technique (HLD ou LLD) Des rapports soit à l’initiative du Prestataire, soit sur demande Ces rapports seront demandés par exemple (sans être exhaustif) dans le cas de diagnostics de pannes difficiles à établir ou mettant en jeu une organisation complexe ou suite à une demande d’audit d’une infrastructure technique.
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4256 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois