L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 121 résultats.
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
DEVELOPPEUR NODE REACT (490€ MAX)
Publiée le
Node.js
React
1 an
40k-45k €
370-490 €
Île-de-France, France
Node.js React JavaScript/TypeScript Niveau Senior + 7ans (Test technique) ● Maîtrise de Node.js (avec ou sans framework, par exemple Express ou NestJS pour le développement backend. ● Expérience avec un framework frontend moderne basé sur React, notamment Next.js, Remix, ou React Router. ● Solide connaissance des concepts JavaScript/TypeScript (ES6+, typage, asynchrone, modules). ● Expérience dans la conception et le développement d’API RESTful et/ou GraphQL. ● Maîtrise des protocoles HTTP, WebSocket, et des formats d’échange JSON. ● Connaissance des bases de données relationnelles (PostgreSQL, MySQL) et/ou NoSQL (MongoDB, Redis). ● Expérience avec les environnements cloud et les outils CI/CD (Vercel, AWS, GCP, Docker, Kubernetes) est un plus. ● Compréhension des bonnes pratiques de sécurité applicative (authentification, gestion des tokens, CORS, etc.) ● Connaissance des méthodologies Agiles (Scrum, Sprint Planning, gestion de backlog)
Offre d'emploi
DevOps/SysOps/LLM/RAG
Publiée le
DevOps
Large Language Model (LLM)
RAG
3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Consuntant FinOps / Financial performance
Publiée le
FinOps
9 mois
Auvergne-Rhône-Alpes, France
Télétravail partiel
Client : Grand Groupe Industriel – Lyon Durée : 9 à 12 mois Démarrage : début T1 2026 Mode : 3 jours sur site / 2 jours remote Budget : selon séniorité Description du poste Dans le cadre du renforcement de son équipe Cloud & FinOps, notre client — un grand groupe industriel international — recherche un Consultant FinOps / Financial Performance pour accompagner la gestion, l’optimisation et la gouvernance financière de ses environnements cloud (AWS, Azure, GCP). Votre mission consistera à structurer, piloter et améliorer la performance financière des plateformes cloud & SaaS, en collaboration étroite avec le responsable FinOps, les équipes Cloud Engineering, les Achats et les équipes Métiers. Vos responsabilités principales : 1. Pilotage et analyse financière du Cloud Suivi quotidien et mensuel des dépenses Cloud & SaaS. Analyse détaillée des coûts (AWS, Azure, GCP). Identification des dérives, anomalies et axes d’optimisation. 2. Gouvernance & optimisation FinOps Mise en place des modèles de gestion des coûts : allocation, chargeback/showback. Déploiement et suivi des politiques d’optimisation (réservations, Savings Plans, rightsizing, rationalisation, stockage). Définition des règles de tagging et des bonnes pratiques. Animation des comités FinOps. 3. Prévisions et budgétisation Construction des forecasts trimestriels et annuels. Participation aux travaux budgétaires avec les équipes finance. Anticipation des risques financiers liés aux évolutions de charge et aux nouveaux projets. 4. Reporting & communication Création et mise à jour des dashboards financiers et opérationnels (Power BI, Clic, équivalent). Production de rapports destinés aux équipes techniques, aux directions et aux métiers. Vulgarisation des enjeux financiers du cloud. 5. Support aux projets Cloud Accompagnement à la structuration des coûts dans les nouveaux projets. Revue des architectures sous l’angle performance financière. Interaction avec les fournisseurs cloud pour optimiser les engagements et contrats.
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Offre d'emploi
CDI - Tech Lead Java
Publiée le
Java
Île-de-France, France
Télétravail partiel
Contexte du poste : Dans un contexte de croissance et de modernisation des systèmes d’information , notre client renforce ses équipes avec un Tech Lead Java capable de jouer un rôle central : leader technique, moteur de la vision, et ambassadeur de la stack aussi bien en interne qu’en externe. Ce poste s’adresse à un profil qui ne se contente pas d’implémenter, mais qui embarque, convainc et fait grandir : auprès des développeurs, des équipes produit, et ponctuellement auprès des clients , lors de présentations ou de cadrages techniques. Votre rôle : Vous êtes le référent technique de l’équipe et le garant de la cohérence globale des choix technologiques. Vous combinez exemplarité technique , leadership naturel et capacité à vulgariser pour porter la vision et donner du sens aux décisions. Missions principales : Incarner le leadership technique Encadrer, accompagner et faire monter en compétence une équipe de développeurs, en instaurant des standards clairs et partagés. Être un Tech Lead hands-on Participer activement au développement back-end Java (60 à 80 % du temps), avec un rôle moteur sur les sujets complexes. Porter et expliquer la vision technique Concevoir, faire évoluer et défendre les architectures applicatives (microservices, APIs, intégrations), en sachant les expliquer clairement à des interlocuteurs techniques et non techniques. Garantir l’excellence du delivery Mettre en place et faire respecter les bonnes pratiques : revues de code, tests automatisés, CI/CD, clean code. Piloter la modernisation de la stack Accompagner les migrations et la montée en maturité technique (Spring Boot, Docker, Kubernetes, cloud). Jouer un rôle d’évangélisateur Faire de la veille, challenger l’existant, proposer des améliorations continues et embarquer les équipes autour des choix techniques. Être un interlocuteur crédible côté client Participer à des cadrages, présentations ou échanges techniques avec des clients ou partenaires, en véritable ambassadeur de la plateforme . Profil recherché : > 10 ans d’expérience en développement Java, avec une expérience avérée en lead technique . Très forte maîtrise de l’écosystème Java / Spring / Spring Boot et des architectures distribuées. Goût prononcé pour la transmission , le mentoring et le partage de bonnes pratiques. Leadership naturel, capacité à fédérer sans autorité hiérarchique. Excellentes compétences de communication et de vulgarisation technique. À l’aise pour prendre la parole , expliquer, convaincre et représenter la tech. Formation Bac +5 (école d’ingénieurs ou université). Compétences techniques attendues : Langages / Frameworks : Java, Spring, Spring Boot, Spring Security Architecture : microservices, REST / SOAP, MVC Front (bonus) : Angular ou équivalent DevOps : Docker, Kubernetes, Jenkins, Git Data & Messaging : PostgreSQL, MySQL, MongoDB, Kafka Environnements : Tomcat, cloud (AWS / Azure / GCP) Bonnes pratiques : CI/CD, tests automatisés, clean code Pourquoi ce poste est différent : Vous ne serez pas “juste” un Tech Lead, mais la voix de la tech . Vous aurez un vrai espace d’influence sur les choix, la vision et la culture technique. Vous incarnerez la stack, en interne comme auprès des clients.
Offre d'emploi
Ingénieur Réseau et Sécurité F/H
Publiée le
50k-55k €
Strasbourg, Grand Est
Télétravail partiel
En tant qu'Ingénieur(e) Réseau & Sécurité, vous serez responsable de la gestion et de l'évolution de l'infrastructure réseau ainsi que de la définition de la politique de sécurité informatique pour les sociétés et sites du groupe. Vous proposerez et piloterez les évolutions d'architecture nécessaires pour aligner notre environnement sur les standards du marché, et déploierez les solutions de sécurité garantissant un niveau de protection optimal. Au sein d'une équipe IT dynamique, vos principales responsabilités seront les suivantes : Conception & architecture : Concevoir, déployer et maintenir l'infrastructure réseau (LAN, WAN, VPN, accès nomades). Administration & maintenance : Gérer l'administration des réseaux et la politique de sécurité sur un environnement majoritairement Windows, Linux et VMware. Sécurité : Implémenter et maintenir les dispositifs de sécurité opérationnels et documentaires en vue d'une certification ISO27001/NIS2 sous 3 ans (firewalls Fortinet, IDS/IPS, etc.) et assurer la protection des systèmes et des données. Support & incidents : Diagnostiquer et résoudre les incidents techniques liés aux réseaux et aux systèmes. Optimisation : Améliorer en continu les performances, la fiabilité et la disponibilité des infrastructures. Compétences techniques recherchées Réseaux : TCP/IP, routage (OSPF, BGP), switching, VLAN, firewalls (Cisco, Fortinet, Meraki, Stormshield, Darktrace/Vectra), outils de supervision (Zabbix). Sécurité : Protocoles SSL/TLS, VPN, firewalls, IDS/IPS, gestion des identités et des accès (MFA). Cloud : Une expérience avec un fournisseur cloud (Azure appréciée ; AWS ou GCP également) serait un plus.
Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE
Publiée le
MES (Manufacturing Execution System)
6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
Mission freelance
232093/Ingénieur Cloud / DevOps Rennes
Publiée le
Cloud
3 mois
330-380 £GB
Rennes, Bretagne
Télétravail partiel
Ingénieur Cloud / DevOps Rennes Missions : Automatisation et performance : concevoir et optimiser scripts et workflows (déploiements, sauvegardes, mises à jour) pour fluidifier les opérations et renforcer l’efficacité. Observabilité : mettre en place logs, métriques, dashboards et alerting, définir une stratégie de Disaster Recovery et assurer une sécurité de bout en bout (IAM, secrets, chiffrement, CI/CD sécurisé). Analyser et optimiser les coûts d’infrastructure, accompagner les équipes dans la maîtrise budgétaire tout en préservant la performance technique. Travailler main dans la main avec les différentes équipes pour accélérer les livraisons et garantir la qualité des environnements. Transmission : partager tes bonnes pratiques, documenter les procédures et accompagner la montée en compétence des équipes (mentorat junior). Environnement technique : Cloud : maîtrise d’Azure , bonne connaissance d’AWS et GCP (est un +) IaC et orchestration: Terraform, Helm, Kubernetes/Docker Sécurité Cloud : Cloud Security Posture Management avancé, gestion des identités (Keycloak) Observabilité : Grafana CI/CD : automatisation et intégration via GitHub Actions Bases de données : MongoDB, MySQL Profil : 5 à 7 ans d'expériences en tant qu'Ingénieur DevOps (Azure) Disponible ASAP Profil Rennais ou alentours de préférences Objectifs et livrables Mises à jour, correctifs, migrations et optimisations de performance. Objectif : garantir une infrastructure stable, fiable et scalable. Compétences demandées AWS Avancé GCP Avancé Docker Kubernetes Expert Microsoft Azure Expert
Offre d'emploi
PIXIE - Mission -Freelance - Tech Lead - Réseau - ENV. Multi Cloud - LONG TERME - LILLE
Publiée le
BGP (Border Gateway Protocol)
Cloud
Open Shortest Path First (OSPF)
3 ans
Nord, France
Télétravail partiel
Bonjour Pour l’un de mes clients je recherche un Tech Lead Réseau Mission Tech Lead Réseau Contexte BU Cloud Platform Engineering en forte croissance environ 170 personnes Objectif simplifier et standardiser les outils IT et renforcer la collaboration Equipe Equipe Core Network avec une double compétence réseau et DevOps Travail sur l’automatisation la fiabilité et la sécurité en environnement hybride et multi cloud Rôle Référent technique réseau Définition de la roadmap avec le PO Choix des architectures et accompagnement de l’équipe Garantie de la qualité des livrables automatisation IaC CI CD sécurité by design Pilotage des déploiements et des projets de transformation Reporting clair auprès du management Environnement technique Backbone BGP OSPF Juniper IPAM Netbox Infoblox Cloud AWS GCP DirectConnect Interconnect VPN IPSEC SSL ZTNA DNS Route53 CloudDNS VPC Security Groups PrivateLink Transit Gateway Shared VPC Egress Fortinet Squid Profil 7 à 8 ans d’expérience réseau avec un rôle de référent ou Tech Lead Très bonne maîtrise AWS et ou GCP certification attendue Automatisation Python Terraform CI CD Leadership esprit d’équipe méthodes agiles Anglais professionnel Si vous êtes intéressé et que votre profil correspond merci de m’envoyer votre CV à jour Je reviens vers vous rapidement pour échanger
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
121 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois