Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 708 résultats.
Freelance

Mission freelance
Développeur JAVA backend API

Mindquest
Publiée le
Docker
Java
Spring

1 an
400-430 €
Chartres, Centre-Val de Loire
Développement backend en Java avec un focus sur les APIs. Participation active au sein d’une feature team pour concevoir, développer et maintenir des services API performants et évolutifs. Contribution aux différentes phases du cycle de développement et aux pratiques agiles de l’équipe. Poste basé à Chartres avec une organisation hybride : 1 jour sur site et 4 jours en télétravail. Démarrage dès que possible. Mission qui s'inscrit dans un contexte d'engagement long terme
CDI
Freelance

Offre d'emploi
Administrateur infrastructure - (H/F)

SWING-ONE
Publiée le
Administration réseaux
AWS Cloud
Linux

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur infrastructure. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des infrastructures on-premise et cloud. Vous intervenez sur des plateformes virtualisées VMware / VxRails / vSphere, des baies de stockage SAN/NAS, des environnements Linux et Windows, ainsi que sur des infrastructures cloud hybrides GCP et AWS, intégrées avec Microsoft 365 / Entra ID. MISSIONS PRINCIPALES : Administrer et maintenir les environnements virtualisés VMware vSphere / ESXi Exploiter et maintenir les infrastructures VxRails Administrer les baies de stockage SAN / NAS (performance, disponibilité, capacité) Administrer les environnements Linux (RedHat, Debian, Ubuntu…) Administrer Windows Server Administrer les environnements GCP et AWS Participer à l’architecture et à l’exploitation d’un SI hybride (on-premise / cloud) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
Freelance

Mission freelance
Data Engineer IA & API (GCP & AWS)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker

6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Freelance

Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT (H/F)

Freelance.com
Publiée le
Apache Kafka
AWS Cloud
MQTT (Message Queuing Telemetry Transport)

6 mois
Malakoff, Île-de-France
Dans le cadre de la transformation digitale d’un grand groupe industriel international, la DSI renforce la maîtrise et la gouvernance des flux applicatifs entre les systèmes d’information Enterprise et les systèmes d’information Industriels. Ces environnements, bien que séparés et segmentés, sont fortement interconnectés et nécessitent des solutions d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT du groupe. Afin d’accompagner cette évolution, le groupe souhaite renforcer son dispositif d’architecture sur les sujets d’intégration applicative et de gestion des flux de données. Le consultant intégrera l’équipe Solution Design & Architecture as a Service, rattachée au département Enterprise Architecture, et interviendra sur la conception des architectures d’intégration et l’accompagnement des équipes projets. Environnement technique : AWS (services natifs et solutions de transfert de données) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Envionnement industriel sécurisé
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H

SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Freelance

Mission freelance
Techlead CRM Salesforce

Codezys
Publiée le

6 mois
Le Haillan, Nouvelle-Aquitaine
Dans ce contexte, l’équipe CRM de la DSI de Solocal recherche un techlead ou administrateur / développeur Salesforce expérimenté, notamment sur le module « Service Cloud » . Le Techlead Salesforce intervient à plusieurs niveaux : Analyse des besoins et proposition de solutions : formulation de recommandations proches du standard Salesforce. Mise en œuvre : administration, configuration, développement Salesforce. Tests : réalisation de tests unitaires et d’intégration. Livraison : déploiement dans les différents environnements jusqu’à la mise en production. Support de niveau 3 : résolution d’incidents en cas d’incidents critiques, en lien avec la chaîne de soutien Solocal. Veille technologique et partage : maintien et approfondissement des connaissances fonctionnelles et techniques Salesforce, adaptation aux nouvelles versions, et accompagnement des équipes internes dans leur montée en compétences. Analyse des besoins métier : Analyser les besoins et élaborer des maquettes tout en restant au plus proche des standards Salesforce. Évaluer la charge de travail nécessaire à la mise en œuvre de la solution retenue. Animer ou contribuer aux ateliers de travail avec les directions fonctionnelles ou les key users. Participer ou coordonner l’instruction du dossier de lancement du projet, si nécessaire. Mise en œuvre : Administrer, configurer et développer sous Salesforce. Suivre les demandes de corrections ou d’évolutions assignées dans le cadre des sprints de développement, selon la méthode agile Scrum. Collaborer avec d’autres membres internes pour gérer les livraisons et préparer les déploiements en production. Maintenance corrective et support Niveau 3 : Contribuer activement au support de niveau 3 de l’application en production. Analyser et corriger rapidement les incidents confiés, ou planifier leur résolution. Veille technologique : Se tenir informé des nouvelles fonctionnalités proposées dans les mises à jour de Salesforce. Proposer des améliorations et des innovations aux directions fonctionnelles. Participer à la montée en compétences des équipes internes via formations, démonstrations et communication sur les nouvelles fonctionnalités.
Freelance

Mission freelance
Ingénieur réseau

Signe +
Publiée le
AWS Cloud
Réseaux
VPN

6 mois
400-500 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un ingénieur réseaux. Missions En tant qu’Ingénieur Réseau, vous serez en charge de : Concevoir, déployer et maintenir des architectures réseau fiables et sécurisées Administrer et optimiser les protocoles réseau (TCP/IP, BGP, OSPF, DNS, etc.) Mettre en place et maintenir des solutions VPN (site-to-site, client-to-site) Garantir la sécurité réseau (segmentation, filtrage, bonnes pratiques, conformité) Concevoir et exploiter des architectures AWS (VPC, peering, Direct Connect ) Intervenir sur des environnements multi-cloud (AWS, Azure, GCP) Analyser et diagnostiquer les incidents réseau à l’aide d’outils comme Wireshark et tcpdump Réaliser des tests de performance et de charge pour valider la robustesse des infrastructures Documenter les architectures et procédures Collaborer étroitement avec les équipes Cloud, Sécurité et DevOps
Freelance

Mission freelance
Expert Observabilité Datadog

Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform

12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
CDI
Freelance

Offre d'emploi
INGENIEUR STOCKAGE - AMAZON S3

HEEVOX
Publiée le
Amazon S3
AWS Cloud
JSON

2 ans
45k-55k €
400-500 €
Île-de-France, France
INGENIEUR STOCKAGE - AMAZON S3 Démarrage : ASAP Durée : 2 ans Localisation : Ile de France (Proche Paris) Télétravail : 50% Objectif global : Administrer plateforme de stockage objet Profil Recherché : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement.
Freelance

Mission freelance
Architecte Cybersécurité SAP H/F

Insitoo Freelances
Publiée le
AWS Cloud
Gouvernance, gestion des risques et conformité (GRC)
SAP

2 ans
600-800 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Cybersécurité SAP H/F à Île-de-France, France. Contexte : Dans le cadre de la transformation numérique du SI et du programme de migration vers SAP S/4HANA et SAP RISE, l’entreprise renforce son équipe de cybersécurité. Mission principale Assurer la conception, la validation et le suivi de la sécurité des architectures SAP dans le cadre de la migration vers S/4HANA et SAP RISE, en coordonnant les exigences de sécurité avec les équipes projets, les équipes techniques, les métiers et les partenaires externes. Définir les architectures de sécurité SAP S/4HANA et SAP RISE Concevoir et maintenir les patterns d’architecture sécurisés : SAP Fiori / Front-End Server SAP Gateway SAP BTP Security Services SAP Cloud Connector / SAP Identity Authentication Service (IAS) SAP Identity Provisioning Services (IPS) Intégration avec les solutions IAM/IGA de l’entreprise. Évaluer les impacts sécurité des choix techniques et des intégrations avec les solutions satellites Piloter les exigences sécurité dans les phases projet : cadrage, HLD, LLD, validation des designs, comités d’architecture. Définir les mesures de sécurité : Hardening des systèmes SAP (ABAP, HANA DB, Linux OS). Gestion des rôles et autorisations SAP GRC / ARA / BRM. Sécurisation du transport system, SAProuter, RFC, IDoc. Journalisation, SIEM, détection d’anomalies SAP. Gestion des vulnérabilités SAP (SAP Code Vulnerability Analyzer, ATC...). Accompagner les équipes techniques dans la mise en œuvre des contrôles et automatisations. Contribuer au cadrage de la sécurité dans la transition vers SAP RISE (Cloud privé/ Cloud public). Piloter les workshops sécurité avec SAP / intégrateurs / infogérants. Définir les plans de tests sécurité (intrusion, pentest applicatif, revue de rôles).
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
Développeur Salesforce confirmé – Environnement CIB / Transformation Data

CAT-AMANIA
Publiée le
Salesforce

2 ans
400-490 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation des systèmes d’information liés à la chaîne de financement (Front, Risk, Ops), nous recherchons un(e) Développeur Salesforce confirmé(e) pour renforcer une équipe Digital Front Financing. Ce programme vise à moderniser et consolider les fondations data et applicatives supportant les activités de financement en environnement bancaire d’investissement. Démarrage : avril Mission longue durée Vos missions Au sein d’une équipe transverse en interaction avec les équipes IT (Risk, Data, Ops) et les Product Owners métier, vous serez amené(e) à : Développer et configurer des solutions sur la plateforme Salesforce Implémenter des fonctionnalités spécifiques pour les utilisateurs Front Office Participer aux ateliers avec les parties prenantes afin de comprendre et affiner les besoins Estimer les charges de développement associées aux exigences exprimées Contribuer aux phases de tests (stabilité, performance, scalabilité) Rédiger la documentation technique et fonctionnelle Garantir la qualité et la robustesse des solutions livrées Vous interviendrez dans un environnement structuré, à forte exigence de qualité et de coordination transverse. Environnement Programme de transformation stratégique Interaction avec équipes Risk, Data, Ops Méthodologie projet structurée Environnement bancaire d’investissement
Freelance

Mission freelance
Tech Lead Full-Stack Senior – Environnement Data & GenAI (H/F)

Freelance.com
Publiée le
BigQuery
CI/CD
Github

6 mois
400-640 €
Île-de-France, France
📍 Lieu : Saint-Ouen 📅 Démarrage : ASAP ⏳ Durée : 02/03/2026 → 31/12/2026 💼 Expérience requise : 9 ans minimum 🗣 Anglais : courant 🔎 Description du poste Dans un contexte d’innovation digitale autour des sujets Data, GenAI et performance média , vous intervenez en tant que Tech Lead / Développeur Full-Stack Senior au sein d’une équipe pluridisciplinaire (Tech Lead, Full-Stack, Data Scientist, Data Engineer, Product Owner, QA). Vous serez en charge de la conception et du développement d’applications permettant notamment d’offrir une vision consolidée de la performance des assets média, depuis la stratégie globale jusqu’à l’activation locale. Vos missions principales : Développer des applications front-end performantes et responsive (React.js, JavaScript moderne) Concevoir et exposer des API de consommation pour la valorisation des données (BigQuery, PostgreSQL, MongoDB) Concevoir et implémenter des services back-end en Node.js et Python (FastAPI) Modéliser et exploiter des données via MongoDB et PostgreSQL Sourcer les données dans le Data Lake BigQuery et alimenter des Knowledge Graph Mettre en place et maintenir les pipelines CI/CD (GitHub Actions, GitLab CI, Jenkins…) Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Architecture Investiguer et résoudre les problématiques techniques (debug, performance, optimisation) Intervenir sur des sujets Cloud GCP
CDD
CDI
Freelance

Offre d'emploi
Ingénieur de production OPS sénior

KEONI CONSULTING
Publiée le
AWS Cloud
DevOps
Service Delivery Management

18 mois
20k-60k €
100-450 €
Lille, Hauts-de-France
Contexte : Nous recherchons un OPS sénior (5 ans d'XP minimum) pour renforcer l'équipe s'occupant de l'exploitation d’un asset. Au sein d'une équipe Ops/Support du domaine vous intégrerez une équipe composée de : 3 OPS 1 Lead Tech OPS 1 DM 2 Supports MISSIONS - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables : • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Compétences : Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS - Vous participez quotidiennement aux tâches du backlog de l’équipe - Vous partagez et transmettez les informations (procédures, documentations, meetups, formations internes) - Vous participez à la réflexion sur les évolutions de la plate-forme en tant que membre à part entière de l’équipe - Vous contribuez à la diffusion de la culture et du savoir technique autour des bonnes pratiques de la production (cloud AWS) au sein de l’équipe et dans l’entreprise en général.
Freelance

Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE

CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
1708 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous