Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Lille

Votre recherche renvoie 46 résultats.
CDI

Offre d'emploi
Data Scientist / Machine Learning Engineer Confirmé H/F

DAVRICOURT
Publiée le

40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist / Machine Learning Engineer Confirmé pour l'un de nos clients du secteur bancaire. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir, développer et évaluer des modèles de machine learning (supervisés, XAI) ; - Mettre en production les modèles via des pipelines MLOps (CI/CD, APIs, monitoring) ; - Développer des solutions basées sur les LLM et la GenAI (RAG, fine-tuning, LangChain) ; - Assurer le suivi des performances et l'amélioration continue des modèles en production.
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Freelance

Mission freelance
DATA ARCHITECTE

Coriom Conseil
Publiée le
Collibra
KPI
Modélisation

12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance

Mission freelance
Data Governance Specialist - Data Catalog

Codezys
Publiée le
Apache Airflow
Collibra
Databricks

6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Architecte Applicatif & Data Cloud

CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python

3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Freelance

Mission freelance
IA Delivery Product Owner / Business Analyst

ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Collibra

12 mois
400-500 €
Lille, Hauts-de-France
Appel d'offres : Recrutement d'un Data Architect pour l'équipe Ressources Humaines Nous recherchons un Data Architect expérimenté pour renforcer notre équipe Ressources Humaines. Le candidat retenu aura pour mission principale d'assurer la cohérence, la conformité et la qualité de nos données RH en intégrant les meilleures pratiques de data architecture au sein de notre organisation. Compétences requises : Conception de modèles conceptuels de données par contexte métier Identification des événements métier en fonction du contexte Définition et formalisation des Business Terms , Business Attributes et Business Events dans Collibra Définition des Indicateurs Clés de Performance (KPI) par contexte métier Définition des règles de qualité pour les Business Terms Analyse de la conformité des APIs avec la data architecture Analyse de la conformité des Data Sets avec la data architecture Réalisation du data lineage pour assurer la traçabilité des données Rédaction de dossiers d'architecture data en réponse aux demandes métier exprimées dans le cadre de plans trimestriels Participation active à la démarche de data governance Objectifs de la mission : Le candidat devra élaborer et maintenir une architecture data cohérente, facilitant l’exploitation et la conformité des données RH, tout en assurant leur qualité et leur conformité aux exigences métiers. Il sera également responsable de formaliser et documenter les modèles conceptuels de données, tout en participant à la gouvernance des données pour garantir leur intégrité et leur conformité aux réglementations en vigueur. Profil recherché : Vous êtes doté d’une solide expérience en architecture data, notamment dans un contexte RH ou administratif. Vous maîtrisez les outils de gestion des métadonnées tels que Collibra, et avez une bonne compréhension des enjeux liés à la conformité des API et des Data Sets. Vos qualités analytiques, votre capacité à documenter précisément et votre esprit de collaboration seront essentiels pour mener à bien cette mission. Modalités : Les candidats intéressés sont invités à soumettre leur proposition détaillée, comprenant leur méthodologie, leur expérience pertinente et leur tarification, dans le respect des délais fixés par cet appel d’offres. Nous restons à votre disposition pour toute information complémentaire et vous remercions de l’intérêt porté à cette opportunité stratégique au sein de notre organisation.
Freelance

Mission freelance
Data Scientist

Codezys
Publiée le
Machine Learning
Python
Pytorch

12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
Freelance

Mission freelance
Architecte data

ESENCA
Publiée le
Architecture
Collibra
Gouvernance

1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance

Mission freelance
Ingénieur RESEAU Datacenter IT logistique

CAT-AMANIA
Publiée le
SD-WAN
VPN
WAN

1 an
100-450 €
Lille, Hauts-de-France
L'équipe INFRALOG rassemble les compétences techniques de l'informatique logistique sur différents domaines tel que le système&réseau, les mécanisations, la sécurité, le support, et la proximité terrain. Mû par un esprit d’anticipation et de pro-activité, tu es au quotidien obnubilé par l’excellence opérationnelle et la disponibilité des outils de vos utilisateurs. “Mieux vaut prévenir que guérir” est l’un de tes leitmotivs préféré. Le pôle INFRA/RESEAU/PARNTERS est en lien direct avec le HelpDesk, les pôles OP Devices, Partners, TME AS400, les équipes NETWORK-CORE ainsi qu'avec les responsables informatiques des entrepôts. En tant qu’ingénieur Réseau, tu participeras à rendre un service de qualité sur le réseau de nos entrepôts ainsi que sur nos deux datacenters hébergeant les AS400 qui font tourner notre WMS (gestion d'entrepôts). En tant que référent INFRA/RESEAU, Tu es garant du bon fonctionnement de ton périmètre (Support de niveau 3-4) Tu apportes une amélioration des solutions mises en place Tu gères le support & l'exploitation & monitoring du réseau de nos datacenters H4AS (LAN & WLAN & SD-WAN & WAN) Tu gères le support & l'exploitation de nos VPN Tu participes à la cellule support Tu es bon communicant, à l’aise en Anglais (minimum B2)
46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous