Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 590 résultats.
Freelance

Mission freelance
Consultant Exchange Senior - MOE

PROPULSE IT
Publiée le
MOE

24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Consultant Exchange avec au moins 10 ans d'expérience. Au sein de l'entité Expertise et Stratégie de la Production, l'équipe de gestion des Identité et des Service Transverses est chargée de la conception, de mise en œuvre et du maintien des solutions de gestion de l'identité et des accès. Cette équipe souhaite renforcer son pôle de compétences Messagerie et Sécurité, avec une prestation d'expert technique sur les technologies Microsoft Exchange et sur les technologies de sécurités telles que les solutions de bastion ou de gestion des certificats (PKI), afin de l'assister sur les projets et actions d'ingénieries ainsi que sur les missions de support niveau 3 / conseil / expertise aux équipes de la production et des différents utilisateurs des services. Les technologies utilisées aujourd'hui sont les suivantes : • Un service de messagerie (hybride) : o Microsoft Exchange 2019 o Microsoft Echange Online • Un service de gestion des authentifications et de l'identité numérique des authentifications bureautique : o Microsoft Active Directory 2019 o Microsoft Pass-Through Authentication o Microsoft Entra-ID • Un service de provisionning des comptes dans Entra ID (Azure Active Directory) o Microsoft Azure Active Directory Connect • Un service de gestion des accès aux serveurs et services de la production (bastion) o Wallix • Un service de gestion des clés (PKI) L'objectif de la mission est de nous accompagner sur : • La mise en œuvre des évolutions fonctionnelles et techniques de nos solutions • Le support (du N1 au N3) à nos équipes du pole production et des utilisateurs • La mise en place de documentations techniques permettant d'améliorer les actions d'administration.
CDI
Freelance

Offre d'emploi
Data Engineer (H/F)

1G-LINK CONSULTING
Publiée le
C#
Python
Snowflake

3 mois
Île-de-France, France
Nous recherchons deux Data Engineers expérimentés pour renforcer les équipes Data & Analytics Mission : Conception et industrialisation de pipelines batch & streaming Expertise Snowflake : SQL avancé, modélisation, optimisation des performances Développement : Python, Snowpark, PowerShell, C#, JavaScript Mise en place et maintien des chaînes CI/CD & DevOps (Azure DevOps, Git) Revue de code, qualité, supervision et support niveau 3 Capacité de cadrage, documentation et rôle de référent technico-fonctionnel
Freelance
CDI

Offre d'emploi
Expert Virtualisation & Automatisation (VMware)

ASAP TECHNOLOGIES
Publiée le
Ansible
Git
Terraform

1 an
40k-45k €
400-500 €
Toulouse, Occitanie
Contexte Dans le cadre d’un renfort, le consultant interviendra sur une infrastructure virtualisée VMware en production , avec un fort accent sur l’automatisation , la standardisation et la fiabilité. Collaboration et coordination avec des équipes multi-sites . Mission Exploitation et évolution des plateformes VMware en production (RUN + amélioration continue) Automatisation des tâches d’infrastructure : déploiement, configuration, maintenance, contrôles récurrents, remédiation Standardisation et optimisation des processus infrastructure (templates, bonnes pratiques, documentation) Support expert (N3) sur incidents complexes (diagnostic, RCA, plan d’actions) Collaboration avec équipes multi-sites et autres équipes IT
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance

Mission freelance
Développeur Mobile React Native avec compétences Data

Comet
Publiée le
Apache Spark
Databricks
React Native

200 jours
490-520 €
Châtillon, Île-de-France
Développeur Mobile React Native / Data Engineer Objectif global Renforcer une équipe projet avec un profil hybride Développeur Mobile React Native / Data Engineer, intervenant à la fois sur une application mobile et sur des traitements data. - Présence sur site : 3 jours par semaine obligatoires Livrables attendus : - Évolutions et corrections applicatives - Code documenté, maintenable et industrialisé - Tests unitaires et rapports de tests - Documentation technique associée Compétences techniques requises : - React Native : Expert – impératif - Databricks : Confirmé – impératif - Spark : Confirmé – impératif - SQL : Confirmé – impératif Description de la mission : Dans le cadre d’un projet de transformation digitale, nous recherchons un profil hybride associant développement mobile et data engineering. La mission porte principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur la partie back/data, notamment sur : - les pipelines de données, - les notebooks Databricks, - les traitements Spark et SQL sur environnement Cloud (Azure). Activités détaillées : - Analyse - Participation à l’analyse fonctionnelle détaillée des besoins utilisateurs - Contribution aux ateliers de définition des spécifications - Étude de faisabilité technique et estimation des charges Conception et développement : - Contribution au design technique et aux frameworks applicatifs - Développement et prototypage des composants applicatifs - Structuration et exploitation des bases de données - Revue croisée des développements - Documentation technique et préparation à la mise en production - Harmonisation et industrialisation des composants Tests et recette : - Conception et réalisation des tests unitaires - Identification et correction des anomalies - Contribution aux tests d’intégration - Rédaction des rapports de tests Maintenance : - Réalisation de la maintenance corrective et évolutive - Analyse et résolution des incidents en production Profil recherché : - Expérience significative en React Native en production - Solide compétence en Data Engineering (Databricks, Spark, SQL) - Maîtrise des APIs REST - Utilisation courante de Git - Sensibilité aux pratiques DevOps / CI-CD appréciée
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
CDI

Offre d'emploi
Expert /Administrateur Hadoop H/F

OCSI
Publiée le
Ansible
Apache Kafka
Big Data

40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
CDI

Offre d'emploi
Ingénieur Data - Média

Deodis
Publiée le
Apache Spark
Azure DevOps
Databricks

3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Freelance

Mission freelance
Devops SRE

Ness Technologies
Publiée le
Argo CD
GitLab CI
Grafana

6 mois
Île-de-France, France
Contexte du poste Au sein de l’équipe Site Reliability Engineering (SRE) , vous intervenez sur des plateformes Cloud critiques avec un rôle central dans la fiabilité, la performance et la scalabilité des environnements de production. Le poste est fortement orienté RUN, automatisation et excellence opérationnelle , avec un focus majeur sur OpenShift en production . Vous participez activement à la conception, à l’exploitation et à l’amélioration continue des plateformes Cloud (public, privé ou hybride), dans une logique SRE et DevOps avancée. Missions principalesOpérations & Fiabilité Garantir la stabilité, la résilience et les performances des environnements Cloud et OpenShift. Participer au déploiement, au monitoring, au troubleshooting et à l’optimisation des applications en production. Définir, mettre en œuvre et améliorer les SLO, SLI et SLA . Automatiser les opérations de production dans une approche Infrastructure as Code et GitOps . Engineering & Automatisation Concevoir, développer et maintenir des pipelines CI/CD (GitLab CI). Gérer l’infrastructure via Terraform et Helm . Contribuer au design et à l’évolution des architectures Cloud (Public / Private / Hybrid). OpenShift & Kubernetes Administrer et exploiter des clusters OpenShift : installation, mises à jour, capacity planning gestion des opérateurs sécurité et durcissement des plateformes Améliorer la fiabilité de la plateforme OpenShift et accompagner les équipes de développement dans son usage. Gérer les sujets réseau, stockage, logging et monitoring en environnement Kubernetes / OpenShift. Collaboration & Culture SRE Travailler en étroite collaboration avec les équipes Développement, Sécurité, Infrastructure et Produit . Documenter, partager les bonnes pratiques et contribuer à une démarche d’amélioration continue . Compétences requisesCompétences techniques – Must Have Maîtrise avancée d’OpenShift en environnement de production . Solide expérience sur Kubernetes . Très bonne connaissance des pratiques DevOps / SRE et des outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Bonne expertise des environnements Cloud . Excellente compréhension : des architectures microservices des API REST des patterns de résilience (autoscaling, circuit breaker, etc.). Compétences complémentaires – Nice to Have Expérience OpenShift à grande échelle / très forte production . Pratiques GitOps avancées (Argo CD, Flux). Connaissances en sécurité Cloud : RBAC gestion des secrets network policies Scripting : Python, Bash, Go (optionnel).
Freelance
CDI

Offre d'emploi
AI/ML Product Engineer

Codezys
Publiée le
Data science
Deep Learning
IA Générative

12 mois
Aubervilliers, Île-de-France
Support aux unités opérationnelles dans la conception, le développement et l’industrialisation de solutions d’intelligence artificielle (IA) à travers tous les segments de l’énergie (bâtiments, sites industriels, réseaux, production). En s’appuyant sur une expertise approfondie du domaine de l’énergie et de solides compétences en AI/ML, le but est de transformer les problématiques opérationnelles en produits IA prêts pour la production, évolutifs et performants. L’objectif est de se concentrer sur des cas d’usage à fort impact, susceptibles de générer des résultats mesurables en termes de performance énergétique et de décarbonation, tout en créant des composants ML/AI robustes, explicables et réutilisables, intégrés à la plateforme de données du Groupe et déployables dans plusieurs unités opérationnelles. Objectifs et livrables Concevoir, développer et déployer des solutions IA/ML évolutives pour optimiser la performance énergétique et accélérer la décarbonation dans toutes les unités d’énergie. Transformer les défis opérationnels liés à l’énergie en produits IA prêts pour la production, en collaborant étroitement avec les équipes de Data Science et IT. Construire et maintenir une bibliothèque réutilisable de composantes IA explicables, intégrées à la plateforme de données du Groupe pour un déploiement cross-BU. Piloter la livraison complète des solutions, de la phase de proof of concept (POC) à la mise en production, en garantissant la faisabilité technique, la qualité des données et un impact métier mesurable. Favoriser le partage des connaissances et la réplication des solutions grâce à une documentation complète, des modèles et des guides de déploiement. Faciliter la collaboration inter-fonctionnelle entre les unités opérationnelles, la Data Science, l’IT et les fonctions centrales pour prioriser et exécuter les cas à fort impact.
CDI

Offre d'emploi
AI Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Freelance

Mission freelance
AI Native Software Engineer H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
IA Générative
Java

6 mois
Hauts-de-Seine, France
Poste IA Native Software engineer Localisation Hauts de Seine TT: 2 jours Dans un contexte de forte accélération de l’innovation digitale, nous recherchons un AI-Native Software Engineer capable d’accompagner la transformation des pratiques de développement et d’intégrer l’IA générative au cœur des usages technologiques. Rattaché(e) à la direction Innovation & Stratégie Digitale, le/la prestataire interviendra en tant que référent technique et coach IA, avec une approche résolument orientée delivery, qualité et montée en compétence des équipes. Missions principales Agir comme coach technique des équipes de développement, en diffusant les bonnes pratiques liées à l’IA générative et aux approches AI-Native Accompagner la montée en compétence des équipes via l’intégration d’assistants IA (ex. Copilot, Claude Code) pour accélérer le développement, la revue de code et la documentation Concevoir, développer et maintenir des applications performantes et scalables (Java / Spring Boot, React ou Angular, Node.js), enrichies par des assistants IA intégrés au cycle de vie du développement Mettre en œuvre des automatisations avancées (tests, CI/CD, observabilité, monitoring) afin d’optimiser la productivité et la fiabilité des livraisons Contribuer à des architectures modernes orientées APIs et Cloud (PaaS / IaaS), incluant infrastructure as code (Terraform) Garantir la qualité, la sécurité et la robustesse des développements, en veillant au respect des standards techniques, des bonnes pratiques de sécurité et des contraintes de l’environnement SI Collaborer étroitement avec les équipes produit, design et architecture, dans une logique agile et transverse Accompagner les équipes sur l’ensemble du cycle de vie des solutions, de la conception technique assistée par IA jusqu’au monitoring en production
Freelance

Mission freelance
Network Ops Engineer (réseau & devops)

HAYS France
Publiée le
Administration réseaux
Google Cloud Platform (GCP)
Python

3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing), expérience significative sur les services réseaux d’au moins un fournisseur de cloud majeur (GCP, Azure). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).
CDI

Offre d'emploi
Data Analyst (H/F)

Le Groupe SYD
Publiée le

40k-60k €
Saint-Herblain, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 Dans le cadre du développement de son centre de compétences DATA et des besoins en expertise Client , le Groupe SYD renforce ses équipes et recherche des Consultants DATA confirmés ou seniors . Vous interviendrez sur des projets à forte valeur ajoutée auprès de clients variés, en accompagnant la transformation data et décisionnelle, de la conception à la mise en production des solutions. 📍Lieu : Saint-Herblain 🏠 Télétravail : 1-2 jours 📝Contrat : CDI 👉 Contexte client : Dans le cadre du développement de notre centre de compétences DATA, tu rejoindras une équipe d’experts SYD et interviendras auprès de clients variés pour les accompagner dans leur transformation data et décisionnelle, de l’analyse des besoins métiers jusqu’au déploiement des solutions. Tu auras pour missions de : Recueillir et analyser les besoins métiers des clients Concevoir et modéliser des solutions décisionnelles performantes Développer des tableaux de bord et reportings sous Power BI Mettre en œuvre des modèles de données (DAX, Power Query, modélisation sémantique) Garantir la qualité, la fiabilité et la performance des données Participer aux choix d’architectures Data (Datawarehouse, Lakehouse, etc.) Intervenir sur l’ensemble du cycle de vie des projets (cadrage, build, tests, déploiement) Former nos partenaires clients Accompagner les utilisateurs (formation, conduite du changement) Contribuer au centre de compétences DATA : veille technologique capitalisation des bonnes pratiques montée en compétences des consultants juniors Environnement technique : Dataviz & BI : Power BI (indispensable) Data Platform : Microsoft Fabric, Databricks ou autres ETL : Azure Data Factory, Talend … Langages : SQL, DAX
1590 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous