Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 065 résultats.
Freelance
CDI
CDD

Offre d'emploi
Intégrateur Unix- CtrM -N2

KEONI CONSULTING
Publiée le
Big Data
Linux
UNIX

18 mois
20k-60k €
100-600 €
Niort, Nouvelle-Aquitaine
Contexte Dans le cadre de l’entité « Operations Data / IA » au sein du Centre des Opérations , participation à la mise en œuvre des projets fonctionnels et techniques dans l’environnement de production, au côté du Responsable de Projet de Production. Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS : Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). TACHES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans.
Freelance

Mission freelance
247811/Incident Manager Data Niort - Dynatrace, Confluence, ITIL

WorldWide People
Publiée le
ITIL

6 mois
350 €
Niort, Nouvelle-Aquitaine
Incident Manager Data Niort - Dynatrace, Confluence, ITIL Contexte de la mission Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Exploitation des Services de Services Delivery Data pilote, assure et améliore au quotidien la disponibilité des services informatiques. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des environnements de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Objectifs et livrables Le poste d'Incident Manager a pour objectif de piloter le processus de gestion des incidents sur le périmètre Data, conformément aux bonnes pratiques ITIL. Il veille à la restauration rapide du service lors d’incidents, à la résolution durable des causes racines, et à la satisfaction du client. Objectifs et livrables Son rôle s’inscrit pleinement dans une démarche d’amélioration continue et de pilotage de la qualité de service. Les missions principales consistent à : ● Piloter le traitement des incidents selon ITIL. ● Coordonner les équipes techniques et suivre les escalades. ● Gérer les incidents majeurs (crise, communication, RCA). ● Assurer la production, l’analyse et la présentation des reportings opérationnels et de gouvernance. ● Participer aux comités techniques et opérationnels. ● Contribuer à l’amélioration continue des processus et de la performance du service. Compétences Requises Un minimum d’expérience est demandé (x<3 ans) avec des compétences avérées. Savoir-Être (Soft Skills) ● Connaissance du référentiel ITIL v4 (certification souhaitée). ● Expérience en pilotage d’incidents. ● Maîtrise de l’outil ITSM (Easyvista). ● Maîtrise du reporting (Google WorkSpace). ● Capacité d’analyse, esprit de synthèse et orientation résultats. ● Excellentes aptitudes en communication et en relation client. ● Rigueur, diplomatie, réactivité et sens du service. ● Activité réalisée partiellement sur site et télétravail. Compétences Techniques (Hard Skills) Le niveau d'expertise souhaité est détaillé ci-dessous : Compétence Niveau Souhaité Ordonnanceur (Control M) Élémentaire (*) Monitoring (Dynatrace) Élémentaire (*) Easyvista ITSM Avancé (**) Jira, Confluence, Google Workspace Élémentaire (*) Certification ITIL Avancé (**) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Compétences demandées Compétences Niveau de compétence CONFLUENCE Expert DYNATRACE Expert ITIL Expert
Freelance
CDI

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Alternance
CDI

Offre d'emploi
data scientist, concepteur-développeur bi F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
DevOps
Docker

Croissy-Beaubourg, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance

Mission freelance
Architecte Technique Senior - SI

Codezys
Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
Freelance
CDD

Offre d'emploi
Consultant Data Quality Monitoring – Stress Test Marché (F/H)

Taleo Capital
Publiée le
Finance
Monitoring
Python

8 mois
33k-40k €
340-480 €
Paris, France
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 400 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Consultant Data Quality Monitoring – Stress Test Marché (H/F) · Début ASAP · Durée 8 mois renouvelables · Localisation Paris Contexte de la mission La mission s’inscrit au sein d’un département en charge des systèmes de gestion des risques liés aux activités de marché . Dans ce cadre, le consultant interviendra sur l’ implémentation d’un outil de monitoring de la qualité des données issues des Stress Tests Marché , afin de renforcer la fiabilité et le contrôle des données utilisées dans les processus de gestion des risques. Le consultant sera intégré à une squad dédiée aux Stress Tests , organisée selon une méthodologie Agile (Scrum) et travaillera avec des équipes internationales situées notamment en Europe et en Asie . Objectifs de la mission · Participer au développement d’un outil de monitoring de la qualité des données · Contribuer à la détection des anomalies dans les données de stress test · Garantir la cohérence et la complétude des données produites · Participer à l’ amélioration des contrôles de qualité des données Missions principales Analyse des flux et compréhension du système: · Comprendre les flux de données liés aux stress tests · Analyser les données produites par les systèmes de marché · Participer à la cartographie des flux de données · Participer aux rituels Agile de l’équipe (daily, sprint review, backlog) Développement des contrôles de qualité: · Participer au développement d’un outil de contrôle qualité en Python · Implémenter des règles de validation des données : o cohérence inter-dates o détection de valeurs manquantes o contrôle de variation o contrôles de complétude · Interroger les bases de données SQL pour récupérer les données de stress test · Contribuer à l’intégration de l’outil dans le pipeline CI/CD Mise en production et suivi : · Déploiement du composant sous forme de microservice · Mise en place d’ alertes automatisées en cas d’anomalie détectée · Production de rapports de qualité des données · Présentation des KPI de qualité aux équipes concernées Documentation et amélioration continue : · Documenter les règles de contrôle et les processus · Contribuer à l’amélioration continue des contrôles de données · Proposition d’améliorations, notamment via des approches avancées de détection d’anomalies Compétences techniques · Python · SQL · Git · CI/CD · Architecture microservices · Méthodologie Agile / Scrum
Freelance
CDI

Offre d'emploi
Ingénieur DevOps / Expert Technique Cloud

VISIAN
Publiée le
Openshift
Terraform

1 an
40k-45k €
400-600 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation technique pour une installation/migration/support/automatisation sur nos applications au sein du Technology Office du Groupe Phase d'étude Accompagnement et orientation des différents intervenants (CDP, l'architecture et la sécurité) en apportant son expertise sur les technologies utilisées, comprendre les résultats de scan de sécurité sur les diverses vulnérabilités. Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition. Notions de Sécurité: scan Xray, Sysdig, Tanium Connaissance des diverses techno: Nginx, Drupal PHP, Apache Tomcat, Java. Phase d'implémentation Contribution à la mise en œuvre du projet technique sur les environnements de production et non production. Réalisation des tests et validation des environnements avant de donner la main aux Etudes. Mise en place Pipeline CI/CD via les toolschains du groupe. Agile/Organiser car plusieurs projets à gérer en même temps. Gestion des espaces Devops avec les CI/CD, GitLabCI, Digital AI, Jenkins, ArgosCD, IBM CLOUD (PaaS/IaaS), Kubernetes (pods, déploiements, cronjob, etc...), Openshift, CHART HELM, Docker, HVAULT (pour les gestion des secrets, certificats, authentification). Notion databases en mode asservice (PostgreSQL, Oracle, SQL Server et MongoDB).
Freelance

Mission freelance
Cloud DevOps Engineer orienté Data (GCP)

Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)

210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
CDI
Freelance

Offre d'emploi
Lead DevOps /

REDLAB
Publiée le
Ansible
Kubernetes
Linux

1 an
55k-62k €
580-660 €
Paris, France
• Veiller à la diffusion des bonnes pratiques DevOps et accompagner les OPS juniors dans leur montée en compétences. • Participer à la définition et à l’évolution de l’architecture technique en collaboration avec les équipes de développement et d’infrastructure. • Garantir le respect des bonnes pratiques de sécurité, de résilience et de scalabilité des infrastructures. • Rédiger et valider la documentation technique critique pour assurer la pérennité des solutions mises en place. • Piloter l’amélioration continue et optimiser les processus de delivery en adoptant une approche d’automatisation et d’industrialisation. • Assurer une veille technologique et proposer des innovations pour améliorer la performance et la fiabilité des systèmes. • Animer la communauté de pratique OPS et participer à des initiatives de partage de connaissance. • Être responsable de la résolution des incidents critiques et coordonner les actions correctives.
Freelance

Mission freelance
SAP Master data

RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)
Migration
SAP

3 mois
400-720 €
Auvergne-Rhône-Alpes, France
Nous recherchons pour l’un de nos clients à Lyon un(e) Consultant(e) SAP MM/SD – Master Data / MDM Expert , pour intervenir sur un projet stratégique de conversion ECC → S/4HANA , avec un fort accent sur les tests de non-régression et la validation des Master Data (BP & Articles) . 🔍 Responsabilités principales : ✅ Réaliser les tests de non-régression sur les Business Partners (clients/fournisseurs) ✅ Vérifier la fusion des partenaires , l’intégrité des données et le respect des tranches de numéros ✅ Tester la visualisation, modification et création des BP , en s’assurant que toutes les classifications, pièces jointes, autorisations et contrôles (doublons SIRET/SIREN/TVA) fonctionnent correctement ✅ Réaliser les tests sur les articles (création, modification, visualisation) et valider la continuité des classifications, pièces jointes et contrôles spécifiques ✅ Participer à la validation des interfaces entrantes et sortantes ✅ Contribuer à l’élaboration et au fonctionnement des outils de reprise en masse pour BP et articles ✅ S’assurer que les reportings et requêtes spécifiques fonctionnent correctement après migration ✅ Documenter tous les tests dans un cahier de tests et suivre les anomalies dans ITop jusqu’à leur résolution
Freelance

Mission freelance
Business Analysis Market Data - Paris

Net technologie
Publiée le
Business Analyst
Market data

6 mois
Paris, France
Objectifs de la mission Gestion de projet / Business Analysis accès marché Suivi des migrations marchés et des demandes métiers sur les outils de passages d'ordres et de market data. - Analyse des impacts (techniques, fonctionnels, régulateurs et interne) des migrations marchés ou des demandes métiers sur les outils de passages d'ordres et de market data - Suivi avec toutes les équipes impactées (developpement, Production, Middle Office, Referentiel, Reporting, Regulatory, Trading Support, Trading,...) - Rédaction des spécifications à destination des équipes de développement - Suivi des développements - Etablissement des procédures de test en concertation avec l'équipe de QA - Suivi des déploiements en production en concertation avec les équipes de production en tenant compte des différentes contraintes (chronologie, versions, calendrier,...)
Freelance
CDI

Offre d'emploi
Ingénieur Réseau Sécurité Fortinet - TOULOUSE

Ewolve
Publiée le
Ansible
Cisco Identity Services Engine (ISE)
Cybersécurité

2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Dans le cadre du renforcement de son équipe Infrastructure Sécurité, notre client grand compte du secteur bancaire recherche un Expert Réseau Sécurité spécialisé Fortinet . Vous interviendrez au sein d’une équipe en charge de l’administration et de l’évolution des infrastructures de sécurité Datacenter (hors gestion des politiques de sécurité). Vos principales responsabilités : Administration et maintien en conditions opérationnelles des infrastructures Firewall Fortinet Expertise N3 en build, run, design et automatisation Participation aux projets d’évolution et d’optimisation des architectures de sécurité Automatisation des tâches d’exploitation et de déploiement Support de niveau avancé sur incidents complexes en production Intégration des infrastructures de sécurité dans un environnement réseau bancaire critique ⚠️ Environnement de production critique nécessitant rigueur et excellence opérationnelle.
Freelance

Mission freelance
Expert système d'exploitation, réseaux et télécoms expert M365 Aix en Provence/la

WorldWide People
Publiée le
Office 365

6 mois
330-340 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Expert système d'exploitation, réseaux et télécoms Aix en Provence ASAP Compétences clés Obligatoire : M365 Active Directory On prem et Entra-ID Intune Pureview Important Concept landing zone API Management Azure Dans le cadre de la Croissance de l'activité du service, nous recherchons un expert M365 Description Au sein de l’ADSN, dans la direction du SI Bureautique du Pôle Numérique, l’expert consultant contribuera à la conception, la mise en oeuvre et à l’évolution des interfaces et solutions M365 à destination de l’ensemble des collaborateurs de l’organisation et ce, en adéquation avec les objectifs stratégique Livrables Document d'architecture Etude d'impact Document d'exploitation Mode opératoire / doc install Rapport d'incident / REX Etude Suggestion d'amélioration / d'optimisation Compétences • Expertises avancées des environnements techniques autour des technologies M365 suivantes : o M365 Suite : Services de Microsoft 365, en particulier Exchange Online, SharePoint Online, OneDrive for Business, Teams, Power Platform (Power BI, Power Apps, Power Automate) o Entra ID : Gestion des identités et des accès via Azure AD notamment l'hybridation avec Active Directory local, et l'intégration des applications au SSO (Single Sign-On) et la mise en place de règles d'accès conditionnelles. o Intune & Endpoint Management : Gestion des périphériques via Intune y compris les politiques de sécurité des appareils mobiles et la gestion des appareils dans un environnement M365. o Security & Compliance : Solutions de gouvernance, protection des informations et conformité principalement avec Microsoft PureView et Microsoft Defender for Office • Connaissances des architectures Cloud Azure, plus précisément des : o Concepts de Landing Zone et des Frameworks de conception Azure o Services Azure standards : Virtual Machines, Networking, Storage, App Service, API Management o Solutions de surveillance et sauvegarde : Azure Monitor, Log Analytics, Azure backup o Solutions de sécurité : Azure RBAC, Azure Firewall et Network Security Groups, Azure Key Vault o Outils d'automatisation et gestion des configurations : PowerShell, Azure DevOps, Automation, Terraform, Ansible o Capacité à définir des architectures et rédiger des documents d’architecture détaillée Compétences clés Obligatoire M365 Active Directory On prem et Entra-ID Intune Pureview Important Concept landing zone API Management Azure
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
CDI

Offre d'emploi
Consultant Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

69007, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5065 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous