L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 102 résultats.
Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Offre d'emploi
Ingénieur de Production Kubernetes (H/F)
Publiée le
AWS Cloud
DevOps
Kubernetes
1 an
65k-70k €
400-460 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : La supervision et l’exploitation des clusters Kubernetes (on-prem ou OpenShift). L’ industrialisation des déploiements via CI/CD, GitOps et Infrastructure as Code. L’ amélioration continue des performances, de la sécurité et de la traçabilité. La gestion du MCO / RUN : diagnostics, résolution d’incidents, capacity planning. La collaboration étroite avec les équipes DevOps, sécurité et applicatives. VOTRE MISSION : Gérer et maintenir les clusters Kubernetes en production (Kubernetes natif ou OpenShift). Automatiser les déploiements applicatifs avec Helm, ArgoCD, Jenkins ou GitLab CI/CD. Superviser les environnements via Prometheus, Grafana, ELK/EFK, Dynatrace ou équivalents. Assurer la sécurité des environnements conteneurisés : secrets management, durcissement, audit et conformité. Participer aux changements et mises en production dans le cadre ITIL (CAB, incidents, problèmes). Contribuer aux projets de migration et de modernisation des infrastructures vers Kubernetes. Développer des scripts d’automatisation (Bash, Python, Ansible, Terraform). Documenter les procédures et diffuser les bonnes pratiques auprès des équipes projet.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
SRE AWS H/F
Publiée le
AWS Cloud
GitLab CI
Go (langage)
5 mois
Paris, France
Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l'intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l'évolution des outils transverses Etre capable de prendre du recul sur les besoins de l'équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques La stack technique : Coding : Go, Python, PHP, NodeJS, Shell DevOps : Gitlab, Terraform, Ansible Infra : AWS serverless
Mission freelance
Network Ops Engineer (réseau & devops)
Publiée le
Administration réseaux
Google Cloud Platform (GCP)
Python
3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing), expérience significative sur les services réseaux d’au moins un fournisseur de cloud majeur (GCP, Azure). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).
Offre d'emploi
Ingénieur Réseau & Systèmes Senior (H/F)
Publiée le
Cisco
Fortinet
1 mois
40k-45k €
400-450 €
Île-de-France, France
Télétravail partiel
Localisation : Île-de-France (92) – Mission hybride Démarrage : Immédiat Durée : Longue mission Statut : Freelance ou CDI Contexte du poste Nous recherchons un Ingénieur Réseau & Systèmes Senior pour renforcer les équipes techniques d’un acteur majeur du Cloud et de l’infrastructure IT. Vous interviendrez sur des environnements complexes multi-Datacenters, avec une forte orientation automatisation, virtualisation et sécurité réseau. Missions principales Administration systèmes : Déployer et administrer les systèmes Linux (Red Hat, Debian, Ubuntu, CentOS) et Windows Server dans des environnements virtualisés (ESXi, KVM, Hyper-V). Rédiger les documents techniques (HLD/LLD, rapports d’incidents, guides d’exploitation). Automatiser les tâches récurrentes via Bash ou Ansible (sauvegardes, déploiements, patchs). Gérer les solutions de stockage SAN, NAS et objets (Fujitsu, TrueNAS, MiniO). Mettre en œuvre des outils de sécurisation et supervision : Wazuh, CrowdSec, Graylog, ElasticSearch. Administration réseau et sécurité : Configurer, maintenir et dépanner les équipements réseau et sécurité (Cisco, Fortinet, Palo Alto, F5, ZTE, H3C, Alcatel). Gérer les incidents N2/N3, assurer le suivi des SLA et rédiger les rapports d’intervention. Implémenter et maintenir les protocoles de routage et de sécurité : OSPF, BGP, MPLS, VRF, VPN IPsec/SSL, ACL, NAT. Administrer les pare-feux nouvelle génération (NGFW) et assurer la haute disponibilité des infrastructures. Participer à la mise en place et à l’optimisation du backbone IP/MPLS et des interconnexions Datacenter. Soft skills Esprit analytique et sens du diagnostic Capacité à documenter et partager les connaissances Autonomie et rigueur dans la gestion des priorités Excellente communication avec les équipes internes et les clients Pour postuler : Envoyez votre candidature (CV à jour et disponibilité) à :
Mission freelance
IT Systems Engineer M/F
Publiée le
Azure
Google Cloud Platform (GCP)
Linux
6 mois
Île-de-France, France
Télétravail partiel
🎯 Direction et gestion de projets Diriger et gérer des projets liés aux systèmes et au cloud, de leur lancement à leur achèvement, en veillant à leur adéquation avec les objectifs commerciaux. Coordonner et collaborer avec des équipes interfonctionnelles, notamment les services informatiques, les ressources humaines, les installations et les fournisseurs externes, afin de garantir la réussite des projets. Suivre l'avancement des projets, identifier les risques potentiels et mettre en œuvre des stratégies d'atténuation afin de garantir leur livraison dans les délais. ☁️ Solutions systèmes et cloud Concevoir, déployer et gérer des solutions systèmes et cloud, y compris le matériel et les logiciels. Administrer et maintenir les systèmes d'exploitation, les applications logicielles et les configurations de sécurité des ordinateurs de bureau de l'entreprise. 🛠️ Assistance et dépannage Dépanner et résoudre les problèmes techniques liés à l'informatique des utilisateurs finaux aux niveaux 2 et 3. ✅ Conformité et documentation Veiller au respect des politiques de l'entreprise, des normes industrielles et des exigences réglementaires.
Mission freelance
Responsable Infrastructure de transition - LYON
Publiée le
Azure
Infrastructure
Office 365
6 mois
360-860 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Mission Freelance – Responsable Infrastructure de transition - Rhône-Alpes 📍 Rhône-Alpes - Mixte présentiel/remote 📅Démarrage début Décembre avec vision jusqu'à Juin 2026 minimum Je recherche un Responsable Infrastructure de transition pour un de mes clients en Rhône-Alpes. Le scope englobe toute la partie Infrastructure, Cloud Azure, M365. L'objet de la mission est : • d'assurer le pilotage des infrastructures de l'entreprise, plusieurs sites et agences • de piloter l'équipe en direct (une dizaine de personne) • de participer aux travaux de carve-in/carve-out avec les autres filiales du groupe Je suis disponible pour discuter avec vous et échanger sur cette proposition, Sandro Curcio.
Mission freelance
Profil Habilitable - Ingénieur Cloud AWS / DevOps
Publiée le
AWS Cloud
DevOps
6 mois
500-520 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Profil habilitable national ou européen habilitable Participer à la conception, au développement et à l’automatisation du déploiement d’infrastructures et d’applications sur le Cloud AWS , ainsi qu’à la migration des environnements existants vers le cloud, dans un contexte sécurisé et hautement disponible. 🔧 Responsabilités Concevoir et mettre en œuvre les architectures Cloud AWS (réseaux, sécurité, stockage, compute, containers). Automatiser la création et le déploiement des environnements (Infrastructure as Code). Accompagner la migration des applications vers AWS (Lift & Shift, refactoring, conteneurisation). Mettre en place et maintenir les chaînes CI/CD pour le déploiement continu. Garantir la sécurité, la conformité et la traçabilité des déploiements selon les exigences d’habilitation. Surveiller la performance, la disponibilité et les coûts des infrastructures cloud (FinOps). Participer aux choix technologiques et à l’amélioration continue des outils et processus DevOps.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Technicien Support N2 / Réseaux (H/F)
Publiée le
Firewall
Fortinet
12 mois
30k-40k €
240-300 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Vous souhaitez mettre votre expertise technique au service d’infrastructures critiques et d’applications métiers stratégiques ? Nous avons LA mission qu’il vous faut ! En tant que Technicien Support N2 / Réseaux , vous interviendrez dans un environnement exigeant et collaborerez avec une équipe technique structurée pour assurer la continuité de service et la sécurité des équipements réseau et systèmes. 🚀 🙌🔽 Vos missions principales : 🔽🙌 🔸 Prendre en charge les tickets d’incidents de niveau 2 non résolus par le premier niveau et assurer le suivi complet dans l’outil de gestion. 🔸 Gérer le cycle de vie des utilisateurs : création de comptes, gestion des accès et permissions, et accompagnement pédagogique des collaborateurs. 🔸 Diagnostiquer et résoudre les pannes matérielles complexes sur postes de travail et laptops, assurer le support et la maintenance des imprimantes. 🔸 Intervenir sur les équipements réseaux actifs (Cisco) et assurer la gestion et le dépannage des pare-feux Fortinet pour garantir la sécurité et la connectivité. 🔸 Maintenir la documentation technique et enrichir la base de connaissances pour améliorer le support et la gestion des incidents. 🔸 Contribuer à la gestion et à l’optimisation des infrastructures techniques et assurer la sécurité périmétrique.
Mission freelance
Développeur CRM DYNAMICS
Publiée le
ASP.NET
Azure
C#
1 an
450-500 €
Bois-Colombes, Île-de-France
Télétravail partiel
Dans le cadre de l’évolution d’un outil commercial stratégique et du lancement d’un nouveau produit, nous recherchons un Développeur / Concepteur Microsoft Dynamics 365 expérimenté. Vous rejoignez une équipe projet engagée autour de la solution CRM et participez activement au développement et au déploiement d’une application utilisée mondialement. Rattaché(e) à l’équipe Dynamics au sein de la Business Technology, vous interviendrez sur l’ensemble du cycle de vie des évolutions : conception, développement, intégration, tests et participation aux livraisons. Vous collaborerez étroitement avec les équipes de développement basées en France. Vos missions : Participer à la rédaction des spécifications techniques. Développer des fonctionnalités CRM : plug-ins C#/.NET, JavaScript, , Web Services, Azure. Réaliser des revues de code et garantir la qualité technique. Contribuer aux phases de livraison dans un contexte Agile/CI. Concevoir des solutions évolutives et robustes sur Dynamics 365. Participer au chiffrage des développements. Accompagner les Business Analysts et les équipes fonctionnelles dans le design de l’application. Analyser les besoins et proposer des solutions pertinentes et innovantes. Collaborer avec différents interlocuteurs internationaux.
Mission freelance
Ingénieur Dev’Op’s Domaine applicatif H/F
Publiée le
Apache
Apache Tomcat
Azure
6 mois
Guyancourt, Île-de-France
Télétravail partiel
Notre client Grand Compte situé à Guyancourt, recherche un Ingénieur Dev’Op’s Domaine applicatif. Le démarrage est prévu le 15/12/2025. Contexte : Dans un contexte de transformation digitale des applicatifs front-office à destination des chantiers. Au sein de la direction des Opérations Monde. Sur un domaine applicatif exigeant : Maintien en conditions opérationnelles et projet. Des infra très hétérogènes : On’Prem, Azure, Saas. De nombreux axes d’améliorations à identifier et à travailler. Le tout au sein d’une équipe très soudée. Les missions principales : Accompagner les projets du domaine Production >> Projets de déploiement de nouveaux applicatifs Cloud AZURE Préparer/ Optimiser l’exploitabilité des produits Garantir la qualité, la valeur et la performance des services applicatifs du périmètre Accompagner les domaines dans la gestion de leur portefeuille applicatif. Activités principales : Participation à la construction et au design du produit : • Être force de proposition pour faire évoluer / optimiser le produit en mettant en avant l'intérêt pour l'utilisateur. • Contribuer aux DAT et aux SAT • Anticiper et définir les conditions d’exploitabilité (sécurité/Interopérabilité/data) du produit dès la phase projet Garantir l’exploitabilité du produit : • Identifier et coordonner les bons interlocuteurs pour traiter les incidents et les changes, s’assurer qu’ils ont le bon niveau de compétences et accès aux outils nécessaires. • Définir les étapes et anticiper les risques des déploiements • Définir ou challenger les plans de tests : contribuer aux cahiers de tests, réaliser certains tests • Préparer, dupliquer et déployer les environnements • Piloter la rédaction et valider l’ensemble des procédures d’exploitation Suivi de la performance des services : • Superviser la bonne santé des applications « globales » avec les équipes régionales de supervision. • Garantir les engagements de service sur l’ensemble des services appli pour les incidents, les demandes de changements et demandes de services. • Piloter la réalisation des analyses à froid des incidents (amélioration continue). Développer l’industrialisation à chaque étape de la vie du produit : • Identifier les axes d’améliorations sur le périmètre : automatisation, transferts d’activités etc... • Automatiser / sécuriser les déploiements • Implémenter les règles de détection d’incidents (observabilité).
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Mission freelance
Consultant Infrastructure
Publiée le
AWS Cloud
6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
Offre d'emploi
Data Analyst spécialisé données RH & qualité de données
Publiée le
Azure
Data quality
Google Cloud Platform (GCP)
42k-60k €
Paris, France
Télétravail partiel
📢 Recrutement CDI – Data Analyst spécialisé données RH & qualité de données Nous recrutons un Data Analyst en CDI pour intervenir sur des sujets de fiabilisation et structuration de données RH et identités au sein d’un environnement data transverse et stratégique. 🎯 Votre rôle Vous interviendrez sur des données collaborateurs (internes, externes, organisations, comptes) afin d’en garantir la cohérence, la fiabilité et l’exploitabilité. Vous travaillerez en lien avec des équipes data, RH et sécurité sur des flux multi-sources. 🛠 Vos missions principales Analyser et comprendre des données issues de plusieurs systèmes (notamment RH) Détecter les incohérences, doublons et données manquantes Mettre en place des règles de contrôle et d’amélioration de la qualité des données Participer à la structuration d’un référentiel de données fiable Produire des indicateurs et tableaux de bord de suivi (qualité, complétude, fiabilité) Documenter les jeux de données et les règles associées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
3102 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois