Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 109 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Architecte Base de Données Oracle/ Ansible H/F

Panda Services
Publiée le
Ansible
Architecture
Automatisation

12 mois
Paris, France
Panda Services , société de services informatiques, recherche pour l’un de ses clients basé à Paris (75) un(e) Architecte Base de Données Oracle/ Ansible Contexte : Au sein de l'équipe architecture composée de 7 personnes, vous serez en charge d'assurer la disponibilité et la sécurité des bases de données dans un environnement multi-moteur. Cadrer l’intégration des bases au SI (flux, accès, cloisonnement) et standardiser / automatiser les opérations DBA via Ansible afin de réduire le run manuel et fiabiliser les opérations. Missions principales Architecture BDD (intégration & sécurité) Industrialisation & automatisation (axe prioritaire) Exploitation & production Changements, patching & obsolescence (orientation exécution) Contribution attendue dans l’équipe Compétences requises Bases de données (environnement multi-moteur) => ORACLE obligatoire ET SQL SERVEUR et/ou POSTGRESQL Automatisation => Ansible avancé (obligatoire) : rôles, inventaires, idempotence, Vault/secrets, exécution sécurisée. Architecture / exploitation / sécurité => Compréhension solide des flux (ports, firewall rules, DNS, TLS), contraintes d’exposition et cloisonnement. Linux solide (et Windows si SQL Server), notions stockage, capacité, performance. Process de changements, MEP, gestion d’incidents. Sécurité : moindre privilège, traçabilité, durcissement, gestion des secrets. Plus apprécié Expérience de la conteneurisation des bases de données. Expérience en environnements fortement contraints (sécurité, audit, conformité). Pratique des environnements critiques et à forte exigence de disponibilité. Profil recherché DBA senior avec minimum 10 ans d’expériences . Forte expérience en production et environnements multi-moteurs. Culture d’industrialisation, d’automatisation et de qualité d’exécution. Capacité à formaliser, documenter et diffuser les standards et bonnes pratiques. Autonomie, rigueur, esprit d’analyse et sens du travail transverse.
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes, Réseaux & Cloud GCP H/F

Le Groupe SYD
Publiée le
Exchange Online
GitLab CI
Kubernetes

12 mois
45k-48k €
450-500 €
Rennes, Bretagne
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Systèmes, Réseaux & Cloud H/F 📍 Lieu : Rennes (35) 🏠 Télétravail : Flexible 📝 Contrat : CDI ou Indep/portage 👉 Contexte client : Tu rejoins un acteur international du secteur de la restauration et de l’agroalimentaire , présent sur de nombreux sites en France et à l’étranger. Au sein de cette équipe, tu interviendras sur un périmètre stratégique couvrant les infrastructures systèmes, le réseau, la sécurité, la containerisation, le Cloud public (GCP) ainsi que la gestion des projets techniques. Tu auras pour missions de : Concevoir, déployer, optimiser et assurer le MCO des infrastructures. Administrer Windows, Linux, VMware, stockage (NetApp/IBM) et sauvegardes (Veeam). Gérer Exchange Online, AD / Azure AD et intervenir sur les environnements Open Source. Prendre en charge Kubernetes, GitLab CI et Terraform pour l’infrastructure GCP . Administrer les solutions de sécurité (firewalls, proxy, WAF, PAM, SSE, EDR, SSO). Intervenir sur les réseaux Cisco/Nexus : LAN, WAN, routage, SD‑WAN. Être force de proposition , piloter les intégrateurs et maintenir les procédures et documents d’exploitation. Conduire les projets techniques de bout en bout, assurer le reporting et le pilotage des prestataires. Gérer l’ escalade N2 , traiter les demandes utilisateurs et assurer une veille technologique. 🧰 Stack technique : Systèmes : Windows Server, Linux, VMware. Cloud & Infra : GCP, Terraform, GitLab CI, Kubernetes. Stockage & Sauvegarde : NetApp, IBM, Veeam. Sécurité : Firewall, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO. Réseau : Cisco, Nexus, TCP/IP, LAN, WAN, SD‑WAN, routage. Identité & Messagerie : AD, Azure AD, Exchange Online.
CDD
CDI
Freelance

Offre d'emploi
Data Analyst Lyon (H/F)

TimTek
Publiée le
Microstrategy
PowerBI

1 an
Lyon, Auvergne-Rhône-Alpes
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 40 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Lyon. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Techlead Data - GCP (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
Freelance

Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data

STHREE SAS pour HUXLEY
Publiée le

6 mois
France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Freelance

Mission freelance
Data analyst / Support analyst

UCASE CONSULTING
Publiée le
Microsoft Excel

3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Freelance

Mission freelance
Administrateur réseaux H/F

TIBCO
Publiée le
Réseaux

6 mois
Carquefou, Pays de la Loire
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin ? * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Nous recherchons pour l'un de nos clients, un acteur du secteur retail un Administrateur réseau confirmé H/F. A ce titre vous serez en charge de : * MCO : Administration courante, campagnes de mise à jour, gestion de l'obsolescence. * Projets : Participation à la conception technique, automatisation/industrialisation, documentation et transferts de compétences. * Support : Support N3 pour les incidents de production et accompagnement des déploiements projets
Freelance

Mission freelance
Data Analyst confirmé

Codezys
Publiée le
Data visualisation
PySpark
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Freelance
CDI

Offre d'emploi
Data Scientist NLP (H/F)

STORM GROUP
Publiée le
AI
Apache Airflow
BigQuery

3 ans
50k-58k €
450-500 €
Île-de-France, France
• contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques, • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
Administrateur réseaux junior H/F

TIBCO
Publiée le
Réseaux

6 mois
Carquefou, Pays de la Loire
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin ? * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Nous recherchons pour l'un de nos clients, un acteur du secteur retail un Administrateur systèmes et réseaux H/F. A ce titre vous serez en charge de : * Assurer le support niveau 2 et 3 sur les plateformes serveurs tant physiques que virtuelles. * Assurer l'administration sur les serveurs Windows * Gestion du réseau local et distant : VLAN, routage, pare-feu, VPN, Wi-Fi, QoS, etc. * Supervision et monitoring de l’infrastructure * Gestion du parc informatique : postes utilisateurs, imprimantes, téléphonie IP. * Support technique de niveau 2/3 auprès des utilisateurs internes et clients externes. * Participation aux projets d’évolution de l’infrastructure (migration, cloud, cybersécurité, etc.).
CDI
Freelance

Offre d'emploi
Data Analyste (H-F) à Niort

K-Lagan
Publiée le
Big Data

1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Freelance
CDI
CDD

Offre d'emploi
Administrateur Réseau OT (H/F)

SPIE ICS
Publiée le
CCNA
Cisco
Cybersécurité

12 mois
40k-45k €
400-450 €
Alès, Occitanie
Nous recherchons pour notre client situé à Alès (30) un Administrateur Réseau OT expérimenté pour renforcer notre équipe informatique/OT. Vous interviendrez en complément de notre administrateur réseau actuel afin d’assurer la gestion, la maintenance et la sécurisation de notre réseau industriel. Missions principales Assurer le maintien en conditions opérationnelles du réseau OT. Administrer un parc d’environ 100 commutateurs industriels (SIEMENS, Hirschmann, Dell, Netgear). Superviser la configuration, le monitoring et le dépannage des équipements réseau. Identifier et suivre l’obsolescence des matériels réseau. Proposer et mettre en œuvre des plans de remplacement des équipements obsolètes. Participer à l’installation, la configuration et la mise en service des projets firewall. Contribuer à l’amélioration continue de la sécurité du réseau OT.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6109 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous