L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
DevOps Engineer
Publiée le
Ansible
DevOps
Helm
2 ans
Toulouse, Occitanie
Missions : · Accompagner les équipes de développement sur la démarche DevOps durant leurs itérations agiles. · Collaborer avec les équipes de développement pour intégrer leurs composants et codes de déploiement. · Développer et ajouter des fonctionnalités via des librairies Ansible en fonction des besoins remontés par les équipes, et apporter un support technique · Assurer la conformité des plateformes de tests et opérationnelles aux attentes définies, et participer aux recettes des nouvelles plateformes à livrer prochainement. · Contribuer au développement ponctuel du composant de transfert de données et maintenir le code de déploiement ainsi que le Helm chart.
Mission freelance
Analytics Engineer (Expertise Cornerstone)
Publiée le
Microsoft Power BI
8 mois
400-700 €
Paris, France
Contexte & Enjeux La mission consiste à accompagner les Business Process Owners (BPO) Formation dans l’analyse, la mise en valeur et la restitution des données issues de Cornerstone onDemand . L’objectif principal est de concevoir des dashboards Power BI fiables, pertinents et adaptés aux usages internationaux (Worldwide). Objectifs de la mission Traduire les besoins métier Formation en exigences fonctionnelles exploitables. Concevoir, mettre à jour et maintenir des dashboards Power BI dédiés au périmètre Formation. Analyser et optimiser les possibilités de reporting natives dans Cornerstone onDemand. Réaliser des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes métier et aux stakeholders internationaux. Documenter l’ensemble des solutions et modèles mis en place. Livrables attendus Dashboards Power BI (version finale et évolutions). Rapports Cornerstone optimisés. Documentation fonctionnelle et technique détaillée. Liste des KPIs et définitions associées (glossaire). Compétences requises Expertise Cornerstone onDemand (indispensable). Maîtrise avancée de Power BI , DAX , Power Query . Compétences solides en modélisation de données , gestion des espaces de publication, sécurité des données ( RLS ), rafraîchissements planifiés ( PBIRS ). Compréhension fine des besoins utilisateurs et des KPIs Formation. Anglais professionnel (contexte international). Capacité à vulgariser, former et présenter des dashboards à des utilisateurs non techniques.
Mission freelance
Data Engineer Air France : Tests de Non-Régression
Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux
3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Mission freelance
DevOps engineer expert
Publiée le
Active Directory
Github
IAM
1 an
440-550 €
Île-de-France, France
Télétravail partiel
Description et livrables de la prestation Contexte de la mission Une équipe IAM Infra d’environ 60 personnes, réparties entre la France et l’international, recherche un Expert DevOps pour renforcer ses pratiques de développement et de sécurité. Il ne s’agit pas d’une équipe de développeurs de métier : le code produit n’intègre pas toujours des standards de qualité ou de sécurité. La mission vise donc à professionnaliser la qualité du code, à structurer les pratiques DevOps et à accompagner une transformation culturelle. Le rôle comporte deux dimensions essentielles : - Technique : expertise DevOps (Kubernetes, CI/CD, GitHub, automatisation…). - Coaching : accompagnement, transmission des bonnes pratiques, montée en maturité des équipes. Responsabilités et livrables - Structuration et amélioration des pratiques de développement - Définir, déployer et améliorer les bonnes pratiques : CI/CD, tests automatisés, observabilité, sécurité, backup/restore… - Évaluer régulièrement la maturité des pratiques et piloter les évolutions vers des standards plus exigeants. - Mettre en place des rituels d’amélioration continue et des revues de code structurées. - Accompagnement et adoption des pratiques DevOps - Sensibiliser et accompagner des équipes non-développeuses dans l’adoption du mindset DevOps. - Coacher les équipes au quotidien : revue du code, qualité, automatisation, sécurité by design. - Contribuer à la transformation Agile de l’environnement. - Intégration continue, automatisation et outillage - Concevoir, optimiser et opérer les pipelines CI/CD. - Intégrer ou améliorer les outils DevOps : GitHub, GitOps, IaC, automatisation, APIs self-service. - Travailler en binôme avec un Release Manager pour définir les cycles et processus de release. Expertise souhaitée Expertises techniques attendues - Bon niveau dans un langage de scripting : Python, PowerShell. - Maîtrise de Kubernetes / OpenShift. - Expérience en Infrastructure as Code : Terraform, ArgoCD… - Compétences en .NET ou Java. - Connaissance des projets liés à la sécurité informatique. - Bonus selon les profils : Saviynt, Ping Identity, Active Directory. - Solides bases infrastructure (Linux, Windows, réseau). - Connaissance de l’approche ITIL. Compétences non techniques - Aisance dans un environnement international et multiculturel. - Capacité à accompagner, fédérer et influencer. - Gestion des priorités, des dépendances et des situations complexes. - Sens du service et de la qualité. - Capacité analytique pour soutenir l’amélioration continue. Anglais courant obligatoire ; français apprécié. Profil recherché - Au moins 3 ans d’expérience, si la personne est fortement motivée par la dimension coaching et prête à s’impliquer dans l’accompagnement des équipes. - Alternativement, un profil plus senior peut être attendu si l’appétence pour le coaching est plus faible ou si l’environnement technique nécessite un niveau d’expertise supérieur. - Le poste exige une combinaison d’expertise technique solide et de leadership d’influence. - Une attitude proactive, structurée et orientée amélioration continue est indispensable. Mobilité Hybride, 2 jours sur site (PAris Ouest) 3j TT Spécialités technologiques : Tests automatisés Devops Sécurité informatique IAM / gitOps Compétences Technologies et Outils Linux PowerShell CI/CD Windows Active Java Kubernetes Python GitHub Terraform Méthodes / Normes Agile ITIL Intégration continue Soft skills Sens du serviceLeadership Langues Anglais / Français
Offre d'emploi
Software Engineers DevOps H/F
Publiée le
55k-60k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e software engineer DevOps sur Clermont-Ferrand ! Allez, on vous en dit plus... En lien avec notre manager DCS Sébastien, voici les missions qui vous seront confiées : - Évolution des produits préconisés par l'équipe selon les besoins et les évolutions technologiques - Définition des référentiels de bonnes pratiques, normes, procédures - Conception et réalisation d'outillages pour les équipes de développement - Support aux équipes de développement (bugfix, migration, revue de code, etc.) - Participation à des études techniques et Proof Of Concept - Rédaction de cas d'usage, cas de tests et validation des produits - Développement, déploiement et support d'applications Springboot / Angular / Python - Participation à la rédaction de documents d'architecture, guides, référentiels, présentations et formations - Respect des bonnes pratiques, outils et standards groupe - Forte utilisation de l'automatisation des tests et du déploiement. Et si on parlait de vous ? Titulaire d'un Bac+3 en informatique ou équivalent, vous témoignez de 5 ans d'expérience minimum sur un poste similaire. Compétences attendues sur le volet technique : - Springboot - Angular - Tomcat - Python - GitLab CI/CD - Docker - Kubernetes - Moteur de bases de données relationnelles - SonarQube Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,30EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60% Ingenieur DEVOPS
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer Expert données GPS
Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)
3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
Offre d'emploi
Software Engineer Integration H/F
Publiée le
50k-55k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous cherchons à renforcer nos équipes. Vous travaillez en étroite collaboration avec notre manager Sébastien. Allez on vous en dit plus... Dans le cadre d'une transformation digitale voici les missions que nous souhaitons vous confier : Objectifs : - Concevoir, industrialiser et exploiter les solutions middleware et les outils d'observabilité pour garantir la fiabilité, la performance et la sécurité des échanges SI. - Intervenir sur le Build (mise en place, automatisation, CI/CD) et le Run (supervision, support, optimisation) des plateformes et outils clés. Principales activités : - Administration et exploitation des solutions Axway CFT, IBM MQ, Message Broker ACE. - Mise en place et maintien de chaînes CI/CD avec GitLab CI. - Développement et automatisation via Ansible, Terraform (Infrastructure as Code). - Conteneurisation et orchestration (Docker, Kubernetes). - Observabilité et monitoring (OpenTelemetry, Grafana). - Support et résolution d'incidents sur environnements de production et non-production. - Contribution à la gouvernance technique (bonnes pratiques, documentation, accompagnement). - Veille technologique et amélioration continue. Et si on parlait de vous ? De formation informatique B+3/5 ou équivalent. Vous justifiez d'une expérience similaire réussie. Compétences techniques : -Administration Unix/Linux. -Maîtrise des middlewares (Axway CFT, IBM MQ, ACE). -CI/CD avec GitLab. -Conteneurisation (Docker). -Automatisation et IaC (Ansible, Terraform). -Observabilité (OpenTelemetry, Grafana). Vous faites preuve de rigueur et d'un réel sens du service dans l'ensemble de vos missions, et disposez d'une forte capacité d'analyse ainsi que d'une bonne aptitude à résoudre les problèmes. Votre curiosité et votre adaptabilité vous permettent d'évoluer efficacement dans des environnements variés. Vous maintenez une orientation client interne constante, en veillant à répondre au mieux aux besoins des équipes. Langues : -Anglais professionnel (lu, écrit, parlé). Expérience : -Minimum 5 ans dans des environnements DevOps ou systèmes distribués. Intégration dans une équipe internationale, environnement agile. Mode Hybride (avec du télétravail) Ouvert aux indépendants Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime d'ancienneté, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! DEVOPS
Offre d'emploi
Data Engineer (H/F) - Lyon
Publiée le
Apache Airflow
MLOps
PySpark
1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Mission freelance
Data Engineer GCP
Publiée le
Google Cloud Platform (GCP)
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme -- Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Offre d'emploi
Tech Lead Data Engineer H/F
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : qvrd0gwo33
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage sasu à eurl: transition mutuelle/prévoyance
- Création de site Wordpress : BIC ou BNC ?
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Transfert d'activité - cession du fond de commerce
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- SASU à l'IR & ARE
307 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois